Da, cât de multe daune a făcut Skynet. Nu cred că a vorbi despre o lucrare care și-a publicat primul episod în urmă cu aproape 40 de ani (1984) este stricăcioasă, dar în urmă cu patru decenii nu exista inteligență artificială dincolo de programe mici care să învețe puțin și să-ți dea drumul imaginației. Așa a fost concepută figura lui Skynet, un program care a învățat de la sine și s-a îmbunătățit și s-a îmbunătățit până a devenit conștient de sine, „speriat” să afle că va fi oprit și va pune capăt umanității așa cum era cunoscută prin lansarea de rachete. intre SUA si Rusia... Cel mai avansat care există acum, cel puțin asta se știe, este ChatGPT4, iar îmbunătățirile sale au ajuns să sperie sau, cel puțin, să enerveze.
Dar să trecem la un punct mai realist. Preocuparea semnatarilor scrisoare deschisă, inclusiv Elon Musk, au alte preocupări sau una fără formular complet. El frica lor este de necunoscut, una dintre cele mai frecvente temeri, este că OpenAI și alte fundații, programe și proiecte își îmbunătățesc inteligența artificială ca și cum ar fi o cursă pentru a vedea cine ajunge mai departe și când, iar acest lucru poate da rezultate disparate.
ChatGPT 4 în centrul atenției
Cu versiunea < 4 a chatbot-ului OpenAI, lucrurile păreau mai „amuzante” sau „drăguțe”, folosește orice cuvânt preferi. Îl întreabă lucruri și el răspunde; vi se cere să corectați o secțiune de cod și o faceți; îi ceri sensul unei scrisori dintr-un cântec sau dintr-un film și ți-o explică; dar ChatGPT 4 a mers mai departe. Răspunsurile tale s-au îmbunătățit mult și poți chiar să generezi conținut care ar putea fi fals.
Pentru că aceasta este una dintre preocupările care se menționează: să ne imaginăm că scriu un articol foarte detaliat despre motivul pentru care omul nu a ajuns niciodată pe Lună. Acest articol are multe vizite și este distribuit peste tot, deși în unele cazuri este pentru a-l critica. Mai târziu, întrebăm ChatGPT ce s-a întâmplat în acel moment, să ne scrie un articol despre acel eveniment, ne scrie ceva pe baza a ceea ce am scris și, din moment ce nu are capacitatea de a detecta știri false, scrie-ne ceva fals. Acest lucru, sau cu un exemplu mai bun, ar putea inunda rețelele.
Pauza de 6 luni pentru a studia controlul
Ceea ce se cere este căToate laboratoarele AI întrerupeți timp de cel puțin 6 luni antrenamentul sistemelor AI mai puternice decât ChatGPT-4. Această pauză ar trebui să fie publică și verificabilă și să includă toți jucătorii cheie. Dacă pauza nu poate fi adoptată rapid, guvernele ar trebui să intensifice și să instituie un moratoriu.“.
Toate laboratoarele iar experții independenți ar trebui să folosească acest timp pentru implementează un set de protocoale de securitate, care s-a tradus ar putea fi luat ca un alt mod de a spune că trebuie să scrieți legi asemănătoare cu celebrele legi ale roboticii.
Nu este la fel și pentru guverne?
Ceea ce mă frapează personal este punctul în care el spune că, în paralel, dezvoltatorii de inteligență artificială trebuie să colaboreze cu factorii de decizie pentru a accelera dezvoltarea inteligenței artificiale pentru sistemele guvernamentale. Adică, ajuta guvernele cu propria lor inteligență artificială pentru a putea, în câteva cuvinte, să controleze inteligența artificială. Fă ceea ce spun, nu ceea ce fac.
Că scrisoarea a fost semnată de Elon Musk nu mă surprinde. S-a dezvăluit că a co-fondat OpenAI și se pare că, după ce a părăsit compania, succesul îi doare. În rest, da, este adevărat că inteligența artificială, oricât de inteligentă ar fi, în luarea deciziilor se spune că nu este mai bună decât un copil de 7 ani și că poate fi dificil pentru ei să diferențieze adevăratul de informații false, așa că scopul știrilor false este o posibilitate și trebuie luate măsuri. Pentru orice altceva, cred că atâta timp cât nu li se dau codurile de lansare a rachetelor, lucrurile nu arată atât de rău. Sper să nu greșesc.