Riscuri reale și imaginare ale inteligenței artificiale (opinie)

Modelele de inteligență artificială nu sunt capabile să detecteze anomalii

Cu ceva timp în urmă, partenerul meu Pablinux El ne-a spus pe scrisoarea pe care nesuferitul Elon Musk și alte personalități au scris-o cerând o pauză în cercetarea în inteligența artificială până când se pot lua măsuri pentru prevenirea posibilelor efecte adverse ale acestuia. Asta îmi oferă scuza să vorbesc despre riscurile reale și imaginare ale inteligenței artificiale.

Cu riscul de a mă prosti cu predicții eșuate în stilul lui Bill Gates, încep prin a spune că, în opinia mea cel mai mare risc în acest moment este o explozie de bule Asta va lăsa dot-com-urile până la un șoc ușor.

Riscurile reale și imaginare ale inteligenței artificiale

Sunt de acord cu Pablinux că scrisoarea are mai mult obscurantism medieval decât raționament științific. Acea continuând în același timp să împărtășească ideea că ar trebui instituită o legislație care să reglementeze utilizarea conținutului acestuia. Cu toate acestea, nu putem nega că toată tehnologia a derutat și speriat oamenii până când a fost bine cunoscută.

Proiecția sosirii unui tren la începutul cinematografiei i-a făcut pe oameni să fugă din încăpere și, deși are o mare legendă urbană, versiunea radio a lui Razboiul lumilor de Orson Welles a provocat destulă panică în rândul oamenilor care credeau că este real.

De fapt, acest tip de reglementare software nu este nimic nou. Autoritățile de reglementare financiară din multe țări interzic programelor precum Photoshop să editeze imagini cu bancnote sau cecuri.

În 1994, Tom Clancy a publicat Datoria de onoare. Considerat expert în probleme de apărare, Clancy iși-a imaginat un atac asupra sistemului financiar al Statelor Unite prin manipularea sistemelor experte ale companiilor de acțiuni, făcându-le să creadă că are loc o criză declanșând un val de vânzări care a produs în sfârșit criza.

Înainte de a o respinge ca ficțiune, amintiți-vă că în același roman, cu 7 ani înainte de Turnurile Gemene, Clancy a anticipat că Statele Unite ar putea suferi atacuri folosind avioane comerciale.

De fapt, ideea nu este nouă. filmul din 1983 Jocuri de război A povestit cum un adolescent a încurcat computerul responsabil cu lansarea rachetelor făcându-i să creadă că rușii atacau.

Să ne imaginăm că auzim un galop apropiindu-se. Prima noastră concluzie este că este un cal și de 9 ori din 10 vom avea dreptate. Dar, există întotdeauna posibilitatea ca este o zebră care a scăpat de la grădina zoologică. Medicii, astronauții și piloții de avioane primesc un antrenament strict gândindu-se la zebre, știind ce să facă dacă apare o anomalie. Modelele de inteligență artificială sunt antrenate având în vedere caii.

Un model precum cel folosit de ChatGPT se bazează pe informațiile existente în baza sa de cunoștințe. Cu cât această informație se repetă de mai multe ori, cu atât este mai mare credibilitatea pe care o atribuie.

Deoarece salvarea tuturor informațiilor disponibile ar necesita mult spațiu de stocare, salvează doar ceea ce este relevant și apoi îl reconstruiește așa cum este solicitat folosind structura care statistic pare cea mai relevantă. Prin urmare, de multe ori citez referințe care nu există doar pentru că din punct de vedere statistic este probabil să existe un document cu acel titlu care să conțină acel conținut.

Despre zebre și câini care nu latră

Există vreun alt punct asupra căruia doriți să-mi atrageți atenția?
-Curiosul incident al câinelui noaptea.
-Câinele nu a făcut nimic noaptea.
Acesta a fost incidentul curios.

Sir Arthur Conan Doyle

Un alt risc pe care îl au sistemele de Inteligență Artificială este ceea ce nu fac. Și este, de asemenea, un punct important de reținut.

În anii XNUMX, un medic australian a bănuit că cea mai frecventă cauză a ulcerului era bacteria. Întrucât nu avea un CV grozav, i-au râs în față până i s-a dovedit că are dreptate. Ca multe alte descoperiri științifice (rotația planetelor, faptul că cu cât iei mai multe pauze, cu atât ești mai productiv) ele sunt contrare înțelepciunii momentului.

Dar, modelele de inteligență se bazează pe înțelepciunea momentului. În acele cunoștințe în care există consens. Așa cum tehnologia de congelare, automobilele și livrarea au crescut numărul de obezi, disponibilitatea instrumentelor de tehnologie artificială ne poate face intelectuali leneși și poate înăbuși inovația.

După cum puteți vedea, există destule lucruri de care să vă faceți griji, pe lângă faptul că vă temeți să nu fiți sclavi de mașini. Și că încă nu vorbim despre accesul la codul sursă și confidențialitatea utilizatorilor.


Lasă comentariul tău

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

*

*

  1. Responsabil pentru date: AB Internet Networks 2008 SL
  2. Scopul datelor: Control SPAM, gestionarea comentariilor.
  3. Legitimare: consimțământul dvs.
  4. Comunicarea datelor: datele nu vor fi comunicate terților decât prin obligație legală.
  5. Stocarea datelor: bază de date găzduită de Occentus Networks (UE)
  6. Drepturi: în orice moment vă puteți limita, recupera și șterge informațiile.