Riscos reals i imaginaris de la Intel·ligència Artificial (Opinió)

Els models d'intel·ligència artificial són incapaços de detectar anomalies

Fa una estona, el meu company Pablinux ens va explicar sobre la carta que l'insofrible Elon Musk i altres personalitats van escriure demanant una pausa sobre les investigacions en Intel·ligència Artificial fins que es puguin prendre mesures per prevenir-ne els possibles efectes adversos. Això em dóna l?excusa per parlar dels riscos reals i imaginaris de la Intel·ligència Artificial.

A risc de fer el ridícul amb prediccions fallides a l'estil de Bill Gates, començo dient que al meu entendre el risc més gran en aquest moment és una explosió de la bombolla que deixarà a les de les punt com a lalçada duna lleu pertorbació.

Els riscos reals i imaginaris de la Intel·ligència Artificial

Coincideixo amb Pablinux que la carta té més d'obscurantisme medieval que de raonament científic. Això sense deixar de compartir la idea que s'hauria d'establir una legislació que regulés l'ús del contingut. No obstant això, no podem negar que tota tecnologia va confondre i espantar la gent fins que va ser prou coneguda.

La projecció de l'arribada d'un tren al començament de la cinematografia feia que la gent fugisca de la sala i, encara que tingui molt de llegenda urbana, la versió radiofònica de La guerra dels mons d'Orson Welles va causar força pànic entre persones que van creure que era una cosa real.

De fet, aquest tipus de regulacions al programari no té res de nou. Les autoritats de regulació financera de molts països prohibeixen que programes com Photoshop puguin editar imatges de bitllets o xecs.

El 1994 Tom Clancy va publicar Deute d'honor. Considerat un expert en temes de defensa, Clancy imaginava un atac al sistema financer dels Estats Units manipulant els sistemes experts de les empreses borsàries perquè creguessin que s'estava produint una crisi provocant una onada venedora que finalment va produir la crisi.

Abans de descartar-ho com a ficció recordin que en aquesta mateixa novel·la, 7 anys abans de les Torres Bessones, Clancy va anticipar que els Estats Units podien patir atemptats usant avions comercials.

En realitat, la idea no és nova. La pel·lícula de 1983 Jocs de guerra explicava com un adolescent confonia l'ordinador encarregat del llançament de míssils fent creure que els russos estaven atacant.

Imaginem que escoltem un galop que s'hi acosta. La nostra primera conclusió és que és un cavall i 9 de cada 10 vegades tindrem raó. Però sempre hi ha la possibilitat que es tracti d'una zebra que es va escapar del zoològic. Els metges, els astronautes i els pilots d'avió reben un entrenament estricte pensant en les zebres, en saber què fer si es presenta una anomalia. Els models d'intel·ligència artificial són entrenats pensant en els cavalls.

Un model com el que utilitza ChatGPT es basa en la informació existent a la base de coneixements. Com més vegades aquesta informació es repeteix més gran és la credibilitat que li assigna.

Atès que desar tota la informació disponible requeriria molt d'espai d'emmagatzematge, només guarda allò rellevant i després la reconstrueix a mesura que ho sol·liciten utilitzant l'estructura que estadísticament sembla la més rellevant. Per això moltes vegades citeu referències que no existeixen només perquè estadísticament és probable que hi hagi un document amb aquest títol que contingui aquest contingut.

Sobre zebres i gossos que no borren

Hi ha cap altre punt sobre el qual voleu cridar la meva atenció?
-El curiós incident del gos a la nit.
-El gos no va fer res a la nit.
Aquest va ser el curiós incident.

Sir Arthur Conan Doyle

Un altre dels riscos que tenen els sistemes d'intel·ligència artificial és el que no fan. I també és un punt important que cal tenir en compte.

Als anys noranta un metge australià va conjecturar que la causa més comuna dels úlcers eren els bacteris. Com que no tenia un gran currículum se li van riure a la cara fins que es va demostrar que tenia raó. Com molts altres descobriments científics (La rotació dels planetes, el fet que com més descansos es facin més productiu s'és) són contraris a la saviesa del moment.

Però els models d'intel·ligència es basen en la saviesa del moment. En aquells coneixements en què hi ha consens. Així com la tecnologia de congelació, els automòbils i el delivery van augmentar la quantitat d'obesos, la disponibilitat de les eines de Tecnologia Artificial ens poden convertir en mandrosos intel·lectuals i ofegar la innovació.

Com veuen, hi ha força coses que preocupar-se per sobre tenir por de ser esclavitzats per les màquines. I això que encara no parlem de l'accés al codi font i la privadesa dels usuaris.


Sigues el primer a comentar

Deixa el teu comentari

La seva adreça de correu electrònic no es publicarà. Els camps obligatoris estan marcats amb *

*

*

  1. Responsable de les dades: AB Internet Networks 2008 SL
  2. Finalitat de les dades: Controlar l'SPAM, gestió de comentaris.
  3. Legitimació: El teu consentiment
  4. Comunicació de les dades: No es comunicaran les dades a tercers excepte per obligació legal.
  5. Emmagatzematge de les dades: Base de dades allotjada en Occentus Networks (UE)
  6. Drets: En qualsevol moment pots limitar, recuperar i esborrar la teva informació.