Rischi reali e immaginari dell'Intelligenza Artificiale (Opinione)

I modelli di Intelligenza Artificiale non sono in grado di rilevare le anomalie

Tempo fa, il mio partner di Pablinux ci ha detto su la lettera che l'insopportabile Elon Musk e altre personalità hanno scritto chiedendo una pausa sulla ricerca nell'Intelligenza Artificiale fino a quando non potranno essere prese misure per prevenirne i possibili effetti negativi. Questo mi dà la scusa per parlare dei rischi reali e immaginari dell'Intelligenza Artificiale.

A rischio di rendermi ridicolo con previsioni fallite in stile Bill Gates, inizio dicendo questo secondo me il rischio più grande in questo momento è lo scoppio di una bolla Questo lascerà le dot-com sotto un lieve shock.

I rischi reali e immaginari dell'Intelligenza Artificiale

Sono d'accordo con Pablinux che la lettera ha più oscurantismo medievale che ragionamento scientifico. Quello pur continuando a condividere l'idea che dovrebbe essere stabilita una legislazione per regolamentare l'uso del suo contenuto. Tuttavia, non possiamo negare che tutta la tecnologia ha confuso e spaventato le persone fino a quando non è stata ben nota.

La proiezione dell'arrivo di un treno all'inizio della cinematografia faceva fuggire le persone dalla sala e, sebbene abbia molto di una leggenda metropolitana, la versione radiofonica di Guerra dei mondi di Orson Welles ha causato un bel po' di panico tra le persone che credevano che fosse reale.

In effetti, questo tipo di regolamentazione del software non è una novità. Le autorità di regolamentazione finanziaria in molti paesi vietano a programmi come Photoshop di modificare immagini di banconote o assegni.

Nel 1994 ha pubblicato Tom Clancy Debito d'onore. Considerato un esperto di questioni di difesa, Clancy iha immaginato un attacco al sistema finanziario degli Stati Uniti manipolando i sistemi esperti delle società di capitali facendogli credere che fosse in atto una crisi scatenando un'ondata di vendite che alla fine produsse la crisi.

Prima di liquidarlo come finzione, ricordiamo che in quello stesso romanzo, 7 anni prima delle Torri Gemelle, Clancy anticipò che gli Stati Uniti avrebbero potuto subire attacchi con aerei commerciali.

In realtà l'idea non è nuova. il film del 1983 Giochi di guerra Ha raccontato come un adolescente abbia confuso il computer responsabile del lancio del missile facendogli credere che i russi stessero attaccando.

Immaginiamo di sentire avvicinarsi un galoppo. La nostra prima conclusione è che è un cavallo e 9 volte su 10 avremo ragione. Ma c'è sempre la possibilità che sia una zebra scappata dallo zoo. Medici, astronauti e piloti di aeroplani ricevono un addestramento rigoroso pensando alle zebre, sapendo cosa fare se si verifica un'anomalia. I modelli di intelligenza artificiale vengono addestrati pensando ai cavalli.

Un modello come quello utilizzato da ChatGPT si basa su informazioni esistenti nella sua base di conoscenza. Più volte quell'informazione viene ripetuta, maggiore è la credibilità che assegna.

Poiché il salvataggio di tutte le informazioni disponibili richiederebbe molto spazio di archiviazione, salva solo ciò che è rilevante e poi lo ricostruisce come richiesto utilizzando la struttura che statisticamente sembra la più rilevante. Quindi, molte volte cito riferimenti che non esistono solo perché statisticamente è probabile che esista un documento con quel titolo che contenga quel contenuto.

A proposito di zebre e cani che non abbaiano

C'è qualche altro punto su cui desideri attirare la mia attenzione?
-Il curioso incidente del cane di notte.
-Il cane non ha fatto niente di notte.
Questo è stato il curioso incidente.

Sir Arthur Conan Doyle

Un altro dei rischi che corrono i sistemi di Intelligenza Artificiale è quello che non fanno. Ed è anche un punto importante da tenere a mente.

Negli anni 'XNUMX, un medico australiano ipotizzò che la causa più comune di ulcere fossero i batteri. Dal momento che non aveva un ottimo curriculum, gli hanno riso in faccia fino a quando non ha avuto ragione. Come molte altre scoperte scientifiche (la rotazione dei pianeti, il fatto che più pause fai, più sei produttivo) sono contrarie alla saggezza del momento.

Ma i modelli di intelligenza si basano sulla saggezza del momento. In quelle conoscenze in cui c'è consenso. Proprio come la tecnologia del congelamento, le automobili e le consegne hanno aumentato il numero di obesi, la disponibilità di strumenti di tecnologia artificiale può renderci intellettuali pigri e soffocare l'innovazione.

Come puoi vedere, ci sono abbastanza cose di cui preoccuparsi oltre alla paura di essere schiavizzati dalle macchine. E che ancora non si parla di accesso al codice sorgente e della privacy degli utenti.


Lascia un tuo commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

*

*

  1. Responsabile del trattamento: AB Internet Networks 2008 SL
  2. Scopo dei dati: controllo SPAM, gestione commenti.
  3. Legittimazione: il tuo consenso
  4. Comunicazione dei dati: I dati non saranno oggetto di comunicazione a terzi se non per obbligo di legge.
  5. Archiviazione dati: database ospitato da Occentus Networks (UE)
  6. Diritti: in qualsiasi momento puoi limitare, recuperare ed eliminare le tue informazioni.