Koliko škode je naredil Skynet: Odprto pismo poziva k ustavitvi obsežnih poskusov umetne inteligence Avtor ChatGPT 4

Ustavi ChatGPT 4

Da, koliko škode je naredil Skynet. Mislim, da govorjenje o delu, ki je svojo prvo epizodo objavilo pred skoraj 40 leti (1984), ni pokvarjeno, toda pred štirimi desetletji ni bilo umetne inteligence razen majhnih programov, ki so se malo naučili in pustili domišljiji prosto pot. Tako je nastala podoba Skyneta, programa, ki se je sam od sebe učil in se izboljševal in izboljševal, dokler se ni zavedel samega sebe, »prestrašen«, da bi izvedel, da bo izklopljen in uničil človeštvo, kot je bilo znano z izstreljevanjem raket. med ZDA in Rusijo.. Najnaprednejša, kar zdaj obstaja, se vsaj ve, je ChatGPT4, in njegove izboljšave so začele prestrašiti ali vsaj razjeziti.

Toda pojdimo k bolj realistični točki. Zaskrbljenost podpisnikov k odprto pismo, vključno z Elonom Muskom, imajo druge pomisleke ali enega brez popolnega obrazca. On njihov strah je pred neznanim, eden najpogostejših strahov, je, da OpenAI in druge fundacije, programi in projekti izboljšujejo svoje umetne inteligence, kot da bi šlo za tekmovanje, kdo bo prišel dlje in kdaj, kar lahko daje različne rezultate.

ChatGPT 4 v središču pozornosti

Z različico < 4 klepetalnega robota OpenAI so se stvari zdele bolj »smešne« ali »ljubke«, uporabite katero koli besedo. Sprašujejo ga stvari in on odgovarja; pozvani ste, da popravite del kode in to storite; vprašaš ga za pomen črke iz pesmi ali filma in on ti razloži; vendar je ChatGPT 4 šel dlje. Vaši odgovori so se zelo izboljšali in lahko celo ustvarjate vsebino, ki bi lahko bila lažna.

Ker je to ena od omenjenih skrbi: predstavljajmo si, da napišem zelo podroben članek o tem, zakaj človek ni nikoli dosegel lune. Ta članek ima veliko obiskov in se deli povsod, čeprav je v nekaterih primerih namenjen kritiziranju. Kasneje vprašamo ChatGPT, kaj se je zgodilo v tistem trenutku, da nam napiše članek o tem dogodku, nam napiše nekaj na podlagi tega, kar sem napisal, in ker nima zmožnosti zaznavanja ponaredek novice, napiši nam kaj lažnega. To ali z boljšim primerom bi lahko preplavilo omrežja.

6-mesečni premor za nadzor študija

Kar je potrebno, je toVsi laboratoriji AI za vsaj 6 mesecev prekinite usposabljanje sistemov AI, zmogljivejših od ChatGPT-4. Ta premor mora biti javen in preverljiv ter vključevati vse ključne igralce. Če premora ni mogoče sprejeti hitro, bi morale vlade ukrepati in uvesti moratorij.".

Vsi laboratoriji in neodvisni strokovnjaki bi morali ta čas izkoristiti za implementirati nabor varnostnih protokolov, kar bi prevedeno lahko razumeli kot drug način reči, da morate pisati zakone, podobne slavnim zakonom robotike.

Ali ni enako za vlade?

Kar me osebno preseneti, je točka, kjer pravi, da morajo razvijalci AI vzporedno sodelovati z oblikovalci politik, da bi pospešili razvoj umetne inteligence za vladne sisteme. To se pravi, pomagati vladam z lastno umetno inteligenco da bi z nekaj besedami lahko nadzorovali umetne inteligence. Naredi, kar rečem, ne, kar naredim.

Da je pismo podpisal Elon Musk, me ne preseneča. Razkrito je bilo, da je soustanovil OpenAI in zdi se, da po odhodu iz podjetja njegov uspeh boli. Sicer pa ja, res je, da umetna inteligenca, pa naj bo še tako inteligentna, pri odločanju naj ne bi bila nič boljša od 7-letnega otroka in da morda težko loči resnično od lažne informacije. , zato je bistvo lažnih novic možnost in treba je ukrepati. Glede vsega drugega mislim, da dokler ne dobijo kod za izstrelitev raket, stvari ne izgledajo tako slabo. Upam da se ne motim.


Pustite svoj komentar

Vaš e-naslov ne bo objavljen. Obvezna polja so označena z *

*

*

  1. Odgovoren za podatke: AB Internet Networks 2008 SL
  2. Namen podatkov: Nadzor neželene pošte, upravljanje komentarjev.
  3. Legitimacija: Vaše soglasje
  4. Sporočanje podatkov: Podatki se ne bodo posredovali tretjim osebam, razen po zakonski obveznosti.
  5. Shranjevanje podatkov: Zbirka podatkov, ki jo gosti Occentus Networks (EU)
  6. Pravice: Kadar koli lahko omejite, obnovite in izbrišete svoje podatke.