Si, canto dano fixo Skynet. Non creo que se estrague falar dunha obra que publicou o seu primeiro episodio hai case 40 anos (1984), pero hai catro décadas non había intelixencia artificial máis aló de pequenos programas que aprendían un pouco e deixaban volar a imaxinación. Así se concibiu a figura de Skynet, un programa que aprendeu por si mesmo e foi mellorando e mellorando ata tomar conciencia de si mesmo, "asustado" ao saber que se ía apagar e acabar coa humanidade como era coñecida lanzando mísiles. entre EEUU e Rusia... O máis avanzado que existe agora, polo menos iso se sabe, é ChatGPT 4, e as súas melloras chegaron a asustar ou, polo menos, a molestar.
Pero imos a un punto máis realista. A preocupación dos asinantes do carta aberta, incluído Elon Musk, teñen outras preocupacións ou unha sen un formulario completo. El o seu medo é ao descoñecido, un dos temores máis habituais, é que OpenAI e outras fundacións, programas e proxectos estean a mellorar as súas intelixencias artificiais coma se dunha carreira se tratase para ver quen chega máis lonxe e cando, e isto pode dar resultados dispares.
Índice
ChatGPT 4 no punto de mira
Coa versión < 4 do chatbot de OpenAI, as cousas parecían máis "divertidas" ou "bonitas", usa a palabra que prefires. Pregúntanlle cousas e el responde; pídese que corrixa unha sección do código e faino; pregúntalle o significado dunha letra dunha canción ou dunha película e explícacho; pero ChatGPT 4 foi máis aló. As túas respostas melloraron moito e incluso podes xerar contido que pode ser falso.
Porque esta é unha das preocupacións que se menciona: imaxinemos que escribo un artigo moi detallado sobre por que o home nunca chegou á Lúa. Este artigo ten moitas visitas e compártese por todas partes, aínda que nalgúns casos é para criticalo. Máis tarde, preguntámoslle a ChatGPT que pasou nese momento, que nos escriba un artigo sobre ese suceso, escríbenos algo en función do que escribín e, como non ten capacidade para detectar noticias falsas, escríbenos algo falso. Isto, ou cun mellor exemplo, podería inundar as redes.
Pausa de 6 meses para estudar control
O que se require é isoTodos os laboratorios de IA pausar durante polo menos 6 meses o adestramento de sistemas de IA máis potentes que ChatGPT-4. Esta pausa debe ser pública e verificable e incluir a todos os actores clave. Se a pausa non se pode promulgar rapidamente, os gobernos deberían intensificar e instituír unha moratoria.«.
Todos os laboratorios e expertos independentes deberían aproveitar este tempo para implementar un conxunto de protocolos de seguridade, que traducido podería tomarse como outra forma de dicir que hai que escribir leis semellantes ás famosas leis da robótica.
Non é o mesmo para os gobernos?
O que me chama a atención persoalmente é un punto no que di que, paralelamente, os desenvolvedores de IA deben traballar cos responsables políticos para acelerar o desenvolvemento da intelixencia artificial para os sistemas gobernamentais. É dicir, axudar aos gobernos coa súa propia intelixencia artificial para poder, en poucas palabras, controlar as intelixencias artificiais. Fai o que digo, non o que fago.
Que a carta fose asinada por Elon Musk non me sorprende. Revelouse que foi cofundador de OpenAI, e parece que, despois de deixar a empresa, o seu éxito está prexudicando. Polo demais, si, é certo que a intelixencia artificial, por moi intelixente que sexan, na toma de decisións dise que non é mellor que un neno de 7 anos, e que lles pode resultar difícil diferenciar a verdadeira de información falsa. , polo que o punto de noticias falsas é unha posibilidade e hai que tomar medidas. Por todo o demais, penso que mentres non se lles dean os códigos de lanzamento de mísiles, as cousas non se ven tan mal. Espero non estar equivocado.
Sexa o primeiro en opinar sobre