Berapa Banyak Kerosakan yang Telah Dilakukan oleh Skynet: Surat Terbuka Menyeru Hentikan Eksperimen AI Berskala Besar Melalui ChatGPT 4

Hentikan SembangGPT 4

Ya, berapa banyak kerosakan yang telah dilakukan oleh Skynet. Saya tidak fikir bercakap tentang karya yang menerbitkan episod pertamanya hampir 40 tahun yang lalu (1984) adalah merosakkan, tetapi empat dekad yang lalu tidak ada kecerdasan buatan selain daripada program kecil yang belajar sedikit dan membiarkan imaginasi anda berjalan liar. Beginilah bagaimana sosok Skynet diilhamkan, sebuah program yang belajar dengan sendirinya dan dipertingkatkan dan dipertingkatkan sehingga ia menyedari dirinya sendiri, "takut" untuk mengetahui bahawa ia akan dimatikan dan menamatkan manusia seperti yang diketahui dengan melancarkan peluru berpandu. antara AS dan Rusia. . Yang paling maju yang wujud sekarang, sekurang-kurangnya yang diketahui, ialah SembangGPT 4, dan penambahbaikannya telah menakutkan atau, sekurang-kurangnya, menjengkelkan.

Tetapi mari kita turun ke titik yang lebih realistik. Kebimbangan penandatangan surat terbuka, termasuk Elon Musk, mempunyai kebimbangan lain, atau satu tanpa bentuk penuh. Dia ketakutan mereka adalah perkara yang tidak diketahui, salah satu ketakutan yang paling biasa, ialah OpenAI dan asas, program dan projek lain sedang meningkatkan kecerdasan buatan mereka seolah-olah perlumbaan untuk melihat siapa yang akan melangkah lebih jauh dan bila, dan ini boleh memberikan hasil yang berbeza.

SembangGPT 4 dalam perhatian

Dengan versi < 4 OpenAI chatbot, perkara kelihatan lebih "lucu" atau "comel", gunakan mana-mana perkataan yang anda suka. Mereka bertanya kepadanya sesuatu dan dia menjawab; anda diminta untuk membetulkan bahagian kod dan anda berbuat demikian; anda bertanya kepadanya maksud surat daripada lagu atau filem dan dia menerangkannya kepada anda; tetapi ChatGPT 4 telah pergi lebih jauh. Jawapan anda telah banyak bertambah baik, malah anda boleh menjana kandungan yang mungkin palsu.

Kerana ini adalah salah satu kebimbangan yang disebutkan: mari kita bayangkan bahawa saya menulis artikel yang sangat terperinci tentang mengapa manusia tidak pernah sampai ke bulan. Artikel ini mempunyai banyak lawatan dan dikongsi di mana-mana, walaupun dalam beberapa kes ia adalah untuk mengkritiknya. Kemudian, kami bertanya kepada ChatGPT apa yang berlaku pada masa itu, untuk menulis kami artikel tentang peristiwa itu, ia menulis kepada kami sesuatu berdasarkan apa yang saya tulis dan, kerana ia tidak mempunyai keupayaan untuk mengesan berita palsu, tulis sesuatu yang palsu kepada kami. Ini, atau dengan contoh yang lebih baik, boleh membanjiri rangkaian.

Rehat 6 bulan untuk mengawal belajar

Apa yang dikehendaki ialah ituSemua Makmal AI jeda sekurang-kurangnya 6 bulan latihan sistem AI yang lebih berkuasa daripada ChatGPT-4. Jeda ini hendaklah terbuka dan boleh disahkan, serta merangkumi semua pemain utama. Jika jeda tidak dapat digubal dengan cepat, kerajaan harus meningkatkan dan memulakan moratorium.".

Semua makmal dan pakar bebas harus menggunakan masa ini untuk melaksanakan satu set protokol keselamatan, yang diterjemahkan boleh diambil sebagai cara lain untuk mengatakan bahawa anda perlu menulis undang-undang yang serupa dengan undang-undang robotik yang terkenal.

Bukankah ia sama untuk kerajaan?

Apa yang menarik perhatian saya secara peribadi ialah titik di mana dia mengatakan bahawa, secara selari, pembangun AI perlu bekerjasama dengan pembuat dasar untuk mempercepatkan pembangunan kecerdasan buatan untuk sistem kerajaan. Maksudnya, membantu kerajaan dengan kecerdasan buatan mereka sendiri untuk dapat, dalam beberapa perkataan, untuk mengawal kecerdasan buatan. Lakukan apa yang saya katakan, bukan apa yang saya lakukan.

Bahawa surat itu ditandatangani oleh Elon Musk tidak mengejutkan saya. Telah didedahkan bahawa dia mengasaskan OpenAI, dan nampaknya, selepas meninggalkan syarikat itu, kejayaannya menyakitkan. Selebihnya, ya, adalah benar bahawa kecerdasan buatan, walau bagaimana pun kecerdasan mereka, dalam membuat keputusan dikatakan tidak lebih baik daripada kanak-kanak berumur 7 tahun, dan mungkin sukar bagi mereka untuk membezakan yang benar daripada maklumat palsu. , jadi perkara berita palsu adalah satu kemungkinan dan tindakan mesti diambil. Untuk segala-galanya, saya fikir selagi mereka tidak diberi kod pelancaran peluru berpandu, keadaan tidak kelihatan begitu buruk. Saya harap saya tidak salah.


Tinggalkan komen anda

Alamat email anda tidak akan disiarkan. Ruangan yang diperlukan ditanda dengan *

*

*

  1. Bertanggungjawab untuk data: AB Internet Networks 2008 SL
  2. Tujuan data: Mengendalikan SPAM, pengurusan komen.
  3. Perundangan: Persetujuan anda
  4. Komunikasi data: Data tidak akan disampaikan kepada pihak ketiga kecuali dengan kewajiban hukum.
  5. Penyimpanan data: Pangkalan data yang dihoskan oleh Occentus Networks (EU)
  6. Hak: Pada bila-bila masa anda boleh menghadkan, memulihkan dan menghapus maklumat anda.