Skynet เสียหายมากน้อยเพียงใด: จดหมายเปิดผนึกเรียกร้องให้หยุดการทดลอง AI ขนาดใหญ่โดย ChatGPT 4

หยุด ChatGPT 4

ใช่ Skynet เสียหายไปเท่าไหร่แล้ว ฉันไม่คิดว่าการพูดถึงผลงานที่ตีพิมพ์ตอนแรกเมื่อเกือบ 40 ปีที่แล้ว (พ.ศ. 1984) เป็นเรื่องน่าสปอยล์ แต่เมื่อ XNUMX ทศวรรษที่แล้วไม่มีปัญญาประดิษฐ์ใดที่นอกเหนือไปจากโปรแกรมขนาดเล็กที่เรียนรู้เพียงเล็กน้อยและปล่อยให้จินตนาการของคุณโลดแล่น นี่คือลักษณะของ Skynet ซึ่งเป็นโปรแกรมที่เรียนรู้ด้วยตัวเองและปรับปรุงและปรับปรุงจนกว่าจะรู้ตัว "กลัว" ที่จะรู้ว่ามันกำลังจะถูกปิดและยุติมนุษยชาติดังที่ทราบโดยการยิงขีปนาวุธ ระหว่างสหรัฐกับรัสเซีย.. ขั้นสูงสุดที่มีอยู่ในขณะนี้ อย่างน้อยก็เป็นที่รู้จักคือ ChatGPT4และการปรับปรุงนั้นทำให้ตกใจหรืออย่างน้อยก็น่ารำคาญ

แต่ขอลงไปยังจุดที่เป็นจริงมากขึ้น ความกังวลของผู้ลงนามในก จดหมายเปิดผนึกรวมถึง Elon Musk มีข้อกังวลอื่น ๆ หรือไม่มีแบบฟอร์มแบบเต็ม เขา ความกลัวของพวกเขาเป็นสิ่งที่ไม่รู้หนึ่งในความกลัวที่พบบ่อยที่สุดคือ OpenAI และมูลนิธิ โปรแกรม และโครงการอื่นๆ กำลังปรับปรุงปัญญาประดิษฐ์ของพวกเขา ราวกับว่าเป็นการแข่งขันเพื่อดูว่าใครจะไปได้ไกลกว่าและเมื่อใด ซึ่งสิ่งนี้สามารถให้ผลลัพธ์ที่แตกต่างกันได้

ChatGPT 4 ในสปอตไลต์

ด้วยแชทบอท OpenAI เวอร์ชัน < 4 สิ่งต่าง ๆ ดูเหมือน "ตลก" หรือ "น่ารัก" มากกว่า ใช้คำใดก็ได้ที่คุณต้องการ พวกเขาถามเขาและเขาตอบ คุณถูกขอให้แก้ไขส่วนของรหัสและคุณก็ทำเช่นนั้น คุณถามความหมายของจดหมายจากเพลงหรือภาพยนตร์ แล้วเขาจะอธิบายให้คุณฟัง แต่ ChatGPT 4 ไปไกลกว่านั้น คำตอบของคุณดีขึ้นมาก และคุณสามารถสร้างได้ เนื้อหาที่อาจเป็นเท็จ.

เพราะนี่เป็นหนึ่งในข้อกังวลที่กล่าวถึง: ลองจินตนาการว่าฉันเขียนบทความที่มีรายละเอียดมากเกี่ยวกับสาเหตุที่มนุษย์ไปไม่ถึงดวงจันทร์ บทความนี้มีผู้เข้าชมจำนวนมากและแชร์ไปทุกที่ แม้ว่าในบางกรณีจะเป็นการวิจารณ์ก็ตาม ต่อมา เราถาม ChatGPT ว่าเกิดอะไรขึ้นในขณะนั้น เพื่อเขียนบทความเกี่ยวกับเหตุการณ์นั้นให้เรา เขียนบางอย่างตามสิ่งที่ฉันเขียน และเนื่องจากไม่มีความสามารถในการตรวจจับ ข่าวปลอม, เขียนถึงเราในสิ่งที่เป็นเท็จ นี่หรือตัวอย่างที่ดีกว่า อาจทำให้เครือข่ายท่วมท้น

พัก 6 เดือนเพื่อควบคุมการศึกษา

สิ่งที่ต้องมีก็คือAI Labs ทั้งหมด หยุดชั่วคราวเป็นเวลาอย่างน้อย 6 เดือนเพื่อการฝึกอบรมระบบ AI ที่ทรงพลังกว่า ChatGPT-4. การหยุดชั่วคราวนี้ควรเปิดเผยต่อสาธารณะและตรวจสอบได้ และรวมถึงผู้เล่นหลักทั้งหมด หากไม่สามารถประกาศใช้การหยุดชั่วคราวได้ทันท่วงที รัฐบาลควรยกระดับและกำหนดนโยบายการหยุดชั่วคราว"

ห้องปฏิบัติการทั้งหมด และผู้เชี่ยวชาญอิสระควรใช้เวลานี้เพื่อ ใช้ชุดโปรโตคอลความปลอดภัยซึ่งแปลได้อีกอย่างหนึ่งว่าคุณต้องเขียนกฎหมายที่คล้ายกับกฎหมายที่มีชื่อเสียงของวิทยาการหุ่นยนต์

มันไม่เหมือนกันสำหรับรัฐบาล?

สิ่งที่ทำให้ฉันประทับใจเป็นการส่วนตัวคือประเด็นที่เขากล่าวว่านักพัฒนา AI จำเป็นต้องทำงานร่วมกับผู้กำหนดนโยบายเพื่อเร่งการพัฒนาปัญญาประดิษฐ์สำหรับระบบของรัฐบาล กล่าวคือ, ช่วยรัฐบาลด้วยปัญญาประดิษฐ์ของพวกเขาเอง พูดสั้นๆ ว่าสามารถควบคุมปัญญาประดิษฐ์ได้ ทำในสิ่งที่ฉันพูดไม่ใช่สิ่งที่ฉันทำ

การที่ Elon Musk ลงนามในจดหมายนั้นไม่ทำให้ฉันประหลาดใจ มีการเปิดเผยว่าเขาร่วมก่อตั้ง OpenAI และดูเหมือนว่าหลังจากออกจากบริษัทไป ความสำเร็จของเขาก็แย่ลงไปอีก สำหรับส่วนที่เหลือ ใช่ มันเป็นความจริงที่ปัญญาประดิษฐ์ไม่ว่าพวกเขาจะฉลาดแค่ไหนก็ตาม ในการตัดสินใจได้รับการกล่าวขานว่าไม่ดีไปกว่าเด็กอายุ 7 ขวบ และอาจเป็นเรื่องยากสำหรับพวกเขาที่จะแยกแยะความจริงจาก ข้อมูลเท็จ ดังนั้นประเด็นของข่าวปลอมคือความเป็นไปได้และต้องดำเนินการ สำหรับอย่างอื่น ผมคิดว่าตราบใดที่พวกเขาไม่ได้รับรหัสการยิงขีปนาวุธ สิ่งต่างๆ ก็ดูไม่เลวร้ายนัก ฉันหวังว่าฉันไม่ผิด


แสดงความคิดเห็นของคุณ

อีเมล์ของคุณจะไม่ถูกเผยแพร่ ช่องที่ต้องการถูกทำเครื่องหมายด้วย *

*

*

  1. รับผิดชอบข้อมูล: AB Internet Networks 2008 SL
  2. วัตถุประสงค์ของข้อมูล: ควบคุมสแปมการจัดการความคิดเห็น
  3. ถูกต้องตามกฎหมาย: ความยินยอมของคุณ
  4. การสื่อสารข้อมูล: ข้อมูลจะไม่ถูกสื่อสารไปยังบุคคลที่สามยกเว้นตามข้อผูกพันทางกฎหมาย
  5. การจัดเก็บข้อมูล: ฐานข้อมูลที่โฮสต์โดย Occentus Networks (EU)
  6. สิทธิ์: คุณสามารถ จำกัด กู้คืนและลบข้อมูลของคุณได้ตลอดเวลา