ہاں، Skynet نے کتنا نقصان پہنچایا ہے۔ میں نہیں سمجھتا کہ کسی ایسے کام کے بارے میں بات کرنا جس نے اپنی پہلی قسط تقریباً 40 سال پہلے (1984) شائع کی تھی خراب ہو رہی ہے، لیکن چار دہائیاں پہلے چھوٹے پروگراموں سے آگے کوئی مصنوعی ذہانت نہیں تھی جو تھوڑا سا سیکھے اور آپ کے تخیل کو جنگلی چلنے دیں۔ اس طرح اسکائی نیٹ کے اعداد و شمار کا تصور کیا گیا تھا، ایک ایسا پروگرام جو خود ہی سیکھتا ہے اور اس وقت تک بہتر اور بہتر ہوتا ہے جب تک کہ وہ خود سے واقف نہ ہو جائے، یہ جان کر "خوف زدہ" ہو جاتا ہے کہ اسے بند کر دیا جائے گا اور انسانیت کو ختم کر دیا جائے گا جیسا کہ اسے میزائل داغ کر جانا جاتا تھا۔ امریکہ اور روس کے درمیان... سب سے زیادہ جدید جو اب موجود ہے، کم از کم جو معلوم ہے، وہ ہے۔ چیٹ جی پی ٹی 4، اور اس کی بہتری ڈرانے یا کم از کم پریشان کرنے کے لیے آئی ہے۔
لیکن آئیے ایک اور حقیقت پسندانہ نکتہ پر اترتے ہیں۔ کے دستخط کنندگان کی تشویش کھلی خطایلون مسک سمیت، دیگر خدشات ہیں، یا ایک مکمل فارم کے بغیر۔ وہ ان کا خوف نامعلوم ہے۔سب سے عام خوف میں سے ایک یہ ہے کہ OpenAI اور دیگر فاؤنڈیشنز، پروگرامز اور پروجیکٹس اپنی مصنوعی ذہانت کو بہتر بنا رہے ہیں گویا یہ دیکھنے کی دوڑ ہے کہ کون آگے بڑھتا ہے اور کب، اور یہ مختلف نتائج دے سکتا ہے۔
انڈیکس
ChatGPT 4 اسپاٹ لائٹ میں
OpenAI چیٹ بوٹ کے ورژن < 4 کے ساتھ، چیزیں زیادہ "مضحکہ خیز" یا "پیاری" لگ رہی تھیں، آپ جو بھی لفظ پسند کریں استعمال کریں۔ وہ اس سے چیزیں پوچھتے ہیں اور وہ جواب دیتا ہے۔ آپ کو کوڈ کے ایک حصے کو درست کرنے کے لیے کہا جاتا ہے اور آپ ایسا کرتے ہیں۔ آپ اس سے کسی گانے یا فلم کے خط کا مطلب پوچھتے ہیں اور وہ آپ کو اس کی وضاحت کرتا ہے۔ لیکن ChatGPT 4 مزید آگے بڑھ گیا ہے۔ آپ کے جوابات میں کافی بہتری آئی ہے، اور آپ جنریٹ بھی کر سکتے ہیں۔ مواد جو غلط ہو سکتا ہے۔.
کیونکہ یہ ان خدشات میں سے ایک ہے جس کا ذکر کیا گیا ہے: آئیے تصور کریں کہ میں ایک بہت تفصیلی مضمون لکھتا ہوں کہ انسان کبھی چاند پر کیوں نہیں پہنچا۔ اس مضمون کے بہت سارے دورے ہیں اور ہر جگہ شیئر کیا جاتا ہے، حالانکہ بعض صورتوں میں اس پر تنقید کرنا ہے۔ بعد میں، ہم ChatGPT سے پوچھتے ہیں کہ اس وقت کیا ہوا تھا، ہمیں اس واقعہ کے بارے میں ایک مضمون لکھنے کے لیے، یہ ہمیں کچھ لکھتا ہے جس کی بنیاد پر میں نے لکھا ہے اور چونکہ اس میں پتہ لگانے کی صلاحیت نہیں ہے۔ جعلی خبر کےہمیں کچھ غلط لکھیں۔ یہ، یا ایک بہتر مثال کے ساتھ، نیٹ ورکس کو سیلاب کر سکتا ہے۔
مطالعہ کنٹرول کے لیے 6 ماہ کا وقفہ
جس چیز کی ضرورت ہے وہ ہے۔تمام AI لیبز ChatGPT-6 سے زیادہ طاقتور AI سسٹمز کی تربیت کم از کم 4 ماہ کے لیے توقف کریں۔. یہ وقفہ عوامی اور قابل تصدیق ہونا چاہیے، اور اس میں تمام اہم کھلاڑی شامل ہوں۔ اگر توقف کو فوری طور پر نافذ نہیں کیا جاسکتا ہے تو، حکومتوں کو قدم اٹھانا چاہئے اور ایک موقوف قائم کرنا چاہئے۔".
تمام لیبارٹریز اور آزاد ماہرین کو اس وقت کا استعمال کرنا چاہیے۔ حفاظتی پروٹوکول کا ایک سیٹ لاگو کریں۔، جس کا ترجمہ یہ کہنے کے ایک اور طریقے کے طور پر لیا جا سکتا ہے کہ آپ کو روبوٹکس کے مشہور قوانین کی طرح قوانین لکھنے ہوں گے۔
کیا حکومتوں کا بھی یہی حال نہیں؟
جو چیز مجھے ذاتی طور پر متاثر کرتی ہے وہ ایک نقطہ ہے جہاں وہ کہتے ہیں کہ متوازی طور پر، AI ڈویلپرز کو حکومتی نظاموں کے لیے مصنوعی ذہانت کی ترقی کو تیز کرنے کے لیے پالیسی سازوں کے ساتھ مل کر کام کرنے کی ضرورت ہے۔ صرف اتنا کہنا ہے، اپنی مصنوعی ذہانت سے حکومتوں کی مدد کریں۔ چند الفاظ میں، مصنوعی ذہانت کو کنٹرول کرنے کے قابل ہونا۔ وہ کرو جو میں کہتا ہوں، نہ کہ جو میں کرتا ہوں۔
یہ کہ خط پر ایلون مسک نے دستخط کیے تھے مجھے حیرت نہیں ہوتی۔ یہ انکشاف ہوا ہے کہ اس نے OpenAI کی مشترکہ بنیاد رکھی، اور ایسا لگتا ہے کہ کمپنی چھوڑنے کے بعد، اس کی کامیابی کو نقصان پہنچ رہا ہے۔ باقی کے لیے، ہاں، یہ سچ ہے کہ مصنوعی ذہانت، خواہ وہ کتنی ہی ذہین کیوں نہ ہوں، فیصلہ سازی میں کہا جاتا ہے کہ وہ 7 سال کے بچے سے بہتر نہیں ہے، اور یہ کہ ان کے لیے سچ میں فرق کرنا مشکل ہو سکتا ہے۔ جھوٹی خبریں، اس لیے جعلی خبروں کا امکان ہے اور اس پر ایکشن لینا چاہیے۔ باقی سب کچھ کے لیے، میں سمجھتا ہوں کہ جب تک انہیں میزائل لانچ کوڈز نہیں دیے جاتے، حالات اتنے خراب نہیں لگتے۔ مجھے امید ہے کہ میں غلط نہیں ہوں۔
تبصرہ کرنے والا پہلا ہونا