कुछ समय पहले, मेरा पब्लिनक्स पार्टनर उसने हमें बताया पर वह पत्र जो असहनीय एलोन मस्क और अन्य हस्तियों ने आर्टिफिशियल इंटेलिजेंस में शोध पर विराम लगाने के लिए लिखा था जब तक इसके संभावित प्रतिकूल प्रभावों को रोकने के उपाय नहीं किए जा सकते। यह मुझे आर्टिफिशियल इंटेलिजेंस के वास्तविक और काल्पनिक जोखिमों के बारे में बात करने का बहाना देता है।
असफल बिल गेट्स-शैली की भविष्यवाणियों के साथ खुद को मूर्ख बनाने के जोखिम पर, मैं अपनी राय में यह कहकर शुरू करता हूं अभी सबसे बड़ा जोखिम बुलबुला फूटना है इससे डॉट-कॉम को हल्का झटका लगने वाला है।
अनुक्रमणिका
आर्टिफिशियल इंटेलिजेंस के वास्तविक और काल्पनिक जोखिम
मैं पब्लिनक्स से सहमत हूं कि पत्र में वैज्ञानिक तर्क की तुलना में मध्यकालीन अश्लीलता अधिक है। वह इस विचार को साझा करना जारी रखते हुए कि इसकी सामग्री के उपयोग को विनियमित करने के लिए कानून स्थापित किया जाना चाहिए. हालाँकि, हम इस बात से इनकार नहीं कर सकते कि सभी तकनीक लोगों को भ्रमित और डराती हैं जब तक कि यह अच्छी तरह से ज्ञात नहीं थी।
सिनेमैटोग्राफी की शुरुआत में एक ट्रेन के आगमन के प्रक्षेपण ने लोगों को कमरे से भागने पर मजबूर कर दिया, हालांकि इसमें एक शहरी किंवदंती है, इसका रेडियो संस्करण ला गुर्रा डे लॉस मुंडोस Orson Welles द्वारा उन लोगों के बीच काफी घबराहट का कारण बना जो इसे वास्तविक मानते थे।
वास्तव में, इस प्रकार का सॉफ़्टवेयर विनियमन कोई नई बात नहीं है। कई देशों में वित्तीय नियामक प्राधिकरण फोटोशॉप जैसे कार्यक्रमों को बैंकनोट्स या चेक की छवियों को संपादित करने से रोकते हैं।
1994 में टॉम क्लैंसी ने प्रकाशित किया सम्मान का कर्ज। रक्षा मामलों के विशेषज्ञ माने जाने वाले क्लेंसी आईस्टॉक कंपनियों की विशेषज्ञ प्रणालियों को यह विश्वास दिलाने के लिए कि संकट हो रहा है, संयुक्त राज्य अमेरिका की वित्तीय प्रणाली पर हमले की कल्पना की एक बिकवाली की लहर को उजागर किया जिसने अंततः संकट पैदा किया।
इसे कल्पना के रूप में खारिज करने से पहले, याद रखें कि उसी उपन्यास में, ट्विन टावर्स से 7 साल पहले, क्लैन्सी ने अनुमान लगाया था कि संयुक्त राज्य अमेरिका वाणिज्यिक हवाई जहाजों का उपयोग करके हमलों का सामना कर सकता है।
दरअसल यह विचार नया नहीं है। 1983 की फिल्म युद्ध का खेल यह बताता है कि कैसे एक किशोर ने मिसाइल लॉन्च के प्रभारी कंप्यूटर को यह सोचकर भ्रमित कर दिया कि रूसी हमला कर रहे थे।
आइए कल्पना करें कि हम एक सरपट दौड़ते हुए सुनते हैं। हमारा पहला निष्कर्ष यह है कि यह एक घोड़ा है और 9 में से 10 बार हम सही होंगे। लेकिन, इस बात की हमेशा संभावना होती है कि यह एक ज़ेबरा है जो चिड़ियाघर से भाग गया है। डॉक्टरों, अंतरिक्ष यात्रियों और हवाई जहाज के पायलटों को ज़ेब्रा के बारे में सोचने के लिए सख्त प्रशिक्षण मिलता है, यह जानने के लिए कि अगर कोई विसंगति होती है तो क्या करना चाहिए। आर्टिफिशियल इंटेलिजेंस मॉडल को घोड़ों को ध्यान में रखकर प्रशिक्षित किया जाता है।
ChatGPT द्वारा उपयोग किया जाने वाला एक मॉडल अपने ज्ञान के आधार पर मौजूदा जानकारी पर आधारित है। जितनी बार जानकारी दोहराई जाती है, उतनी ही अधिक विश्वसनीयता प्रदान करती है।
चूंकि सभी उपलब्ध सूचनाओं को सहेजने के लिए बहुत अधिक संग्रहण स्थान की आवश्यकता होगी, यह केवल वही सहेजता है जो प्रासंगिक है और फिर उस संरचना का उपयोग करके अनुरोध के अनुसार उसका पुनर्निर्माण करता है जो सांख्यिकीय रूप से सबसे अधिक प्रासंगिक लगती है. इसलिए, कई बार मैं ऐसे संदर्भ उद्धृत करता हूं जो अस्तित्व में नहीं हैं क्योंकि सांख्यिकीय रूप से यह संभावना है कि उस शीर्षक के साथ एक दस्तावेज़ है जिसमें वह सामग्री है।
जेब्रा और कुत्तों के बारे में जो भौंकते नहीं हैं
क्या कोई अन्य बिंदु है जिस पर आप मेरा ध्यान आकर्षित करना चाहते हैं?
-रात में कुत्ते की अजीबोगरीब घटना।
-कुत्ते ने रात में कुछ नहीं किया।
वह जिज्ञासु घटना थी।
महाशय आर्थर कोनन डॉयल
आर्टिफिशियल इंटेलिजेंस सिस्टम का एक और जोखिम यह है कि वे क्या नहीं करते हैं। और यह भी ध्यान रखने योग्य एक महत्वपूर्ण बात है।
XNUMX के दशक में, एक ऑस्ट्रेलियाई डॉक्टर ने अनुमान लगाया कि अल्सर का सबसे आम कारण बैक्टीरिया था। चूंकि उसके पास एक अच्छा बायोडाटा नहीं था, वे उसके चेहरे पर तब तक हँसे जब तक वह सही साबित नहीं हुआ। कई अन्य वैज्ञानिक खोजों की तरह (ग्रहों का घूर्णन, यह तथ्य कि आप जितना अधिक विराम लेते हैं, आप उतने ही अधिक उत्पादक होते हैं) वे इस समय के ज्ञान के विपरीत हैं।
लेकिन, इंटेलिजेंस मॉडल पल के ज्ञान पर आधारित होते हैं। उन विद्याओं में जिनमें मतैक्य होता है। जिस तरह बर्फ़ीली तकनीक, ऑटोमोबाइल और डिलीवरी ने मोटापे की संख्या में वृद्धि की है, कृत्रिम प्रौद्योगिकी उपकरणों की उपलब्धता हमें आलसी बुद्धिजीवी बना सकती है और नवाचार को रोक सकती है।
जैसा कि आप देख सकते हैं, मशीनों के गुलाम होने के डर से ऊपर चिंता करने के लिए पर्याप्त चीजें हैं। और हम अभी भी स्रोत कोड तक पहुंच और उपयोगकर्ताओं की गोपनीयता के बारे में बात नहीं करते हैं।
पहली टिप्पणी करने के लिए