前陣子,我的Pablinux小伙伴 他告訴我們 上 難以忍受的伊隆馬斯克和其他名人寫的要求暫停人工智能研究的信 直到採取措施防止其可能的不利影響。 這給了我談論人工智能的真實和想像風險的藉口。
冒著用失敗的比爾·蓋茨風格的預測來取笑自己的風險,我首先要說的是,在我看來 現在最大的風險是泡沫破滅 這將使網絡公司受到輕微沖擊。
人工智能的真實和想像的風險
我同意 Pablinux 的觀點,這封信比科學推理更具有中世紀的蒙昧主義。 那 同時繼續分享應該建立立法來規範其內容的使用的想法. 然而,我們不能否認,所有的技術在被人們熟知之前,都會使人感到困惑和恐懼。
電影開始時火車到達的投影讓人們逃離了房間,儘管它有很多都市傳說,但無線電版本 世界大戰 Orson Welles 的作品在相信它是真實的人中引起了相當大的恐慌。
事實上,這類軟件監管並不是什麼新鮮事。 許多國家的金融監管機構禁止 Photoshop 等程序編輯鈔票或支票的圖像。
1994 年,湯姆·克蘭西 (Tom Clancy) 出版了 榮譽債務。 被認為是國防問題的專家,Clancy i通過操縱股票公司的專家系統相信危機正在發生,想像對美國金融系統的攻擊 釋放出最終導致危機的拋售浪潮。
在將其視為虛構之前,請記住,在雙子塔建成 7 年前的同一部小說中,克蘭西預計美國可能會遭受使用商用飛機的襲擊。
其實這個想法並不新鮮。 1983年的電影 戰爭遊戲 它講述了一個少年如何將負責導彈發射的計算機誤認為是俄羅斯人在進攻。
讓我們想像一下,我們聽到疾馳逼近。 我們的第一個結論是它是一匹馬,9 次中有 10 次我們是對的。 但是,總有可能是從動物園逃出來的斑馬。 醫生、宇航員和飛行員接受了關於斑馬的嚴格培訓,知道如果出現異常情況該怎麼做。 人工智能模型在訓練時考慮到了馬匹。
類似於 ChatGPT 使用的模型基於其知識庫中的現有信息。 信息重複的次數越多,它賦予的可信度就越高。
由於保存所有可用信息需要大量存儲空間, 它只保存相關的內容,然後根據要求使用統計上看起來最相關的結構重建它. 因此,很多時候我引用不存在的參考文獻只是因為從統計上看,很可能有一份具有該標題的文檔包含該內容。
關於斑馬和不叫的狗
你還有什麼要提請我注意的嗎?
-晚上狗的奇怪事件。
- 狗在晚上什麼也沒做。
這就是奇怪的事件。
柯南道爾爵士
人工智能係統的另一個風險是它們不做什麼。 這也是要記住的重要一點。
在 XNUMX 年代,一位澳大利亞醫生推測,最常見的潰瘍原因是細菌。 由於他沒有出色的履歷,他們一直嘲笑他,直到他被證明是正確的。 與許多其他科學發現(行星自轉、休息越多、工作效率越高)一樣,它們與當下的智慧背道而馳。
但是,智能模型是基於當下的智慧。 在那些達成共識的知識中。 正如冷凍技術、汽車和快遞增加了肥胖人數一樣,人工技術工具的可用性也會讓我們成為懶惰的知識分子並扼殺創新。
如您所見,除了害怕被機器奴役之外,還有很多事情需要擔心。 而且我們仍然不談論源代碼的訪問和用戶的隱私。