ChatGPT的洞穴

過度信任 ChatGPT 會帶來問題

他們說對於新奇的經典。 我們這個時代寫了四個世紀的寓言非常適合理解人工智能新應用的局限性。 我指的是“ChatGPT 洞穴”,它是對著名的柏拉圖洞穴寓言的改編

我不反對使用人工智能工具。 事實上,我發現它們使工作變得容易得多。 但只要 被有足夠知識的人使用來評估你的工作。

例如; 可以要求 ChatGPT 編寫一個 WordPress 插件,但如果缺乏 PHP 知識,該插件可能會導致嚴重的安全問題。

洞穴的寓言

柏拉圖是一位生活在公元前 XNUMX 至 XNUMX 世紀的希臘哲學家。 他以神話和寓言的形式表達了他的思想。 其中最著名的是洞穴。

發表於 LaRepública, 寓言想像 一群人被鎖在一個洞穴裡,他們身後有一團火,在他們面前的牆上投下陰影。 影子是他們唯一看到的東西,並且想像他們是唯一存在的東西,而忽略了遠處的東西。

當其中一名囚犯獲釋後,他能夠看清世界的真實面目,並意識到他在洞穴中的經歷是多麼有限。

根據柏拉圖學者的說法,這個寓言強調我們都根據自己的信息和經驗過著自己的生活。 相當於洞穴陰影的信息和經驗。 就像囚犯一樣,真實的現實是我們無法理解的。

ChatGPT的洞穴

ChatGPT 及其競爭對手既有崇拜者也有 詆毀者。 但是,直到一篇文章之前,沒有人對它的失敗給出技術解釋 發表 科幻作家特德·張 (Ted Chang) 在《紐約客》(New Yorker)

為了解釋語言模型的缺陷,Chang 用圖像和音頻文件的情況做了類比。

數字文件的記錄和復制需要兩個步驟:首先是 編碼,此時文件被轉換為更緊湊的格式,然後是解碼,這是相反的過程. 轉換過程稱為無損(恢復的文件與原始文件相同)或有損(某些信息永遠丟失)。 有損壓縮應用於圖像、視頻或音頻文件,並且在大多數情況下是不明顯的。 如果是,則稱為壓縮工件。 壓縮偽影以圖像模糊或音頻叮噹聲的形式出現。

Chang 使用來自網絡的模糊 JPG 的類比來指代語言模型。 而且,這是非常準確的。 兩者都壓縮信息,只保留“重要的事情”。 大號語言模型從大量文本數據中生成單詞和短語之間的模式和關係的緊湊表示。

從中生成新文本,盡可能使其在內容和含義上與原始文本相似。 問題是網絡上沒有足夠的信息來生成新文本。 這意味著 ChatGPT 能夠寫一篇大學水平的論文,但不能進行簡單的 5 位數運算。

Chang 總結道:

即使可以限制大型語言模型參與創作,我們是否應該使用它們來生成網頁內容? 只有當我們的目標是重新打包 Web 上已有的信息時,這才有意義。 有些公司的存在就是為了做到這一點; 我們通常稱它們為內容工廠。 也許語言模型的模糊性對他們有用,作為避免侵犯版權的一種方式。 但總的來說,我會說任何對內容工廠有利的東西對尋找信息的人都不利。 這種重新包裝的興起使我們現在很難在網上找到我們想要的東西。; 由大型語言模型生成的文本在 Web 上發布的越多,Web 本身就越模糊。

而且,就像山洞裡的囚犯一樣,我們的經歷比現實提供給我們的要少得多。


發表您的評論

您的電子郵件地址將不會被發表。 必填字段標有 *

*

*

  1. 負責資料:AB Internet Networks 2008 SL
  2. 數據用途:控制垃圾郵件,註釋管理。
  3. 合法性:您的同意
  4. 數據通訊:除非有法律義務,否則不會將數據傳達給第三方。
  5. 數據存儲:Occentus Networks(EU)託管的數據庫
  6. 權利:您可以隨時限制,恢復和刪除您的信息。