他们说对于新奇的经典。 我们这个时代写了四个世纪的寓言非常适合理解人工智能新应用的局限性。 我指的是“ChatGPT 洞穴”,它是对著名的柏拉图洞穴寓言的改编
我不反对使用人工智能工具。 事实上,我发现它们使工作变得容易得多。 但只要 被有足够知识的人使用来评估你的工作。
例如; 可以要求 ChatGPT 编写一个 WordPress 插件,但如果缺乏 PHP 知识,该插件可能会导致严重的安全问题。
洞穴的寓言
柏拉图是一位生活在公元前 XNUMX 至 XNUMX 世纪的希腊哲学家。 他以神话和寓言的形式表达了他的思想。 其中最著名的是洞穴。
发表于 LaRepública, 寓言想象 一群人被锁在一个洞穴里,他们身后有一团火,在他们面前的墙上投下阴影。 影子是他们唯一看到的东西,并且想象他们是唯一存在的东西,而忽略了远处的东西。
当其中一名囚犯获释后,他能够看清世界的真实面目,并意识到他在洞穴中的经历是多么有限。
根据柏拉图学者的说法,这个寓言强调我们都根据自己的信息和经验过着自己的生活。 相当于洞穴阴影的信息和经验。 就像囚犯一样,真实的现实是我们无法理解的。
ChatGPT的洞穴
ChatGPT 及其竞争对手既有崇拜者也有 诋毁者。 但是,直到一篇文章之前,没有人对它的失败给出技术解释 出版 科幻作家特德·张 (Ted Chang) 在《纽约客》(New Yorker)
为了解释语言模型的缺陷,Chang 用图像和音频文件的情况做了类比。
数字文件的记录和复制需要两个步骤:首先是 编码,此时文件被转换为更紧凑的格式,然后是解码,这是相反的过程. 转换过程称为无损(恢复的文件与原始文件相同)或有损(某些信息永远丢失)。 有损压缩应用于图像、视频或音频文件,并且在大多数情况下是不明显的。 如果是,则称为压缩工件。 压缩伪影以图像模糊或音频叮当声的形式出现。
Chang 使用来自网络的模糊 JPG 的类比来指代语言模型。 而且,这是非常准确的。 两者都压缩信息,只保留“重要的事情”。 大号语言模型从大量文本数据中生成单词和短语之间的模式和关系的紧凑表示。
从中生成新文本,尽可能使其在内容和含义上与原始文本相似。 问题是网络上没有足够的信息来生成新文本。 这意味着 ChatGPT 能够写一篇大学水平的论文,但不能进行简单的 5 位数运算。
Chang 总结道:
即使可以限制大型语言模型参与创作,我们是否应该使用它们来生成网页内容? 只有当我们的目标是重新打包 Web 上已有的信息时,这才有意义。 有些公司的存在就是为了做到这一点; 我们通常称它们为内容工厂。 也许语言模型的模糊性对他们有用,作为避免侵犯版权的一种方式。 不过总的来说,我会说对内容工厂有利的东西对寻找信息的人不利。 这种重新包装的兴起使我们现在很难在网上找到我们想要的东西。; 由大型语言模型生成的文本在 Web 上发布的越多,Web 本身就越模糊。
而且,就像山洞里的囚犯一样,我们的经历比现实提供给我们的要少得多。