是的,天网造成了多大的破坏。 我不认为谈论一部在将近 40 年前(1984 年)发布第一集的作品是在剧透,但在 XNUMX 年前,除了可以学习一些东西并让你的想象力尽情发挥的小程序之外,没有人工智能。 这就是天网这个形象的构想,一个自我学习并不断改进和改进的程序,直到它意识到自己,“害怕”得知它将被关闭并终结人类,因为它通过发射导弹而为人所知美俄之间。。 现在存在的最先进的,至少是已知的,是 聊天GPT 4,它的改进已经开始吓到,或者至少是惹恼了。
但是,让我们谈谈更现实的观点。 签署方的关切 打开信封,包括 Elon Musk,还有其他顾虑,或者没有完整的形式。 他 他们害怕未知,最常见的恐惧之一是,OpenAI 和其他基金会、计划和项目正在改进他们的人工智能,就好像这是一场比赛,看谁走得更远,什么时候走得更远,这可能会产生截然不同的结果。
聚光灯下的 ChatGPT 4
使用版本 < 4 的 OpenAI 聊天机器人,事情看起来更“有趣”或“可爱”,使用你喜欢的词。 他们问他事情,他回答; 您被要求更正一段代码,您照做了; 你问他一首歌或一部电影中的字母的含义,他会解释给你听; 但 ChatGPT 4 更进一步。 你的答案有了很大的提高,你甚至可以生成 可能是虚假的内容.
因为这是提到的问题之一:假设我写了一篇非常详细的文章,说明为什么人类从未到达过月球。 这篇文章访问量很大,到处都在分享,虽然在某些情况下是为了批评它。 后来,我们问 ChatGPT 那一刻发生了什么,给我们写了一篇关于那个事件的文章,它根据我写的内容给我们写了一些东西,因为它没有检测能力 假新闻,给我们写些假的。 这个,或者有一个更好的例子,可能会淹没网络。
6个月的休息时间来学习控制
需要的是所有人工智能实验室 暂停至少 6 个月训练比 ChatGPT-4 更强大的 AI 系统. 这种暂停应该是公开的和可验证的,并且包括所有关键参与者。 如果不能迅速实施暂停,政府应加紧实施暂停。«。
所有实验室 独立专家应该利用这段时间 实施一组安全协议,翻译后可以理解为您必须编写类似于著名的机器人法则的法则。
政府不也一样吗?
令我个人印象深刻的是,他说,与此同时,人工智能开发人员需要与政策制定者合作,以加速政府系统人工智能的开发。 也就是说, 用自己的人工智能帮助政府 简而言之,能够控制人工智能。 照我说的做,而不是我做的。
这封信是由埃隆马斯克签署的,这并不让我感到惊讶。 据透露,他是 OpenAI 的联合创始人,离开公司后,他的成功似乎受到了伤害。 对于其他人来说,是的,的确,人工智能无论多么聪明,在决策方面据说并不比一个 7 岁的孩子好,而且他们可能很难区分真假。 false information., 所以假新闻是有可能的,必须采取行动。 对于其他一切,我认为只要不给他们导弹发射密码,事情看起来就不会那么糟糕。 我希望我没有错。
成为第一个发表评论