DALL-E 2,OpenAI 的人工智能系统现已推出测试版

几天前 OpenAI 披露 DALL-E 2,可以从广告中生成图像或编辑和优化现有图像的人工智能系统, 现在提供测试版 它还将加快等待名单上客户的访问速度,目标是在未来几周内惠及约 1 万人。

有了这个“测试版”版本,DALL-E 2,它 可以免费使用,它将转向收费结构 基于学分。 新用户将获得有限数量的积分,可用于生成或编辑图像或创建图像的变体。

OpenAI 宣布 我会邀请更多的人来尝试,因为它计划在接下来的几周内从其研究阶段进入测试阶段,让多达 1 万人从等候名单中加入。

目前尚不清楚 DALL-E 是否会完全向公众开放,但预计此次扩展将是对该平台的一次重大考验,许多研究人员正在监测该技术将如何被滥用。

OpenAI 一直密切关注 DALL-E,因为担心恶意个人会使用这个强大的工具传播错误信息。 想象一下,有人试图用它来制造乌克兰战争的图像,或者创造从未发生过的自然灾害的逼真图像。 此外,使用该平台构建图像会消耗如此多的电量,以至于公司官员担心如果太多人同时尝试使用它,其服务器会出现故障。

除了一些其他 新的功能,与第二个模型的主要区别是 提高图像分辨率,降低延迟 (创建图像所需的时间)和更智能的算法来创建图像。

该软件不仅可以创建具有独特风格的图像, 可以根据您的要求添加不同的艺术技术, 进入绘画风格、油画、橡皮泥、毛线编织、在洞穴墙壁上绘制,甚至作为 60 年代的电影海报。

还有一些方法可以激励 Dall-E 制作内容。 该术语旨在过滤。 虽然血液会触发暴力过滤器,但用户可以输入“a puddle of ketchup”或类似的东西以试图绕过它。

当谈到围绕人工智能成像的技术时,很明显可以通过多种方式对其进行操纵:宣传、假新闻和篡改图像是显而易见的方式。

为了避免这种情况, Dall-E 背后的 OpenAI 团队实施了一项安全策略 对于平台上的所有图像,它分三个阶段工作。 第一步是过滤包含重大违规的数据。 这包括团队认为不合适的暴力、色情内容和图片。

除了团队的安全政策, 有明确的内容政策,用户必须遵守好吧,DALL-E 的产品经理 Joanne Jang 说,该公司仍在微调其内容政策,现在禁止您所期望的*:创建暴力、色情和仇恨内容。 该公司还禁止描绘投票箱和抗议活动的图片,

DALL-E 还禁止描绘真人,并计划在其研究人员了解用户如何与系统交互时采取更多安全措施。

“现在,我们认为有很多未知数需要我们更好地处理,”Jang 说。 “随着我们获得信心,我们计划迅速增加并邀请越来越多的人。”

专家表示,虽然成像算法已经存在了一段时间,但 DALL-E 的速度、准确性和广度代表了该领域的显着进步。

“DALL-E 所做的是捕捉人类想象力的一个元素。 它与人类阅读书籍和想象事物的方式并没有什么不同,但它能够通过算法捕捉这种智能,”麻省理工学院计算机科学教授菲利普伊索拉说,他曾与 Open AI 合作,但不再隶属于. “当然,人们对这种技术如何被滥用存在很多担忧。”

最后 如果您有兴趣了解更多有关它的信息,您可以查看详细信息 在下面的链接中。


发表您的评论

您的电子邮件地址将不会被发表。 必填字段标有 *

*

*

  1. 负责资料:AB Internet Networks 2008 SL
  2. 数据用途:控制垃圾邮件,注释管理。
  3. 合法性:您的同意
  4. 数据通讯:除非有法律义务,否则不会将数据传达给第三方。
  5. 数据存储:Occentus Networks(EU)托管的数据库
  6. 权利:您可以随时限制,恢复和删除您的信息。