真是太快了。
在公开发布不到6个月后,OpenAI似乎关闭了它的“人工智能分类器”,这是一种人工智能检测工具,ChatGPT的创建者此前曾将其称为“区分人类编写的文本和来自各种提供商的人工智能编写的文本的分类器”。
OpenAI在今年1月31日发布的一篇介绍该工具的博客文章中写道:“虽然不可能可靠地检测到所有人工智能编写的文本,但我们相信,好的分类器可以为人工智能生成的文本是由人类编写的虚假声明提供缓解措施,例如,运行自动错误信息活动,使用人工智能工具进行学术欺诈,以及将人工智能聊天机器人定位为人类。”
当然,这些都是非常合理的担忧,这意味着一个有效的人工智能探测器确实有助于对抗这些和其他人工智能滥用案例。但时间快进到上周,在同一篇博客文章中,OpenAI悄悄发布了一份更新,指出其分类工具不再可用,并将其严重的不准确性归咎于此。(该工具的链接也从OpenAI网站上消失了。)
“截至2023年7月20日,由于准确率低,人工智能分类器将不再可用,”7月20日发布的这份说明写道。“我们正在努力整合反馈,目前正在研究更有效的文本来源技术,并已承诺开发和部署机制,使用户能够了解音频或视觉内容是否是人工智能生成的。”
他们试过了,我们猜?但这令人沮丧。如果构建ChatGPT的专家不能构建一个可靠地检测其输出的工具,那么很难想象其他人可以。
工具的失败让人感觉很重要。可以说,ChatGPT的发布启动了公众对生成式人工智能的快速采用,随着这些工具继续获得动力,合成内容只会激增。与此同时,判断一段内容是否是由人类创造的可能也会变得越来越困难。一个可靠的人工智能探测器将在很大程度上防止现实完全消失。
也就是说,OpenAI关闭这个项目并不奇怪,考虑到1。他们从未保证这台机器是完全准确的。没有人能够生产出完全可靠的人工智能检测工具。
即便如此,OpenAI甚至不到半年就放弃了它的分类器,这对任何近期的人工智能检测解决方案来说都是一个严峻的迹象——尤其是考虑到,就目前而言,可靠的替代方案几乎不存在。