作者|余杨
编辑|苗正卿
8月5日消息,OpenAI 已经开发出一款能够高精度识别 ChatGPT 生成文本的工具,即“给文本添加水印”,但迟迟未发布。
与此强关联的,是人工智能工具的滥用。
随着大语言模型和生成式人工智能聊天机器人的推出,人们使用 AI 的频率越来越高,范围也越来越广,起初用OpenAI训练的ChatGPT撰写邮件、文案、翻译、代码,人们在日常生活和工作中获得了诸多便利,一部分上班族利用其提高生产力,“按时下班”。
但随着学生利用生成式AI完成作业、撰写论文,在某些教授的学术论文中,也发现了由生成式AI生成的内容,人们开始不得不担忧学术内容的真实性和可靠性,AIGC的安全伦理问题也成为社会广泛关注的话题。
在此背景下,了解内容的来源、确定是否是来自于生成式人工智能及确保内容的真实可靠也就变得越来越急迫。
据《华尔街日报》报道,OpenAI 大约一年前就已准备好一套用于给 ChatGPT 创建的文本添加水印的系统和一套用于检测水印的工具。但该公司内部对于是否发布该系统存在分歧。一方面,这似乎是负责任的做法;另一方面,这可能会损害其利润。
根据OpenAI 8月4日在其官网更新的信息,OpenAI 目前正在研究和考虑的方法有两种:文本水印和文本元数据。
文本水印已经研发出来,并且具有较高的准确性,但仍然存在一些问题:它在抵御局部篡改(例如释义)方面具有很高的准确性,甚至很有效,但它对全局篡改的防御能力较弱。
也就是说,使用翻译系统,用另一个生成模型改写,或者要求模型在每个单词之间插入一个特殊字符,然后删除该字符。——或许就会轻松规避水印追踪。
另一方面,文本水印方法可能会对某些群体产生不成比例的影响。例如,它可能会让对非英语母语人士来说,使用人工智能作为写作辅助工具是一种有效的方法,此类水印或对他们的非母语写作造成影响。
而文本元数据的方法,仍处于探索的早期阶段,虽然判断这种方法的有效性还为时过早,但元数据的一些特点使得这种方法特别有前景。因为,与水印不同,元数据是经过加密签名的,这意味着不会出现误报。
而文本水印的误报率,会随着其所应用的文本量的增大而进一步扩大。
事实上,关于AIGC的“水印”问题,早在视听领域就引起了关注。
今年5月,谷歌 DeepMind 首席执行官 Demis Hassabis 在谷歌 I/O 开发者大会上就介绍了新升级的 SynthID 水印印记系统。用来标记数字生成的视频以及 AI 生成的文本,以避免AIGC被用来传播政治错误信息、声称某人说了他们没有说过的话,以及创建非自愿的性内容。
同样,OpenAI 也在扩展自己的图像检测工具。
OpenAI 一直致力于将C2PA纳入元数据(一种广泛使用的数字内容标准),其用户现在可以在 ChatGPT 中编辑 DALL-E 3 生成的图像。但OpenAI希望能够更进一步,在编辑的同时继续展示来源信息,如果用户编辑了图像,OpenAI 则为 C2PA 凭证内置了一种方式来显示图像的编辑情况以及如何编辑。
以下图为例,我们可以看到 AI 生成的原始毛毛虫图片,然后对其进行编辑,让毛毛虫戴上圣诞帽。当用户编辑此图片时,C2PA 凭证会更新以反映这些更改,从而确保透明度。C2PA 凭证包括使用的应用程序和工具(OpenAI 的 DALL-E)、采取的操作(如格式转换和编辑)和其他修改等详细信息。这样,就可以跟踪和显示图像的整个历史记录。
不仅如此,除了对 C2PA 的投入,OpenAI 还在开发新的来源方法,以提高数字内容的完整性。这包括实施防篡改水印——用难以删除的不可见信号标记音频等数字内容——以及检测分类器——使用人工智能评估内容源自生成模型的可能性的工具。这些工具旨在更有效地抵御删除内容来源信号的企图。
提供任何检测人工智能写作材料的方法,对于试图阻止学生将写作作业交给人工智能的教师来说都是一个潜在的福音。OpenAI 还称,水印不会影响其聊天机器人文本输出的质量。
但 OpenAI 似乎也担心使用水印可能会让接受调查的 ChatGPT 用户失去兴趣,其中近 30% 的用户明确告诉该公司,如果实施水印,他们会减少使用该软件。不过,在一项调查中,全球民众以四比一的比例支持使用人工智能检测工具的想法。