人工智能写作: 你能辨别吗?
原作者:Melissa Heikkilä
翻译:马丁
你正在阅读的这句话可能是由一个AI写的,当然,也有可能不是。
OpenAI近期公布的全新聊天机器人ChatGPT把一个问题抛到了我们眼前:我们如何去辨别我们在网上读到的东西是由人类还是机器所写?
自ChatGPT从今年11月底公布以来,已经有超100万的用户体验过它了。它让人工智能讨论社群着迷,很明显,互联网正被越来越多的人工智能生成的文本所淹没。人们正在用它来创造笑话,写儿童故事,以及书写更加专业的电子邮件。
ChatGPT是OpenAI的大型语言模型GPT-3的衍生产品,它能针对用户问的问题产生出非常人性化的答案。它生产的的句子看起来是正确的,因为AI以正确的顺序排列正确的词汇种类。但它并不知道其中的含义。这些模型通过预测一个句子中最有可能出现的下一个词来完成工作。它们完全不知道某件事情是正确的还是错误的,而且它会自信地编造一些信息以提高回答的可信度,即使那些信息并不是真实的。
在一个已经两极化的网络世界中,这些人工智能工具可能会进一步扭曲我们所接受的信息。如果它们被推广到现实世界的真实产品中,其后果可能是毁灭性的。
人工智能初创公司Hugging Face的政策主管Irene Solaiman说,我们迫切地需要区分人类和人工智能编写的文本的方法,以应对潜在的技术滥用,他曾经是OpenAI的人工智能研究员,为GPT-3的前身GPT-2研究人工智能输出检测。
新的工具对于执行对人工智能生成的文本和代码的封禁也将是至关重要的,就像最近由Stack Overflow宣布的那样,这是一个代码从业者可以寻求帮助的网站。ChatGPT可以轻而易举地回答代码开发
类的问题,但它并非万无一失。错误的代码会导致软件的漏洞和崩溃,修复起来成本很高。
Stack Overflow的一位发言人说,该公司的技术人员正在 "通过一些工具,包括探索法(Heuristics)和检测模型,对数以千计的来自社区成员所提交的报告进行审查",但不愿意透露更多细节。
更现实一点的是,想做到这件事非常困难,封禁很可能几乎无法执行。
今天的检测工具
研究人员有各种方法检测人工智能生成的文本。一种常见的方法是使用软件来分析文本的不同特征。例如,阅读时的流畅程度,某些词汇出现的频率,以及标点符号或句子长度是否是参照了模式某种模式。
"如果你有足够的文章,一个非常容易发现的线索就是'the'这个词出现的次数太多。“ Google Brain (谷歌的深度学习研究项目)” 的高级研究科学家Daphne Ippolito这样评论道。
因为大型语言模型通过预测句子中的下一个词来工作,它们更有可能使用 "the"、"it "或 "is "这样的常用词,而不是古怪、罕见的词。伊波利托和谷歌的一个研究团队在2019年发表的研究报告中发现,这正是自动检测系统擅长的文本。
但伊波利托的研究还显示了一些有趣的事情:人类用户倾向于认为这种 "干净 "的文本看起来更好,包含的错误更少,因此认为它一定是由人写的。
在现实中,人类写的文本充满了错别字,而且变化多端,还包含了不同的写作风格和俚语,而 "语言模型非常、非常少地出现错别字。他们更善于生成完美的文本,"伊波利托说到。
她补充说:"文本中出现的错别字实际上是一个非常好的指标,表明它是人类写的,"。
大型语言模型本身也可用于检测人工智能生成的文本。加拿大不列颠哥伦比亚大学自然语言处理和机器学习研究主席穆罕默德-阿卜杜勒-马吉德(Muhammad Abdul-Mageed)说,最成功的方法之一是在一些由人类写的文本和其他由机器创造的文本上重新训练模型,这样它就能学会区分这两种情况。
同时,德州大学的计算机科学家Scott Aaronson在OpenAI做了一年的研究员,他一直在为GPT-3等模型生成的较长的文本开发“水印“,"在AI的选词上有一个其他方面无法察觉的秘密信号,你可以用它来证明,是的,这来自GPT,"他在博客中写道。
OpenAI的一位发言人证实,该公司正在研究水印问题,并表示其政策规定,用户应该以一种没有人可以合理地误解的方式表明由人工智能产生的文本。
但这些技术上的修正都有很大的注意事项。他们中的大多数人在面对最新一代人工智能语言模型时都没有机会去发现漏洞,因为他们的工具是建立在GPT-2或其他早期模型上的。许多这些检测工具在有大量文本可用时效果最好;在一些具体的用例中,如聊天机器人或电子邮件助手,它们的效率会降低,因为它们依赖较短的对话,提供较少的数据来进行分析。而且使用大型语言模型进行检测还需要强大的计算机,以及对人工智能模型本身的访问,而这是科技公司不允许的,Abdul-Mageed说。
索拉曼说,模型越大、越强大,就越难建立人工智能模型来检测哪些文本是人类写的,哪些不是。
"现在令人担忧的是,ChatGPT有着非常令人印象深刻的输出。检测模型无法跟上,"她说。
依靠人类识别
索拉曼说,检测人工智能编写的文本没有“银弹“。她说:"一个检测模型不会成为你检测合成文本的答案,就像安全过滤器不会成为你减轻偏见的答案一样。
为了有机会解决这个问题,我们将需要改进技术,并在人类与人工智能互动时提高透明度,人们将需要学会发现人工智能编写的句子的迹象。
"伊波利托说:"如果Chrome浏览器或你使用的任何网络浏览器有一个插件,能让你知道你的网页上的任何文本是机器生成的,那就真的太好了。
一些帮助已经出现了。哈佛大学和IBM的研究人员开发了一个名为 "巨型语言模型测试室"(GLTR)的工具,它通过突出可能由计算机程序生成的段落来支持人类。
但人工智能已经在愚弄我们了。康奈尔大学的研究人员发现,人们发现由GPT-2生成的假新闻文章约有66%的时间是可信的。
另一项研究发现,未经训练的人类能够正确识别由GPT-3生成的文本,但其成功率基本上是随机的。
伊波利托说,好消息是,人们可以被训练得更善于发现人工智能生成的文本。她建立了一个游戏,测试在玩家发现它不是人类之前,计算机可以生成多少句子,并发现随着时间的推移,人们逐渐变得更好。
她说:"如果你看了很多生成的文本,并试图找出其中不合理的地方,你就能在这项任务中变得更好。一种方法是挑出不合理的语句,比如人工智能说做一杯咖啡需要60分钟。
GPT-3,ChatGPT的前身,从2020年才开始出现。OpenAI公司说ChatGPT只是一个演示,但类似的强大模型被开发并推广到其它产品中只是时间问题,比如用于客户服务或医疗保健的聊天机器人。而这就是问题的关键所在:这一领域的发展速度意味着每一种检测AI生成的文本的方法都会很快过时。这就像是一场军备竞赛,现在人类正在输掉这场比赛。
数字感化生活,欢迎关注上海白日梦科技,留下您的评论和点赞吧~
0条评论