你所在的位置: 首页 > 正文

AI进军写作界,是否会成为假新闻制造机

2019-07-18 点击:1793 钢材新闻

人工智能研究取得了新的突破,但研发团队却不敢打开它。到底是怎么回事? OpenAI是一家由Elon Musk支持的非营利性公司,拒绝公开发布引起所有人注意的研究结果。事实证明,当团队沉浸在成功的喜悦中时,它开始担心AI被滥用于假新闻。毕竟,AI写的文本几乎无法区分真实性。美国专栏作家Hannah Jane Parkinson经历了这项技术,她说,“我已经看到OpenAI的GPT2系统如何产生我的风格文章,我们必须关注马斯克关于人工智能结束的警告。” p>

a5606b5d07b4469ab18b77003b39bd47

OpenAI是一家非营利性研究公司,由Elon Musk,Reid Hoffman,Sam Altman和其他人支持。该公司表示其新的人工智能模型,称为GPT2,是完美的,但被恶意使用的风险是如此之高,以至于该公司正在打破将所有研究结果公之于众的惯常做法,以便有更多时间来讨论这项技术突破。结果。这个新系统可以用来写新闻故事和小说,称为“对文本的虚假假货”。

GPT2的核心是文本生成器。人工智能系统输入文本(从几个单词到整篇文章),然后根据现有的文本预测写下几个句子。该系统正在突破人们的视角,无论是在产出质量方面还是在广泛的潜在用途方面。

当用于简单地生成新文本时,GPT2能够编写与给定样式和主题匹配的可信段落。 OpenAI的研究主管达里奥阿莫迪(Dario Amodei)表示,从研究的角度来看,GPT2有两个突破性的方面,一个是它的规模。与最先进的人工智能模型相比,这些模型“大12倍,数据集大15倍,范围更大”。它受到包含大约1000万篇文章的数据集的培训。

fadb1c08830f40d29820e4386c154ce9

GPT2培训的数据量直接影响其质量,使其更加了解应如何理解书面文本。这也导致了第二次突破 GPT2比以前的文本模型更加通用。通过构造输入文本,它可以执行包括翻译和摘要在内的任务,并通过简单的阅读理解测试,通常表现得比专门为这些任务构建的其他人工智能更好或更好。

OpenAI研究员Alec Radford认为,GPT2的成功是迈向人与机器之间更顺畅沟通的一步。他说,该系统的目的是让计算机更好地掌握自然语言,这可能会改善语音识别等任务(如Siri和Alexa)。

目前,传统新闻机构,如彭博和路透社,已经能够在机器上写新闻。这将在金融和体育新闻领域发挥作用,其中事实和数据往往占主导地位。因此,虽然本申请的初衷是为记者腾出时间进行更具分析性和深入的研究,但这可能反过来引起新闻编辑的恐慌。

c1c0e9cf1e8e405bada553f1374f51d6

与此同时,这对整个新闻业来说可能不是好消息。目前,新闻业正在努力应对广告收入下降,公众对虚假新闻的不信任,党派读者和消费者行为的变化越来越多,版权侵权和互联网抄袭以及政治攻击(特朗普称媒体报道)是一个“人民的敌人”和许多其他问题,机器可能会彻底毁掉新闻业。

与此同时,虚假新闻写作的可能性也使OpenAI违反了其在推动人工智能发展方面的作用。在不确定恶意用户如何使用GPT2之前,研究人员不会广泛使用GPT2。 “我们需要尝试看看他们能做什么,不能做什么,”该公司的政策主管杰克克拉克说。 “如果你无法预测模型的所有功能,你必须激发它,看它是否可以。该怎么办。有许多人比我们更擅长于思考它可以恶意做些什么。“

为了说明这意味着什么,OpenAI已经制作了GPT2版本并进行了一些适度的调整,可以用来产生产品的无限正或负评级。垃圾邮件和假新闻是另外两个明显的潜在缺点。人工智能的未经过滤的本质就是这样。由于它是在互联网上训练的,因此鼓励它创建偏执文本,阴谋理论等并不困难。

32bcff925d134731b783f024d272cc41

克拉克表示,这些担忧的主要问题是该工具可能被用于大规模传播虚假或误导性信息。在众议院情报委员会最近关于人工智能产生的虚假媒体威胁的听证会上,克拉克说他希望这项技术“用于制作(字面上)假新闻”,它可能模仿在线制作大量文字的人或者在社交网络上制作恶意推广文章。

但随着GPT2在网络上的传播,越来越多的人开始使用它,他们使用这个工具来创建从帖子后帖子,短篇小说和诗歌到餐馆评论的所有内容。

目前,OpenAI的团队正在努力解决他们的强大工具可能会使用虚假文本充斥互联网的问题。毕竟,这项技术使我们更难以了解我们在线阅读的任何内容。克拉克说:“技术使欺诈更便宜,更容易,这意味着未来确保信息的真实性将越来越困难。”

1989ad53fd7d4c69aa34b7526507d0ac

一些人正在重视OpenAI的担忧。艾伦人工智能研究所的一组研究人员最近开发了一种用于检测假新闻的“神经系统”工具。参与该项目的华盛顿大学计算机科学教授Yejin Choi表示,检测合成文本实际上“相当容易”,因为生成的文本具有“统计特征”,几乎与指纹一样容易识别。

纽约数据与社会研究所的研究员布里特巴黎担心,尽管这种数字取证技术很有用,但它可以误导人们并将虚假新闻描述为技术问题,事实上,大多数虚假信息都是在创造和传播的没有复杂技术的帮助在线。

5ebb4609d65249ebab19b578ffddf1d9

她说:“我们已经有很多方法来产生虚假信息,人们可以在没有机器帮助的情况下很好地传播这些信息。”哈佛大学伯克曼克莱因互联网与社会中心(哈佛大学伯克曼克莱因互联网与社会中心)联合主任Jocha Benkler(Yochai正在接受视察。

本克勒还表示,最具破坏性的假新闻是由政治极端主义者和网络流氓撰写的,而且经常引发争议性话题,如“引发深仇大恨”,如选举舞弊或移民问题。尽管像GPT2这样的系统可以大规模地生成半连贯的文章,但复制这种心理操作还有很长的路要走。 “大规模生成假文本的简单能力不太可能影响大多数形式的虚假信息。”其他专家表示,OpenAI夸大了GPT2的恶意潜力,以大肆宣传他们的研究成果。

7e57a65ceeaa425a96129a81d19c5e48

无论是GPT2还是类似技术都将成为OpenAI担心的虚假新闻机器,越来越多的人认为在技术发布之前考虑他们的社会影响是一种很好的做法。同时,仍然难以正确使用准确的预测技术。

iWeekly Weekend Pictorial独家手稿,未经许可,请勿转载

日期归档
海钢网 版权所有© www.120sh.net 技术支持:海钢网 | 网站地图