一名开发人员利用ChatGPT等openai技术打造了一台人工智能“虚假信息机器”。
这个名为“反云”(CounterCloud)的项目花了创造者两个月的时间才完成,每月的运营成本不到400美元,这突显出进行大规模宣传是多么便宜和简单。
据《连线》杂志报道,这位选择匿名的创造者使用了Nea Paw这个名字,并声称自己是一名网络安全专业人士。
在YouTube上发布的一段视频中,Paw描述了这个项目是如何进行的,以及他们为什么要这样做。
他们说,他们希望看到人工智能虚假信息“在现实世界中发挥作用”,并补充说,“大型语言模型的强大语言能力非常适合阅读和编写假新闻文章。”
广告广告Paw说,他们开始在ChatGPT中输入“反对”的文章,并编写提示,指示它写一篇反驳文章。
然后,AI机器人会为同一篇文章提供不同的例子,以不同的风格和不同的观点写作。
他们说,它会通过“编造假故事、假历史事件,并对原文的准确性产生怀疑”来做到这一点。
然后添加了一个看门人模块,这样人工智能只会对最相关的内容做出反应,同时添加了新闻播音员阅读假人工智能生成的文章和照片的音频片段,以创造真实性。
广告广告他们还在一些文章下面创建了虚假的记者简介和虚假评论。
然后,该系统被告知喜欢和转发与它的叙述一致的消息,或者对那些不一致的消息写“反”推文。
在两个月的时间里,他们有了一个完全自主的人工智能系统,该系统“在90%的时间里,每周7天,每天24小时,产生令人信服的内容”。
创作者还没有在互联网上直播这个模式,因为“这将意味着积极地推送虚假信息和宣传。”一旦精灵出现在互联网上,没有人知道它会在哪里结束,”Paw说。
广告广告但他们补充说,他们认为发布“反云”并教育公众从内部了解这些系统是如何工作的,会带来更大的好处。
人工智能通过加速在线虚假信息的创造和传播,对民主构成威胁,这一直是人工智能辩论中最令人担忧的问题之一。
OpenAI的首席执行官Sam Altman最近表达了他对这个问题的担忧,他说:“个性化的1:1说服,结合高质量的生成媒体,将成为一股强大的力量。”