人工新闻 | 观众

这个 报告全球虚假信息指数的哥伦比亚虚假信息 有一个基本的分析范畴:用人工智能写新闻稿。 哥伦比亚媒体在这方面的情况不明朗。 在准备报告时,我们很容易评估针对人工智能的政策的透明度,即确定媒体机构是否明确表示它正在使用软件来撰写评论。 相反,很难确定这些笔记是由软件产品还是记者撰写的。 虽然我们遇到了一些简单且可预测的故事,但您怎么知道这不仅仅是平庸的新闻报道?
几天来,有关该程序使用的讨论愈演愈烈。 聊天GPT 写文字。 在学术界,很少有老师关注我们的课堂活动如何维持以及如何重新考虑学习目标。 第一个结论是停止将此类程序称为人工智能,因为没有智能。 什么样的节目 聊天GPT 除其他事项外,使用概率来预测句子中最期望跟在后面的词可能是什么。
该程序主要是概率性的这一事实提出了一个获取真相的基本问题。 换句话说,我们如何区分真实或真实的东西与简单重复的东西? 我解释。 聊天GPT 你不能故意制造假新闻。 它只能回显已经写入的内容。 但是还有其他程序也可以做到这一点,例如卡拉狄加。 如果假新闻被创建并显示为 聊天GPT 如果你开始增加信息,就会有数百个故事重现或讲述一个不存在的事实。 坦率地说,虚假信息的做法并不新鲜。 但尺寸在这里很重要。 当虚假条目比真实条目多得多时,我们如何相互告知?
让我们考虑一个假设的例子。 商人塞尔吉奥·贝内加斯证实,全国罢工期间约有300具尸体被烧毁。 作为编辑 观众, 乍一看数字不匹配。 如果有300人失踪,我们至少有1000个亲戚朋友会挨家挨户地敲门,拼命寻找他们的亲人。 没有关于它的消息。 但是万一呢? 如果有人编造了假参考并且软件将它们成倍增加怎么办? 我们会有一个完整的设置,其中多个细节交织在多个门户网站上。
Venegas 案相对容易调查。 但更国际化、更技术化或更可信的故事变得不可能。 当然,也有人说这些程序有很大的局限性,因为他们设法复制的东西看起来很“疯狂”,就像他们在 San Victorino 的商店里出售的米老鼠一样。 这些故事有一定的道理,但与事实相去甚远。 但在这里我回到我的第一个笔记,当“原创”新闻业已经看起来“神圣”时会发生什么? 似乎没什么可做的。 获得准确和高质量的信息将更加困难和昂贵。 岔路口:决定做好新闻业并恢复媒体的声誉、其记者和强制性报酬,或者将“神圣”的复制作为商业模式的核心。
在 Google 新闻上关注我们
#人工新闻 #观众