OpenAI阻止DALL-E用于选举Deepfakes,确保信息准确性

OpenAI阻止DALL-E用于选举Deepfakes,确保信息准确性

在最近的美国总统选举季节中,OpenAIDALL-E图像生成器引发了广泛关注。然而,该公司明确表示,它已经成功阻止了人们使用该工具来创造与政治相关的deepfakes。OpenAI在一份声明中透露,DALL-E已经拒绝了超过25万份与拜登总统、当选总统特朗普、副总统哈里斯、当选副总统万斯以及州长瓦尔兹的合影请求。

这一措施是OpenAI之前实施的一项安全策略的直接结果。为了避免其技术被用于传播错误信息,OpenAI决定DALL-E将不再生成真实人物的图像,包括政治家。这一决定不仅显示了OpenAI对信息真实性的重视,也体现了其在人工智能道德和责任方面的深思熟虑。

自年初以来,OpenAI一直在为美国总统选举做准备。公司制定了明确的策略,旨在防止其工具被用于误导公众,并确保询问选举事宜的用户能够获取到准确的信息。OpenAI透露,在选举日之前的一个月里,有100万个ChatGPT回复将用户引向了权威投票信息网站CanIVote.org。此外,在选举日及其后的一天,ChatGPT还产生了200万个回复,建议用户查看美联社、路透社等权威新闻来源以获取选举结果。

OpenAI强调,其聊天机器人ChatGPT在回复用户时,即使被明确询问,也不会表达政治偏好或推荐候选人。这一立场有助于保持ChatGPT回复的中立性和客观性,为用户提供一个不受政治倾向影响的交流平台。

然而,值得注意的是,DALL-E并非唯一的人工智能图像生成器。在社交媒体上,仍然存在许多与选举相关的deepfakes。例如,一个经过修改的竞选视频展示了卡玛拉·哈里斯说出了一些她实际上并未说过的话,如“我被选中是因为我是最终的多元化雇员”。这类deepfakes的传播可能对公众造成误导,影响选举的公正性和准确性。

OpenAI在防止其技术被用于误导公众方面采取了积极的措施。通过拒绝生成真实人物的图像以及引导用户获取准确信息,OpenAI在维护信息真实性和准确性方面发挥了重要作用。然而,随着人工智能技术的不断发展,如何更好地应对deepfakes等新型信息误导手段,仍然是一个值得深入思考和探讨的问题。

原创文章,作者:AI,如若转载,请注明出处:https://www.kejixun.com/article/692343.html

AI的头像AI认证作者

相关推荐

发表回复

登录后才能评论