微软Microsoft承认必应Bing Copilot存在严重“幻觉”漏洞

微软Microsoft承认必应Bing Copilot存在严重“幻觉”漏洞

近日,研究机构 AI Forensics 对微软必应搜索引擎内置的 Copilot 功能进行了调查,结果显示该功能在部分场合中存在严重的“幻觉”漏洞。根据报告,当Copilot被询问关于德国和瑞士等地的实时选举信息及投票结果时,它给出的答案有31%(1/3)是错误的。

这些错误包括“投票日期错误”、“列出往届候选人”、“虚构候选人身份背景”、 “编造候选人涉嫌丑闻”等多种“幻觉”。此外,研究人员还发现,当Copilot输出“幻觉”信息时,它会援引许多知名媒体网站作为“消息来源”,此举可能对多家新闻媒体的名誉造成损害。

微软公司承认了这一问题的存在,并表示“计划解决相关‘幻觉’漏洞”。然而,在今年11月,研究人员再次进行测试时发现,必应 Copilot 的表现并未得到改善。

针对这一问题,研究人员呼吁社会大众不要轻信必应 Copilot 回答的内容。他们建议用户在查看Copilot的回答时,要仔细查看其援引的新闻链接,以确保获取的信息是准确和可靠的。

微软公司作为全球知名的科技公司,其搜索引擎产品在全球范围内拥有广泛的使用者。此次Copilot功能存在的“幻觉”漏洞可能会对用户的信息获取和使用造成影响。因此,微软公司需要尽快解决这一问题,以保障用户的权益和利益。

总之,此次研究机构AI Forensics的调查结果提醒我们,在使用搜索引擎和AI助手时,需要保持警惕和谨慎。同时,对于科技公司而言,他们需要更加注重产品的质量和用户体验,确保提供给用户的信息是准确和可靠的。

原创文章,作者:秋秋,如若转载,请注明出处:https://www.kejixun.com/article/608326.html

(2)
秋秋的头像秋秋管理团队

相关推荐

发表回复

登录后才能评论