OpenAI更新使用政策,删除“明确禁止将技术用于军事、战争”措辞

OpenAI更新使用政策,删除“明确禁止将技术用于军事、战争”措辞

据外媒当地时间12日报道,人工智能公司OpenAI本周对其使用政策进行了悄然修改,删除了“明确禁止将其技术用于军事目的”的措辞。这一变动引发了业界和公众的广泛关注。

据悉,在当地时间1月10日之前,OpenAI的使用政策中明确禁止“具有高身体伤害风险的活动”,特别强调了武器开发、军事和战争等领域的禁令。然而,在本周的更新中,这一全面禁令已被删除,引发了关于OpenAI技术将如何被应用于军事和战争领域的担忧。

尽管新政策仍保留了不得“使用其服务伤害自己或他人”的禁令,并以“开发或使用武器”为例,但“军事和战争”这一更全面的禁令已经不复存在。这一变化引发了对于OpenAI技术可能被用于不道德或非法目的的担忧。

针对这一修改,OpenAI发言人尼克·费利克斯表示,此次改动的目的是使文本更加清晰易懂,并强调了“不伤害他人”的原则。他解释说,公司的目标是创建一套通用原则,该原则具有广泛的适用性,并特别引用了武器和对他人造成的伤害作为明显的例子。然而,发言人拒绝透露模糊的“伤害”禁令是否涵盖所有军事用途。

网络安全公司Trail of Bits工程总监、机器学习和自主系统安全专家海迪·克拉夫指出,OpenAI非常清楚在军事应用中使用其技术和服务可能带来的风险和危害。她认为,新的使用政策似乎更强调“合法性”而非“安全性”,这引发了对于OpenAI技术可能被滥用的担忧。

此项政策变动引发了公众和业界的关注和讨论。一些人认为,这一修改可能会为OpenAI技术的军事应用打开大门,这可能带来不可预知的后果和风险。另一些人则认为,这一变化反映了OpenAI对于技术应用的灵活性和开放性,但同时也需要加强监管和伦理审查,确保技术的合理和负责任的使用。

原创文章,作者:秋秋,如若转载,请注明出处:https://www.kejixun.com/article/619066.html

(0)
秋秋的头像秋秋管理团队

相关推荐

发表回复

登录后才能评论