外媒:三名三星员工向 ChatGPT 泄露了公司敏感数据

在三星的半导体部门开始允许工程师使用 ChatGPT 后不久,工作人员至少三度向其泄露机密信息

4月9日,据外媒报道,在三星的半导体部门开始允许工程师使用 ChatGPT 后不久,工作人员至少三度向其泄露机密信息。据报道,其中一名员工要求聊天机器人检查敏感数据库源代码是否有错误,另一名员工请求代码优化,第三名员工将录制的会议输入 ChatGPT 并要求其生成会议记录。

目前,三星试图通过将员工的 ChatGPT 提示长度限制为 1 千字节或 1024 个字符的文本来限制未来。据说该公司还在调查这三名有问题的员工,并建立了自己的聊天机器人,以防止类似的事故发生。

聊天GPT数据政策声明,除非用户明确选择退出,否则它会使用他们的提示来训练其模型。聊天机器人的所有者 OpenAI敦促用户不要在对话中与 ChatGPT 共享秘密信息,因为它“无法从您的历史记录中删除特定提示”。在 ChatGPT 上删除个人身份信息的唯一方法是删除您的帐户,而这个过程可能需要多达四个星期。

在表面上,聊天GPT可能看起来像是一种可以对一系列工作任务派上用场的工具。但有科学家认为,其实用户与 ChatGPT 分享的任何内容都可用于训练系统,甚至可能会在其对其他用户的回复中弹出。

原创文章,作者:苹果派,如若转载,请注明出处:https://www.kejixun.com/article/570925.html

(0)
苹果派的头像苹果派管理团队

相关推荐