三星电子已决定禁止在公司内部使用 ChatGPT 等生成式人工智能 (AI) 服务。与 SK 海力士、POSCO 等公司一样,该公司认为输入数据以从 ChatGPT 获得答案的过程很可能会泄露敏感的公司信息。相反,据报道,三星电子正致力于开发可用于其业务的内部生成人工智能服务。
据 5 月 2 日报道,三星电子的移动、家电和视觉显示 (MX) 部门近在一份内部备忘录中宣布,将从 5 月 1 日起暂时限制通过内部 PC 使用生成 AI。即使您在公司外部使用 ChatGPT 等生成式人工智能服务,也请特别注意不要输入与您公司相关的信息、您的个人信息或其他信息,”该公司表示。
该公告是在三星电子半导体 (DS) 部门的一名员工将公司信息上传到 ChatGPT 后发布的。此前,在3月份,有消息称,DS部门的一些员工将一些源代码、会议详情等输入ChatGPT,用于检查软件源代码中的错误和总结会议内容等任务。
一旦进入 ChatGPT,任何数据都会被发送到外部服务器并且无法恢复。ChatGPT 的学习数据可以提供给未指定的各方。事实上,在 3 月份,一个 ChatGPT 错误向其他用户泄露了付费用户的姓名、电子邮件地址、他信用卡号的四位数字以及他的卡到期日期。
同时,ChatGPT 的创建者 OpenAI 近引入了隐身模式,在该模式下,ChatGPT 不存储聊天记录。秘密模式可防止 ChatGPT 在其训练中使用您的问题。
然而,企业仍然担心他们的关键信息可能会通过 ChatGPT 和其他人工智能聊天服务泄露。这就是为什么 SK 海力士、浦项制铁、摩根大通、美国银行和花旗集团等公司禁止或限制其员工使用 ChatGPT 和类似服务的原因。