内部代码遭泄露,三星彻底禁止员工使用ChatGPT
三星近期推出了一项新政策,禁止员工在工作场所使用生成式人工智能工具,包括OpenAI的ChatGPT和谷歌Bard等。此举是由于三星担心其数据将通过人工智能平台最终落入其他用户手中,因此对信息泄漏问题非常谨慎。不过该政策仅限公司设备,员工仍可以在个人设备上与工作无关的事情上使用人工智能工具,也不会影响到用户在三星生产的设备上使用生成式AI系统。
据三星表示,此举措与上月发生的内部代码泄露事件有关。此前有报道称,三星电子内部引入ChatGPT工具不到20天,便发生了3起相关事故,两起涉及半导体设备,一起涉及会议内容。
三星内部备忘录显示,三星担心自身数据被传输到ChatGPT、Bard等人工智能平台的外部服务器上,最终导致泄露。因此三星正在开发自己的内部AI系统,让人工智能在安全的环境下提高员工生产效率。
事实上,银行和科技公司都非常谨慎地对待信息泄漏问题,因此对人工智能的使用也非常谨慎。
摩根大通、美国银行和花旗等大型银行是最早限制员工访问生成式AI系统的公司,早已对人工智能下了禁令。这些银行担忧第三方软件访问敏感信息会带来巨大的安全风险,因为ChatGPT等人工智能系统可能会泄露将银行的财务信息,导致更严格的监管行动。与之类似的,科技巨头亚马逊也出于数据保护的考量,警告员工不要在工作场合中使用ChatGPT。
文中图片来源于网络
免责声明:本文内容来源于第三方或整理自互联网,本站仅提供展示,不拥有所有权,不代表本站观点立场,也不构成任何其他建议,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容,不承担相关法律责任。如发现本站文章、图片等内容有涉及版权/违法违规或其他不适合的内容, 请及时联系我们进行处理。