三星半导体员工使用ChatGPT修改BU

原标题:三星半导体员工使用ChatGPT修改BUG,向美国公司泄露机密数据!

去年11月,三星电子允许在其设备解决方案(DS/半导体)部门使用ChatGPT后,然而却发生了企业信息泄露事故。

据韩国媒体economist报道,在半导体工厂允许ChatGPT的短短20天里,就发生了3起信息泄露事件,包括设备测量和良率数据被原封不动地发送给了美国公司。具体来说就是三星员工将与半导体“设备测量”和“成品率/缺陷”相关的程序内容被输入为美国公司的学习数据。情况非常令人不安。

三星表示将对涉及企业信息泄露事故的高管和员工进行调查,必要时将采取纪律处分。

三星电子确认的事故内容为“2起设备信息泄露”和“1起会议内容泄露”。认清事实后,该公司采取了“应急措施”,例如将上传容量限制为每题 1024 字节。

三星半导体的一名员工在执行半导体设备测量数据库 (DB) 下载程序的源代码时发现了一个BUG。为了解决问题,他把所有有问题的源码都复制下来,然后输入到开源人工智能学习数据平台ChatGPT中,询问解决办法。

第二个案例可能更为令人担忧,因为另一名员工输入了旨在识别有缺陷芯片并要求优化的测试模式。优化测试序列并可以减少它们的数量可以加快硅测试和验证过程,从而显著降低成本。但是,用于识别缺陷的测试序列是严格保密的,这意味着这些测试序列可能已经被泄露,导致测试结果不准确,从而影响产品质量和公司声誉。

第三个案例,还有一名员工使用 Naver Clova APP将他智能手机上记录的会议内容转换为文档文件,然后将其提交给 ChatGPT 以准备演示文稿。

三星电子警告其高管和员工,使用 ChatGPT 的风险增加,因为一旦内容被输入 ChatGPT,数据就会被传输并存储到外部服务器,使公司无法检索它。这增加了机密信息泄露的风险,因此公司需要谨慎使用 ChatGPT。

三星电子正在准备保护措施,以防止通过 ChatGPT 再次发生信息泄露事件。该公司告知其高管和员工,“如果在采取紧急信息保护措施后仍发生类似事故,则可能会在公司网络上阻止访问 ChatGPT。”

虽然 ChatGPT 是一个强大的工具,但其开放学习数据特性可能会将敏感信息暴露给第三方,这在竞争激烈的半导体行业中是不可接受的。

三星电子也正在考虑在 DS 内部组织创新中心的监督下,为公司构建专属的人工智能 (AI) 服务,以从根本上防止此类事故的发生。返回搜狐,查看更多

责任编辑:

Leave a Reply