三星内部memo:禁止员工使用生成式人工智能

文章主题:三星, 人工智能, OpenAI, ChatGPT

666AI工具大全,助力做AI时代先行者!

根据一份公司内部通知,本周三星公司实行了一项新的规定,该规定明确禁止员工在工作场合使用诸如OpenAI的ChatGPT和谷歌Bard等生成型人工智能产品。

三星公司最近透露,一名工程师在四月份不慎将公司的内部源代码提交至ChatGPT,结果导致该敏感信息泄露。这一事件引发了三星对于其数据可能被其他用户获取的担忧,因为这些数据有可能通过人工智能平台最终流失。

在当前的时代背景下,人工智能技术的快速发展已经深刻地改变了我们的生活方式,也对其产生了深远的影响。然而,在三星这家全球知名的科技公司中,其员工在使用人工智能工具方面却受到了严格的限制。具体来说,目前,三星员工被禁止在公司设备上使用人工智能工具,如电脑、平板电脑以及手机等。尽管公司对这一政策进行了严格的规定,但在个人设备上,员工仍然可以自由使用人工智能工具,只是这些工具的使用范围被限制在与工作无关的领域。这样的做法在一定程度上保障了员工的工作效率和信息安全,同时也体现了公司在管理上的审慎和严谨。

在备忘录中,我们再次强调了员工严格遵守安全准则的重要性。任何违反规定的行为,特别是在涉及公司信息或数据泄露的情况下,都将受到严厉的纪律处理。对于严重违规行为的员工,我们将不得不采取解雇等极端措施。

三星表示,公司正努力构建一个安全环境,以确保生成式人工智能能够在无任何风险的前提下,助力员工提升工作效率。然而,在此过程中,人工智能的使用将受到一定程度的限制。

与此同时,三星正在研发自己的人工智能工具,供员工完成软件开发和翻译等工作。

保持距离

尽管三星并非首个禁止员工使用人工智能工具的企业,但在金融领域,包括摩根大通、美国银行以及花旗等大型银行在内的多家公司已经采取了相应的措施,限制员工接触人工智能相关工具。

这些银行同样担忧第三方软件访问敏感信息带来的风险,并害怕人工智能可能将银行的财务信息泄漏出去,导致更严格的监管行动。

此外,1月时,科技巨头亚马逊也同样出于数据保护的考量,警告员工不要在工作场合中使用ChatGPT。

OpenAI在4月时称将出台新措施,解决数据泄露问题,比如允许用户禁用聊天记录。OpenAI称,在禁用聊天记录后,ChatGPT会将新对话保留30天,公司只会在需要监控滥用情况时才会对对话进行审查,然后永久性删除。

谷歌则表示将通过自动化工具帮助删除用户的个人身份信息,来改进Bard的隐私安全。谷歌还保证,用户与Bard的对话将由专家进行审阅,并与用户的谷歌账户分开保存3年。

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply