AI聊天机器人与数据安全:挑战与机遇
文章主题:人工智能, 聊天机器人, 数据泄露, 隐私信息
站长之家(ChinaZ.com) 4月19日消息:据彭博消息,根据以色列网络风险公司 Team8 的一份报告,使用 ChatGPT 等生成式人工智能工具的公司可能会将客户的机密信息和商业秘密置于危险之中。
这份报告指出,随着人工智能聊天机器人和写作工具的广泛应用,公司可能面临数据泄露和诉讼的风险。人们担忧的是,黑客可能会利用聊天机器人获取公司的敏感信息,从而对该公司造成损害。此外,人们还担心当前向聊天机器人输入的机密信息未来可能会被人工智能公司所利用。
当前,包括微软和Alphabet在内的一些主要科技公司在积极提升生成性人工智能的能力,以便优化聊天机器人和搜索引擎,并在海量的网络数据中训练他们的模型,以实现用户的一站式查询服务。据相关报告指出,一旦这些工具获取到机密或私人数据,要想完全消除这些信息将变得异常困难。
企业在运用 GenAI 时,可能会涉及到直接用户输入、API 访问以及处理包括敏感信息、知识产权、源代码、商业秘密等在内的各类数据。这些数据中可能包含客户或私人信息和机密信息,根据相关报告,这种风险被评估为「高」。然而,只要采取合适的保障措施,这种风险就可以被控制在可接受的范围内。
在Team8的报告中发现,聊天机器人的查询并未被送入大型语言模型进行训练,这与近期有关此技术可能被他人窃取的报道存在出入。目前,大型语言模型无法实现实时更新,因此无法将某人的输入反馈至另一人的响应,从而有效地消除这种担忧。然而,针对未来版本的这些模型训练而言,这一情况或许并非绝对。
这份文件突显了整合生成式人工智能工具所存在的其他三个“高风险”问题,同时强调了第三方应用程序共享信息所带来的高度威胁。微软在其必应搜索引擎和微软365工具中融入了一定的人工智能聊天机器人功能。它指出:“例如,在用户层面上,借助GenAI API的第三方应用,若遭破坏,可能导致电子邮件和网络浏览器访问权限泄露,攻击者甚至可能假冒用户实施行动。”
在 Team8 的观点中,采用生成式人工智能技术存在一定的风险程度适中,这种风险主要涉及到可能加剧歧视现象、对公司声誉造成负面影响,甚至可能导致法律纠纷,尤其是在版权方面。因此,在运用生成式人工智能时,应充分评估潜在风险,并采取相应措施加以防范。
微软公司副总裁 Ann Johnson 参与了该报告的起草工作。微软已经向 ChatGPT 的开发商 OpenAI 投资了数十亿美元。微软发言人说:「微软鼓励在安全和人工智能社区对不断变化的网络风险进行透明讨论。」
数十个美国公司的首席信息安全官也被列为该报告的贡献者。Team8 的报告还得到了美国国家安全局和美国网络司令部前负责人的认可。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!