人工智能聊天机器人与数据安全:挑战与对策

文章主题:人工智能, 聊天机器人, 数据泄露, 隐私信息

666AI工具大全,助力做AI时代先行者!

站长之家(ChinaZ.com) 4月19日消息:据彭博消息,根据以色列网络风险公司 Team8 的一份报告,使用 ChatGPT 等生成式人工智能工具的公司可能会将客户的机密信息和商业秘密置于危险之中。

这份报告指出,随着人工智能聊天机器人和写作工具的广泛应用,公司可能面临数据泄露和诉讼的风险。人们担忧的是,黑客可能会利用聊天机器人获取公司的敏感信息,从而对该公司造成损害。此外,人们还担心当前输入到聊天机器人中的机密信息未来可能会被人工智能公司所利用。

当前,包括微软和Alphabet在内的一些主要科技公司在积极提升生成性人工智能的能力,以便优化聊天机器人和搜索引擎,并在海量的网络数据中训练他们的模型,以实现用户的一站式查询服务。据相关报告指出,一旦这些工具获取到机密或私人数据,要想完全消除这些信息将变得异常困难。

企业在运用 GenAI 时,可能会涉及到直接用户输入、API 访问以及处理包括敏感信息、知识产权、源代码、商业秘密等在内的各类数据。这些数据可能包含客户或私人信息以及机密信息,据报告指出,这种风险被评估为「高」。然而,如果在使用过程中采取相应的保障措施,这种风险则可以被控制在可接受的范围内。

在Team8的报告中发现,聊天机器人的查询并未被送入大型语言模型进行训练,这与近期有关此技术可能被他人窃取的报道存在出入。目前,大型语言模型无法实现实时更新,因此无法将某人的输入反馈至另一人的响应,从而有效地消除这种担忧。然而,针对未来版本的这些模型训练而言,这一情况或许并非如此。」

这份文件突显了整合生成式人工智能工具的三大「高风险」问题,同时强调了第三方应用程序共享信息所带来的高度威胁。微软在其必应搜索引擎和微软365工具中融入了人工智能聊天机器人的功能。它指出,一旦第三方应用程序利用GenAI API遭到破坏,可能会导致用户访问电子邮件和网络浏览器的安全受到威胁。此外,攻击者还可能假冒用户行为。

在 Team8 的观点中,采用生成式人工智能技术存在一定的潜在风险,这种风险主要表现在可能加剧歧视现象、损害公司声誉,甚至可能导致法律诉讼的版权问题。

微软公司副总裁 Ann Johnson 参与了该报告的起草工作。微软已经向 ChatGPT 的开发商 OpenAI 投资了数十亿美元。微软发言人说:「微软鼓励在安全和人工智能社区对不断变化的网络风险进行透明讨论。」

数十个美国公司的首席信息安全官也被列为该报告的贡献者。Team8 的报告还得到了美国国家安全局和美国网络司令部前负责人的认可。

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply