人工智能聊天机器人引发担忧:谷歌提醒员工不要泄露机密信息

文章主题:知情人士, 谷歌, 人工智能聊天机器人, 机密材料

666AI工具大全,助力做AI时代先行者!

财联社6月16日讯(编辑 牛占林)行业领导者谷歌在全球推广人工智能(AI)聊天机器人的同时,该公司也在警告员工注意聊天机器人的使用,包括ChatGPT与谷歌自家产品Bard。

根据可靠的消息来源,谷歌公司已向员工发出警告,建议他们不要将机密信息提供给公司的AI聊天机器人。此外,该公司还告诫IT工程师,应尽量避免直接应用聊天机器人生成的代码。这一举措旨在确保公司数据的安全性和保护知识产权。

在使用聊天机器人时,人类评审员与它们的互动是必不可少的。此外,研究人员指出,这些人工智能系统具备从对话中提取并复制相关数据的能力,这可能导致信息泄露的风险。

针对有关问题,谷歌给出回应称,其聊天机器人Bard能够产生部分不受欢迎的代码建议,但这并不意味着对IT工程师没有实质性的帮助。同时,谷歌强调,其始终秉持着保持人工智能技术足够透明的原则。

这些担忧反映出谷歌对于人工智能可能对公司商业化运营产生负面影响的高度关注。企业的审慎态度不仅表现在对人工智能使用的限制上,而且也在逐渐形成一种普遍的企业安全标准。

在此之前,包括三星、亚马逊和德意志银行在内的众多知名企业都已经采取了一定的措施,对员工的接触和使用人工智能的行为设置了限制,以确保公司运营的安全性。

根据社交网站Fishbowl所进行的对12000名受访者的调查结果显示,到今年1月为止,大约有43%的专业人士在工作过程中运用了ChatGPT或类似的人工智能工具,但值得注意的是,这些专业人士很少向他们的老板透露这一信息。

谷歌告诉媒体,它已经与爱尔兰数据保护委员会进行了详细的对话,并正在解决监管机构的问题。谷歌在6月1日更新的隐私声明也指出:“不要在与Bard的对话中包含机密或敏感信息。”

一些公司已经开发了软件来解决这些问题。例如,保护网站免受网络攻击并提供云服务的Cloudflare正在推广一种功能,可以让企业对某些数据进行标记,并限制其向外部流动。

谷歌和微软也在向企业客户提供对话工具,这些工具的价格更高,但不会将数据吸收到公共人工智能模型中。Bard和ChatGPT的默认设置是保存用户的历史对话记录,用户也可以选择删除。

微软消费者业务首席营销官Yusuf Mehdi曾表示,公司不希望员工使用公共聊天机器人工作是“有道理的”。

Cloudflare首席执行官Matthew Prince指出,在聊天机器人中输入机密信息,就像“让一群博士生随意查看你所有的私人记录”。

AI GPT

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply