谷歌的“聊天机器人”Bard:背后的隐患
来源:华尔街见闻
媒体称,去年12月内部拉响“红色警报”后,谷歌高层认定,虽然还需要让道德团队参与,但只要将新产品称为“实验”,公众就可能原谅产品的缺点;现在谷歌的道德团队被剥夺权力,士气低落。
上月谷歌正式公测人工智能聊天机器人Bard,这一重大行动背后可能存在隐患。媒体发现,为了在AI竞赛中不落于人后,谷歌在推出Bard时并没有遵循以往的道德伦理承诺。
在Bard公测前,谷歌要求员工做内部测试。媒体称,相关截图显示,内部讨论时,有一名谷歌员工得出了Bard是个“病态的骗子”这种结论,另一人形容Bard令人感到尴尬。
谷歌员工参与内测的Bard回答存在风险,可能导致坠机和潜水者受伤甚至死亡,对此你怎么看?
去年12月,ChatGPT的问世引发了谷歌管理层的“红色代码”警告。据媒体透露,谷歌CEOSundar Pichai要求谷歌旗下产品尽快接入生成式AI,这引发了谷歌内部数十个生成式AI集成计划。谷歌联合创始人Sergey Brin亲自下场为Bard写代码,而测试Bard也是红色代码计划的一部分。
媒体周三报道,谷歌在2021年曾承诺将研究AI伦理道德的团队成员扩大一倍,并投入更多资源评估AI技术的潜在危害。然而,去年11月ChatGPT问世后,谷歌在几个月内竭力将ChatGPT同类的生成式AI融入旗下所有重要产品。这种明显加快的步伐可能带来深远的社会影响。
媒体曾报道,一些曾在谷歌工作和目前还为谷歌效力的员工透露,去年12月谷歌公司拉响“红色警报”,引发了公众对产品道德问题的担忧。然而,谷歌高层领导在意识到这一问题后改变了风险偏好,他们决定不再将新产品称为“实验”,而是将其称为“探索”,这一做法似乎能够缓解公众对产品缺点的担忧。
谷歌员工表示,他们曾经承诺要建立一个强化的道德规范工作团队,但现在这个团队已经被剥夺了权力,士气低落。负责新产品安全和道德影响的员工被告知,不要妨碍、或试图扼杀一切正在开发的生成式AI工具。
谷歌本周三回应媒体称,负责任的AI(Responsible AI)仍然是公司的首要任务。“我们将继续投资一些团队,他们致力于将我们的AI原则应用于我们的技术。”
至少目前看来,谷歌在AI道德方面还有所警惕。
华尔街见闻上月提到,从谷歌员工处获悉,谷歌给Bard加入了很多 responsible AI方面的工作,在正式发布公测前,谷歌耗费大量时间做出了完备的合规测试。从这个角度看,相比ChatGPT的惊艳表现,多数用户评价Bard平淡无奇可能是谷歌有意为之。换句话说,谷歌认为Bard可以“无聊”,可以出错,但不能“越界”。
上周日,谷歌的CEO Sundar Pichai警告,如果对AI部署不当,可能造成非常严重的危害。尽管存在紧迫感,Pichai仍警告企业不要被卷入到竞争态势中。他认为,社会还没有为AI的快速发展做好准备,因此需要更强有力的监管。


责任编辑:李桐
关键词:华尔街见闻,Bard,AI,红代码,ChatGPT,责任,安全,道德,公司,竞争,监管,红警报,安全,道德规范,团队,产品,公司,竞争,监管,社会,准备,AI,ChatGPT,责任,安全,道德,红代码,公司,竞争,监管,社会,AI,ChatGPT,责任,安全,道德,红代码,公司,竞争,监管,社会,AI