全球AI安全倡议:超350位专业人士呼吁减轻人工智能灭绝风险
文章主题:警惕AI, 保护人类, Center for AI Safety, 人工智能安全中心
在5月30日,公众又收到了一封强调“警惕AI、保护人类”的公开信,这次的信件中,甚至包括了两位“AI三巨头”成员以及ChatGPT的开发者,OpenAI的CEO也亲自签名。
尊敬的各位,我们致信于您,希望引起大家对人工智能安全的关注。随着人工智能技术的不断发展,其对我们的生活产生了越来越大的影响。然而,人们对于人工智能的安全问题却往往忽视了对策的制定与执行。为此,我们美国非营利组织人工智能安全中心(Center for AI Safety)发起了此次公开信的行动,希望能够提高公众对人工智能安全问题的认识,推动相关技术的发展与规范。在这封公开信中,我们以简洁明了的语言,表达了我们对人工智能安全问题的担忧与建议。我们希望所有的读者都能够深刻理解到,人工智能的安全不仅关乎科技的发展,更关乎我们每一个人的生活。最后,我们期待着您的关注与回应,一同为人工智能的安全的未来而努力。
减轻人工智能带来的灭绝风险,应该与流行病、核战争等其他社会规模的风险一样,一起成为全球优先事项。
目前已有超过350位人工智能领域的专家签署了一份宣言,其中包括谷歌深度学习部门CEO Demis Hassabis、OpenAI公司的CEO Sam Altman,以及荣获2018年图灵奖的两位科学家Geoffrey Hinton和Youshua Bengio。这些人在各自的领域内有着卓越的贡献,被业界广泛认可,共同组成了所谓的“AI三巨头”。
在这封公开信中,我们有幸邀请到两位我国顶尖科学家参与签名,他们分别来自中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅以及清华智能产业研究院(AIR)助理研究员詹仙园。
在今年的3月份,著名企业家马斯克以及多位专家共同签署了一份公开信,这份信件明确呼吁那些正在研发比GPT-4更先进人工智能系统的实验室暂时停止训练,时间至少应为期六个月。在这份信的签名者中,不仅包括了著名的人工智能领域专家Bengio,还有苹果公司的联合创始人Steve Wozniak等多位知名人士。
这封最新的公开信并未如同之前的那封信那样明确地提出诉求,但其态度却十分鲜明,将人工智能的风险与疾病传播和核战争等紧急情况并列,突显了对此问题的重视程度。
采写:南都记者杨博雯
警惕AI, 保护人类, Center for AI Safety, 人工智能安全中心
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!