警惕AI威胁:全球专家共同呼吁加强人工智能安全保护
文章主题:警惕AI, 保护人类, Center for AI Safety, 人工智能安全中心
在5月30日,公众又收到了一封强调“警惕AI、保护人类”的公开信,这次的信件中,甚至包括了两位“AI三巨头”成员以及ChatGPT的开发者, OpenAI的CEO也亲自签名。
尊敬的各位,我们致信于您,希望您能够关注并重视人工智能的安全性问题。在这封公开信中,我们以简洁明了的语言表达了我们的诉求,那就是确保人工智能的发展不会威胁到人类的安全和利益。 Center for AI Safety 作为一家非营利组织,一直致力于推动人工智能的安全发展,希望通过我们的努力,能够让更多的人意识到人工智能带来的潜在风险,并积极采取措施加以防范。 我们深知,人工智能的发展已经给我们的生活带来了许多便利,但同时也存在着许多未知的风险。因此,我们需要更加警惕,以确保人工智能的安全性。 在此,我们呼吁各位,让我们一起关注人工智能的安全问题,共同推动人工智能的健康发展。 谢谢您的关注和支持。 Center for AI Safety
减轻人工智能带来的灭绝风险,应该与流行病、核战争等其他社会规模的风险一样,一起成为全球优先事项。
目前已有超过350位人工智能领域的专家签署了一份宣言,其中包括谷歌深度学习部门CEO Demis Hassabis、OpenAI公司的CEO Sam Altman,以及荣获2018年图灵奖的两位科学家Geoffrey Hinton和Youshua Bengio。这些人在各自的领域内有着卓越的贡献,被业界广泛认可,共同组成了所谓的“AI三巨头”。
在这封公开信中,我们有幸邀请到两位我国顶尖科学家参与签名,他们分别来自中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅以及清华智能产业研究院(AIR)助理研究员詹仙园。
在今年的3月份,著名企业家马斯克以及多位专家曾共同签署了一份公开信,这份信件明确呼吁那些正在研发比GPT-4更为强大的人工智能系统的实验室立即停止训练,甚至要暂停至少6个月的时间。在这份信的签名者中,还包括了知名人工智能专家Bengio以及苹果公司的联合创始人Steve Wozniak等多位业界精英。
这封最新的公开信并未如同之前的那封信那样明确地提出诉求,但其态度却非常鲜明,将人工智能的风险与疾病传播和核战争等紧急情况放在了同样的优先级上。
采写:南都记者杨博雯
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!