ChatGPT写出步骤详细的毁灭人类计划书?

ChatGPT是一款由人工智能研究实验室OpenAI发布的人工智能技术驱动的自然语言处理工具。根据瑞士银行(UBS)发布的研究报告显示,ChatGPT在2023年1月份的月活跃用户数已达到1亿,成为史上用户数增长最快的消费者应用。一方面,ChatGPT开启了人类利用人工智能技术的新时代;但另一方面,ChatGPT存在的潜在风险也引发了各界思考。“科学家正尝试运用一些技术手段避免这些具有潜在风险的事件发生。”G20青年企业家联盟中国理事会青年委员杜雨表示,通过改善数据集,增加更多的限制性条件以及对模型进行微调,可以使得人工智能减少对于有害内容的学习,从而降低人工智能本身的危险性。甚至我们可以“教会”人工智能如何更尊重他人,减少判断当中的偏见,更好地和人类相处。借鉴强化学习思想(RLHF)方法就是减少人工智能生成危害性内容的典型措施,ChatGPT就是采用这种方式训练的。然而,即便采用这种方式,人工智能(AI)生成的内容也有可能在刻意诱导的情况下具有危害性。比如,在一位工程师的诱导下,ChatGPT写出了步骤详细的毁灭人类计划书,详细到入侵各国计算机系统、控制武器、破坏通讯和交通系统等。还有一些人表达了对RLHF这类安全预防性技术措施的质疑,他们担忧足够聪明的人工智能可能会通过模仿人类的伪装行为来绕过惩罚,在被监视的时候假装是好人,等待时机,等到没有监视的时候再做坏事。对此,北京航空航天大学教授、博士生导师蔡维德对《金融时报》记者表示,ChatGPT需要的治理框架,不只关系到网络安全,隐私保护,还有物理安全,数据可靠性以及系统架构上的改变。我们需要依法治“系统”,即全面治理人工智能系统,通过主动式治理框架让人工智能系统可以有秩序地发展。他提出,第一,在现阶段,禁止ChatGPT连接可以行动系统;第二,在现阶段,可行动系统制造商可以开发对接软件或是硬件进行内部测试,但是暂不可用于现实使用;第三,在相关系统内建立系统性治理规则;第四,要求人工智能系统披露主要算法,包括收集,清理、应用算法;第五,要求相关系统对任何人、企业、社会和国家有相应的防止伤害的机制;第六,要求相关系统提供隐私保护的机制和验证,包括隐私保护的算法,数据存储的方式,数据分析的算法以及应用算法;第七,鼓励产业使用相关系统产生价值,但需要披露哪些结果出自相关系统,并且质量由相关产业负责;第八,任何相关系统都需要提供能够判断真伪的数据来源以及在区块链系统上的内部审核工作记录,保证数据来源的真实性;第九,行业机构可以建立自我管理机制;第十,建立ChatGPT在各行各业使用的伦理标准,特别是在医疗、法律、教育、征信、交通等领域,并且将这些标准成为代码内置在系统内,在关键时刻触发限制措施;第十一,建立国家/国际共享知识库,这个数据库应该是公开共享的,运行机构在其基础上进行优化,建立自己专属的数据库;第十二,加强国际合作,比如共同制定运用ChatGPT的伦理准则,主动提供伦理管理系统到国际市场。

来源:金融时报客户端

记者:王璐

编辑:刘能静

邮箱:fnweb@126.com

Leave a Reply