ChatGPT背后的风险与挑战:人工智能的伦理和法律问题

文章主题:自然语言处理, ChatGPT, 人工智能, 伦理问题

666AI工具大全,助力做AI时代先行者!

作者:□张玮 张文言

美国OpenAI公司近期推出的自然语言处理工具ChatGPT引起了全球的关注。这款工具具备强大的学习能力,能理解并生成人类语言,从而进行流畅的对话。它的应用范围极广,包括邮件撰写、视频脚本创作、文案撰写、翻译工作、编程以及论文撰写等。据新华社报道,ChatGPT推出仅两个月,用户数量便已经达到了1亿,成为历史上增长最快的消费者应用程序之一,引发了人们的广泛讨论。然而,尽管ChatGPT带来了诸多便利,但其潜在的风险也不容忽视。目前,我们尚无法完全预测ChatGPT所带来的社会影响,因此,对其的安全风险评估也必须谨慎对待。

  ChatGPT的应用风险

OpenAI在开发ChatGPT的过程中,尽管已经尽力避免输出含有算法歧视、偏见、侮辱、攻击、色情、暴力、血腥等有悖伦理和法律规定的内容,但由于用户可能有意通过设置指令来引导其输出不良、虚假或违法的信息,这可能会导致最终突破研发人员为其设定的道德伦理和法律底线。因此,对于技术的发展,我们必须同时关注科技进步带来的积极影响,同时也必须警惕其潜在的风险和问题,制定相应的规范和监管措施,以确保技术的健康发展和应用。

一、潜在的知识产权侵害风险ChatGPT 的输出内容在不同的用户之间可能会缺乏独特性,这可能导致相似问题的用户收到相同的人工智能回应。如果某些拥有著作权的用户将自己的文字作品(如文本检查、翻译等)输入 ChatGPT,而其他用户输入类似主题的写作需求,那么 ChatGPT 有可能通过信息网络将这些著作权人的作品进行非法传播。在严重的情况下,这可能会侵犯他人的著作权。

其次,数据泄露的风险不可忽视。当 ChatGPT 所依赖的语言数据集涵盖涉及个人隐私、国家安全、商业秘密等敏感信息时,若数据集未获得充分的安全措施保障,攻击者便有可能通过黑客攻击等方式窃取这些机密信息。因此,确保数据安全至关重要,特别是在处理敏感数据时,必须采取更为谨慎的态度。

可能存在非法利用 ChatGPT 的情况。不法分子可能会利用 ChatGPT 快速编写邮件的能力,批量制作“钓鱼”邮件,实施网络诈骗;也可能利用 ChatGPT 生成虚假的新闻信息、交易信息、投资建议等,对他人实施诈骗;或者利用 ChatGPT 生成伪造的文档、签名、身份信息等,盗窃他人财物;或者利用 ChatGPT 生成虚假的视频或音频,协助不法分子伪造犯罪证据;或者利用 ChatGPT 生成相应的攻击代码、恶意软件代码,破坏网络秩序;甚至可能利用 ChatGPT 制造网络舆情、散布网络谣言、实施网络暴力等。因此,我们需要加强对 ChatGPT 的监管,防止其被非法利用。

在探讨ChatGPT管理者的职责时,我们需要关注一个重要的问题,那就是如果ChatGPT的供应方未能按照我国法律法规所要求的网络信息安全管理的规定行事,导致大量违法信息得以扩散、用户数据被泄露,并且产生了严重的后果,那么,如果该供应方在监管部门的命令下仍拒绝纠正这一问题,这就可能被视为拒绝履行网络信息安全管理的义务。这样的行为不仅会对绿色网络环境的构建产生负面影响,还可能对个人和社会造成深远的伤害,甚至可能对国家的安全和稳定带来威胁。因此,我们必须对ChatGPT的管理者职责有清晰的认识,以防止类似的悲剧发生。

  以法治规制生成式人工智能产品应用风险

  党的二十大报告强调:“坚持安全第一、预防为主,建立大安全大应急框架,完善公共安全体系,推动公共安全治理模式向事前预防转型。”鉴于生成式人工智能技术的迅速发展及对人们工作生活的影响,要使其在正确的轨道上为人的生产生活服务,就必须发挥法治固根本、稳预期、利长远的保障作用,以法治规制生成式人工智能产品的应用风险。

  明确ChatGPT等生成式人工智能产品的责任承担与分配原则。首先,坚持主体责任原则。生成式人工智能是一种技术工具,本身没有独立的主体责任,法律责任应由使用或控制生成式人工智能的人员承担。如生成式人工智能被用于制作淫秽物品,责任应由制作、传播和销售这类物品的人员承担。其次,坚持原始责任原则。生成式人工智能所生成的内容或行为由人类程序员编写的算法和代码所引起,因此,程序员应对其所编写的代码和算法的内容和行为承担一定法律责任。如果生成式人工智能被用于诈骗活动,应当以故意制造欺骗性算法和代码追究程序使用者的法律责任。再次,坚持协同责任原则。在某些情况下,生成式人工智能的使用可能涉及多个人员的协同行为。如果生成式人工智能被用于进行网络攻击,参与者之间存在相互协作和分工,行为人应当共同承担相应的法律责任。最后,坚持情节责任原则。应当综合考虑行为人违法犯罪的情节和后果。如果生成式人工智能所生成的内容或行为在情节、后果方面具有较轻的违法犯罪程度,责任相应较轻;如果情节、后果较为严重,责任则相应较重。

  构建面向ChatGPT等生成式人工智能产品的风险防范体系。首先,对生成式人工智能产品的生产销售应用等进行全生命周期监管。近年来,随着人工智能产品不断迭代升级,类似ChatGPT的人工智能产品,从模型的建立、语料库的标注、模型训练、投放市场后的迭代进化直到系统退出使用,每个具体的环节都应当受到严格监管。其次,人工智能算法应当坚持社会主义主流价值观。任何组织或个人不得利用算法危害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益;不得利用深度合成服务制作、复制、发布、传播法律和行政法规禁止的信息;不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律和行政法规禁止的活动。再次,强化ChatGPT等生成式人工智能产品研发主体的合规义务。有关责任主体应当依法履行备案义务,并公示算法的基本原理、目的意图和主要运行机制;加强人工智能自检测模型构建,将人工智能生成系统设定在既有事实之上,保证有据可依,防止其生成编造的虚假内容;引入多来源比照分析模型,提高人工智能识别信息真实性的能力,在有据可依的基础上做到依据真实。

  完善面向ChatGPT等生成式人工智能产品的相关立法。首先,以制度确保人工智能不会出现现实世界的歧视和偏见,维护社会公平;确保数据安全,保护商业秘密、个人隐私和国家安全。其次,依法建立识别人工智能系统生成文本的机制,保护知识产权,并鼓励行业协会、大型企业或第三方专业机构,积极推进人工智能违规信息审核产品的研发和推广。再次,现阶段,我国监管部门可以适用《中华人民共和国网络安全法》《网络信息内容生态治理规定》《互联网信息服务算法推荐管理规定》等法律法规应对短期内生成式人工智能产品可能引发的网络安全风险,加强对生成式人工智能产品相关产业的监管。最后,制定符合我国国情的人工智能技术应用领域的立法,以应对各种潜在的安全风险。

  综上所述,对ChatGPT等生成式人工智能技术的治理而言,既要坚持包容开放,更要守住底线。生成式人工智能产品的法治应对并不在于限制生成式人工智能技术的发展和应用,而是在促进技术发展的同时,让技术更好地为人类服务,统筹规划有关人工智能的法律、行政法规、部门规章、技术标准,形成政府规范、行业自律、企业自治、社会监督的多元人工智能治理机制,建立“以人为本”的人工智能技术体系。

  (作者单位:乌鲁木齐市中级人民法院、西北政法大学人权研究中心,西南政法大学)

【来源:民主与法制时报】

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply