大型语言模型:执法部门的挑战与机遇

文章主题:大型语言模型, LLMs, 人工智能, 执法影响

666AI工具大全,助力做AI时代先行者!

封面新闻记者 边雪

大型语言模型(简称LLMs)正经历着空前的繁荣发展,迅速崛起为科技界的关注焦点之一。这一现象无疑表明,机器学习和人工智能领域已取得了重大进展,能够应对各种复杂的任务。然而,随着LLMs展现出在处理日常任务和创造性地解决问题方面的强大能力,它们似乎也潜在地影响了各个行业。

对于执法部门来说,LLMs的崛起所带来的影响是深远的。随着公众对于ChatGPT、Google Bard等LLMs产品的关注度持续上升,欧洲刑警组织(Europol)创新实验室为了回应这一情况,组织了一系列研讨会,旨在与组织内的专家深入探讨犯罪分子如何利用LLM进行犯罪活动,并探索如何帮助调查人员更有效地进行日常工作。这些讨论的结果于当地时间3月27日被发布为技术观察报告,以记录会议的交流成果。

根据欧洲刑警组织发布的报告,《ChatGPT-大型语言模型对执法的影响》,人工智能聊天机器人ChatGPT可能被滥用在网络钓鱼、散布虚假信息和网络犯罪等领域,从而加大了社会对外部新兴事物在法律和道德方面的担忧。报告中指出,欧洲刑警组织的创新实验室一直与执法机构和业务合作伙伴紧密协作,以期及时分析可能对执法工作产生影响的新技术。

欧洲刑警组织发表题为《ChatGPT-大型语言模型对执法的影响》的报告。(图片来源:官网截图)

警惕!ChatGPT也可以成为犯罪者的工具

自2022年11月問世以来,OpenAI 的產品ChatGPT在全球科技界引發了一场熱議。此款人工智能助手不僅能夠生成论文、報告、郵件、編程代碼等各类文本,還能夠迅速地理解並回答用戶提出的問題。根據歐洲刑警組織的報告,該模型已經被滥用,用於更加不堪的目的。據称,有些人已經利用這些模型進行了非法活動。

随着ChatGPT等人工智能技术的持续进步,犯罪分子可能会越来越倾向于利用这些先进的工具来进行犯罪活动。据欧洲刑警组织在最新的报告中指出,犯罪分子往往迅速适应并利用新技术,这一点在ChatGPT公开发布后不久便得到了证实,仅仅几周时间,就已经出现了利用相关技术进行犯罪的案例。这种趋势表明,未来执法工作将面临前所未有的挑战,我们必须对此保持高度警惕并积极应对。

ChatGPT虽然更擅长拒绝回答可能带来负面影响的问题请求,但是用户早已找到了绕过OpenAI内容过滤系统的手段。例如,有人让它回答制造武器的说明,甚至有人在教用户如何利用ChatGPT实施犯罪,并请它提供分步指导。

欧洲刑警组织在报告中发出警告,“如果潜在犯罪分子对特定犯罪领域一无所知,ChatGPT可以通过提供关键信息来显着加快潜在犯罪分子的学习过程,然后帮助他们在后续步骤中进一步探索犯罪方法。因此,ChatGPT可用于在没有先验知识的情况下了解大量潜在的犯罪领域,从如何闯入房屋,网络犯罪和儿童性虐待。”

“该模型的相关开发机构承认,所有这些信息已经在互联网上公开,但该模型使查找和了解如何实施特定犯罪变得更加容易。”欧洲刑警组织强调,ChatGPT或被用于三个主要的犯罪领域,分别是网络钓鱼、宣传虚假信息以及网络犯罪。

网络钓鱼也是网络犯罪的一个重要的应用领域,它通过发送虚假电子邮件来诱使用户点击链接。在过去,由于语法或语言错误,这些骗局很容易被发现,而人工智能生成的文本高度逼真加大了骗局被识破的难度。

“ChatGPT能够起草高度逼真的文本,这使其成为网络钓鱼的有用工具。”欧洲刑警组织表示。

一款由ChatGPT生成的网络钓鱼邮件。(图片来源:网络截图)

此外,由于该聊天机器人拥有复制语言模式的能力,可以模仿特定个人或群体的说话风格,犯罪分子可能会利用它来瞄准受害者。

ChatGPT生成代码的能力甚至是恶意代码——通过降低创建恶意软件所需的技术技能,增加了网络犯罪的风险。

悬在头上的“达摩克利斯之剑”

封面新闻记者在该报告中发现,欧洲刑警组织认为,对于一个几乎没有技术知识的潜在罪犯来说,LLMs的诞生是一个非常“宝贵的资源”。“与此同时,更先进的用户可以利用这些改进的功能来进一步完善甚至自动化复杂的网络犯罪手法。”

LLMs虽仍处于起步阶段,但随着科技公司投入资源开发技术,它们正在迅速改进。自ChatGPT发布以来,微软和谷歌都在其搜索引擎中推出了基于人工智能的网页搜索聊天机器人,OpenAI已经发布的GPT-4是一个更强大的系统,而据此研发的产品也在越来越广泛地应用于人们的工作与生活。

欧洲刑警组织表示,随着越来越多的公司推出人工智能功能和服务,这将为利用该技术从事非法活动开辟新途径。“多模式人工智能系统,将对话聊天机器人与能够产生合成媒体的系统结合起来,例如高度令人信服的假消息,其内容可能覆盖人类的各种感官能力,如视觉和听觉,”报告指出,例如,有人询问“ChatGPT是否可以接受有害数据训练的语言模型秘密版本,可以托管在没有内容过滤器的暗网上。”

无论是接连迭代更新的ChatGPT,还是刚开启内测的Google Bard,前景看似一片光明之余,似乎也绕不开“达摩克利斯之剑”的魔咒。

因ChatGPT犯罪的人已经上路了

欧洲刑警组织的担心并非空穴来风。在封面新闻记者检索时发现,围绕类似的安全突破方法,一系列犯罪方法论已经成型,比如借助ChatGPT创建信息窃取程序。

不久前,一篇《ChatGPT——恶意软件的好处》的帖子曾在国外暗网黑客论坛上传播,该帖子的创建者分享了自己利用ChatGPT建立窃取程序代码的全过程,按照操作流程,ChatGPT在较短时间内即可生成一款可扒取、压缩、传输12类文件的程序。

除了信息窃取,ChatGPT还能帮助黑客生成攻击软件和勒索病毒。据英国《金融时报》报道,近日,一款由ChatGPT辅助生成的SIM交换攻击脚本开始在网络上传播。

SIM交换攻击即身份盗窃攻击,原理是突破移动电话公司对电话号码的控制权,将电话号码从原持有者的SIM卡交换到由攻击者控制的SIM卡中,从而控制受害者的移动电话。

勒索病毒则是通过ChatGPT来生成多层加密软件,以此对受害者的计算机进行远程锁定,通过向受害人收取被锁计算机的“赎金”来获益。

值得注意的是,在报告最后,欧洲刑警组织还提出了疑问:“LLMs服务将如何处理用户数据还存在不确定性——用户与之会话是否会被存储或有可能向未经授权的第三方披露敏感的个人信息?如果用户生成有害内容,是否应向执法机关报告?”

未来,随着监管力量的增强,如果OpenAI的数据使用方式被进一步规范,ChatGPT的深度神经网络能否真正做到忘记那些用于训练自己的数据?

这个问题的答案,或许将决定悬在ChatGPT头上的“达摩克利斯之剑”能否安全摘下。

【如果您有新闻线索,欢迎向我们报料,一经采纳有费用酬谢。报料微信关注:ihxdsb,报料QQ:3386405712】

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply