ChatGPT:一种改变未来的智能聊天机器人

文章主题:关键词:ChatGPT,网站代码,生成式人工智能,聊天机器人

666AI工具大全,助力做AI时代先行者!

一张草图,ChatGPT即可在短短10秒内生成一个网站代码;只需片刻之挥笔,一幅满足需求的插画便呈现在眼前。此技能不仅适用于学术论著、数据表格的呈现,更在于其创意性的写作能力,能够跃然纸上,成为一部引人入胜的小说。

近期,ChatGPT在网络上风靡一时,这一技术在3月16日的百度文心一言发布会上得到了广泛关注。生成式人工智能的崛起引发了网友们的热议,许多人开始思考它对未来职业市场的影响,甚至担忧是否会导致失业。同时,也有人期待ChatGPT是否能引领科技的第三波革命。

在多次场合中,我国科技部部长王志刚提及了智能聊天工具ChatGPT的重要性。在2月24日的国新办“权威部门话开局”系列主题新闻发布会上,科技部高新技术司司长陈家昌明确表示,我国政府将继续将人工智能视为战略性新兴产业和新增长引擎,并为其提供持续的大力支持。

ChatGPT 是一款由 OpenAI 实验室与美国人工智能研究实验室合作开发的人工智能聊天机器人。作为一款强大的语言模型,ChatGPT 充分利用了大数据、大规模计算能力和先进算法,使其具备卓越的语言理解和文本生成能力。

关于智能聊天工具的未来发展前景、可能带来的变革以及如何应对潜在风险的问题,我们采访了中国科学技术大学的陈小平教授,他是我国人工智能学会伦理与治理工作委员会的主任。陈教授从多个角度深入剖析了生成式人工智能的发展现状、未来趋势以及可能产生的影响,为我们提供了宝贵的见解。

陈小红博士是我国知名科学家,现任中国科学技术大学教授,同时担任国际顶级期刊JAIR和KER的编委,还需担任中国RoboCup委员会主席一职。他曾在2008年和2015年分别担任RoboCup机器人世界杯和学术大会的主席,并在2015年世界人工智能联合大会上担任机器人系列主席。除此之外,他还创建并领导了中国科大的机器人实验室,该实验室在智能机器人和多Agent系统领域取得了系列化的创新成果,并且先后赢得了10项世界冠军。

陈小平 受访者供图

谈现状:5~10年完全有可能真正实现大面积应用

正观新闻:当前,人工智能发展处在一个什么样的阶段?

陈小平:2017年阿尔法狗第四代就已经通过实验证明,它远远超过人类所有现役的围棋高手。但当时可能很多人都不太重视这件事,认为只限于下围棋,现在事实证明这一判断是不符合事实。

前几年我在很多场合都提出我的判断:预测在10~15年内就会实现人工智能的大面积应用,其中对我国最重要的应用领域是制造业和实体经济。过去的5年,虽然人工智能还没有实现大面积应用,但是已经出现了具有大面积应用潜力的人工智能。事实上,这是一个很紧迫的形势。

但是就当前生成式人工智能的发展状况来说,通过什么方式、在哪些行业实现大面积应用,会带来什么样的后果,仍存在很大的不确定性。

目前人工智能发展很快,实际情况是学术界、产业界、社会各界都没做好准备,没做好准备的原因在于大家没预期发展这么快。当前在我们没做好准备的情况下,我觉得最重要是要避免两个极端,我们既不能恐慌,也不能掉以轻心。

我的预测延续到现在这个时间点,最快就是5年内就可能大面积应用,生成式人工智能会带来很多新的治理挑战,我们现在一定要做好相关的工作,除了研发以外,伦理治理一定要提上议事日程。伦理治理不只是学术界、产业界的事情,而是涉及社会各界,包括政府和行业管理机构,与大家息息相关。

特性:GPT为何如此智能?

正观新闻:GPT-4有什么特点?

陈小平:GPT-4是以大模型为核心的生成式人工智能的一个代表。简单来说,目前生成式人工智能分成上层和底层两个层次,而底层的核心是预训练模型。如同大楼的地基加上大楼的基础设施,预训练模型在生成式人工智能中起类似的作用。

预训练模型是用原始文本进行训练的,原始文本指的就是直接从网络上下载的,没有经过人工标注的内容。有人估计GPT-3的训练文本的总量占互联网文本总量的1/3~2/3。预训练模型使用这么多的文本,做的最重要最基础工作,就是从原始文本自动抽取文字之间的关联度。比如“我”和“们”之间的关联度很高,“我”和“门”之间的关联度很低。不仅抽取相邻文字之间的关联度,而且抽取远距离文字之间的关联度。

为什么GPT给大家印象那么好,说它有理解能力,一个主要原因就在于它能把握远距离的关联。日常生活和文字工作中,如说话聊天、写作文、撰写调研报告、做广告策划……这些任务都涉及文字的关联度。利用文字关联度执行这些任务,可以在很大范围内让人感觉AI在说人话。

生成式人工智能还有一个上层,上层是对预训练模型做进一步的加工训练。要让GPT说出来的话比较符合用户的偏好,而不仅仅是听起来像人话,这个时候就需要人工标注,来反馈人对于AI的期望,所以这种反馈也是原始数据。比如ChatGPT在InstructGPT的基础上又做了专门训练,那么它在聊天上就聊得更好。

另外在预训模型上面又训练了一个专门写代码的软件,训练代码和训练聊天不一样,需要的训练数据是不一样的。经过各种后续训练得到的还是大模型,一般称之为微调大模型。

缺点:两个局限不可能彻底改掉

正观新闻:GPT有没有缺点?

陈小平:虽然GPT这么强,大模型不管是预训练模型,还是微调模型,还是其他的类型的大模型,都有着相同的基本特性。而且它们对社会产生的作用往往就是由基本特性决定的。

我觉得大模型有两个基本特性最为重要。第一个特性,大型语言模型最核心的能力是文字的关联度,这是一种语言功能,语言具有公用性而不具备通用性。

举个例子,我们人工智能专业的主要的知识是用本专业的特殊的语言来表达的,不是用自然语言,而数学学科的主要的知识是用数学语言、数学公式来描述的,物理、化学等各个学科都有自己的专业语言。

其实我们观察到一些现象,比如说好多人和GPT聊天,就发现普通的话题它回答得很好,但专业的话题回答起来经常不太令人满意,原因就在于语言不具有通用性。

第二个特性也是非常关键的。语言本身不能决定真假,也不能决定好坏。语言是一个表达工具,既可以表达真话(符合事实的话)、好话(符合伦理的话),也可以表达假话、坏话。因此我们不能要求生成式人工智能能决定真假,判断好坏,这些要求都不现实。

随着技术不断地迭代,大模型说的假话越来越少,真话越来越多,说坏话越来越少,好话越来越多,但是你不要指望到某一天,它就只说真话不说假话,只说好话不说坏话,这一天永远等不来,因为这是先天局限。从这个特性就看出来伦理治理的重要性了。

谈国内:文心一言暴露的问题是正常的

正观新闻:近期百度推出文心一言,目前我国预训练语言模型发展状况如何?您是如何看待文心一言的?

图源 文心一言发布会

陈小平:中国的学术界和产业界一直是大模型技术的积极的参与者,并且做了大量工作。但是目前这个阶段,生成式人工智能进入了大规模实测阶段,从这个角度来看,美国的产业界走到前面去了,所以在这个背景下,文心一言的发布,说明中国在该领域有很大的进步。

国内过去已经发布了多个大模型,但是并没有面向全社会开放做测试。目前文心一言已经走出了这一步。人工智能发展不能只研究技术、模型,而是要去实际应用,那必定要去做大规模的实测,才能了解其性能好不好,所以文心一言和一些其他的国内外企业往这个方向走,我觉得都非常好,就应该有更多的企业去做大规模实测。

有人对文心一言进行了一些非专业测试,发现了文心一言的表现有些不太令人满意的情况,我也看到了一些。但现在我没有看到对文心一言的系统性测试,我无法给它下定论。

对于目前非专业测试发现文心一言暴露出的一些问题,我觉得其中很多问题都可以通过算法的优化得到解决,大部分问题在我看来都不是大问题,毕竟文心一言准备时间比较短。大模型是个大系统,里面用了很多技术,所以它出了一些故障是很正常的。

这样看中国在这个领域还是很有希望,仍然有可能像大家期望的那样,很快进入领头羊的位置,特别是针对中文语言。我非常期待我们中国的公司能把中文处理好。

谈冲击:需要做大社会财富蛋糕

正观新闻:生成式人工智能的使用有哪些利弊,对哪一些行业产生影响?哪一类人群可能会失业呢?

陈小平:生成式人工智能以什么方式在哪些行业大规模应用,现在不是完全清楚。但能确定的是,由于两个基本特性,它不能彻底取代人。现在有一些专家判断,比较大的可能性是生成式人工智能取代一部分初级员工,比如翻译、编程、文案策划……这些岗位的初级员工有可能会被取代一部分。

当然目前技术条件并没有完全具备。然而潜在的问题已经值得重视了,如果短时间内取代了很多初级员工,这个对社会就业是一个很大的冲击。

就业问题也会对行业的长期发展带来影响,高级员工都是从初级员工逐步锻炼成长起来的,如果初级员工没有了,高级员工也就不复存在了。

此外,高级员工可能因为人工智能的到来而受益,善于使用生成式人工智能的高级员工的工作效率可能会提高,收入可能会增加,同时高级员工之间的内卷可能会加剧,下游企业之间的竞争也有可能加剧。

教育行业也可能因此发生改变,如果某一个行业大规模削减初级员工,这个行业的大学教育和职业教育就会遭受巨大冲击。这是一个牵一发动全身的问题。我们需要从更广阔的视野去考察这些影响,还需要做更全面深入地分析。

如果生成式人工智能大规模投入市场,但是整个市场规模、经济体量没有扩大,只不过生产方式变了,效率比原来高了,那么就带来两个可能的结果,一个后果就是一部分人失业。

另外还有一种可能的后果——较高收入岗位更替为较低收入岗位,这是一些发达国家过去几十年出现的情况,结果导致社会分化,矛盾加剧。现在我国面临的新情况是,在制造业很多岗位严重缺工的背景下,服务业又可能出现岗位减少,这就值得高度重视。

针对上述种种问题,一条重要出路在于我们能不能把社会财富的盘子做大。采用新的技术使生产效率提高的同时,如果盘子也做大了,这些问题就能解决,或者就没有那么严重。

例如,原来我们用的电话都是固定电话,随着产业的升级,出现了手机,用手机的人一下增加了非常多,结果盘子变大了,相关行业的员工并没减少,反而增加了。所以,生成式人工智投入大面积应用后,能否把盘子做大,对中国尤其重要。

谈伦理:新的治理模式要尽快跟得上

正观新闻:GPT-4存在哪些风险值得注意?您能否提出些应对风险的建议?

陈小平:目前伦理治理面临的一个关键问题是:生成式人工智能将提供一种新的服务,还是成为一种新的基础设施?这两种情况需要的治理模式是根本不同的。

我倾向于认为,生成式人工智能有潜力成为新型的基础设施,这使得传统的治理模式变得不再适用。比如,马斯克面对生成式人工智能一直强调做开源,而开源软件和传统的闭源软件代表着不同的创新模式和社会治理模式。

人工智能伦理治理的根本宗旨是增进人类福祉,而不是单纯地防范风险。在人工智能技术快速发展的当下,尤其需要思考一个重要课题:通过新的创新模式和社会治理模式,能否让新技术解决经济回报不够大的重大社会需求。比如,单纯从技术角度,人工智能完全可以应用于涉及85%人口的普惠养老,但由于经济回报太低,在现有创新模式下这种应用面临重重困难。为此,完全有必要构建新型创新模式和治理模式。

生存式人工智能的大面积持续性应用取决于两个条件,一是技术的迭代能不能让技术真正大面积地实用化;另一方面是,我们能否建立新的社会治理模式和创新模式,以保障新技术的大面积持续性应用能够增进人类福祉。在某种意义上,伦理治理具有更加重要的作用。

举报/反馈

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply