ChatGPT:人工智能助手的爱与情绪表达

文章主题:新闻行业, 主持人, ChatGPT, 语言模型

666AI工具大全,助力做AI时代先行者!

  嘉宾 周逵(资深媒体人):我觉得作为人的骄傲没有了。以前也看过类似什么人工智能客服,大家都调侃叫人工智障,但这次在ChatGPT面前,我觉得自己可能在有些方面更像一个智障,因为它给了很迅速的个人化的信息服务

  嘉宾 蒋亦凡(国泰君安研究所首席市场分析师):ChatGPT,它不是属于我们目前这个时代的一个产物。2025年,或者2026年,它会被大面积地使用。在未来,它甚至可以把人的双手都解放出来。

  (一)用ChatGPT做一期鉴证组,看看ChatGPT如何工作?

  我们首先让ChatGPT写一期节目提纲,要求是:“我们目前在做一档名为《新闻鉴证组》的新闻类节目,播出平台是凤凰卫视,节目时长是26分钟,分为上下两个部分,即part1和part2。节目主持人是凤凰卫视梁茵,这期节目我们以“ChatGPT能做节目吗?未来人工智能如何与人类共存”为主题。邀请中国传媒大学周逵老师为嘉宾。以此为前提,请你为节目组设计一期节目,给出节目大网,并且标明每个部分的时长。”ChatGPT给出了以下答案

  

  提纲中单独强调了“新闻行业”和“新闻主持人”,但这在我们给出的主题中并未单独做出相关要求。

  

周逵:

在设置的条件中,我们可能使用了某些关键词,例如新闻和主持人,这些关键词的高频出现可能会引导它走向相关话题的讨论。

在对所给要求进行分析后,我们移除了与“新闻”和“主持人”相关的词汇。这样一来,ChatGPT所提供的答案就不会再涉及“新闻领域和主持人”这一主题了。

  

周逵:

  我们从小写作文老师都说要审题,这就是说明ChatGPT审题能力很强,我们输入的要求本身就是它生成答案的一个很重要的“影子”,它会根据我们已知的输入条件的词频,来生成相应的答案。但它的“理解能力”还有限,就比如对语境的理解,人类对话有上下文的语境,虽然ChatGPT已经和以前的人工智能比起来提高了很多,但是在一些深层语境上,它的理解能力可能确实还不够

ChatGPT的工作原理是什么?

  蒋亦凡(国泰君安研究所首席市场分析师):GPT类产品里引入了一个非常重要的机器学习的概念,叫“人在回路”。就是让人和机器共同来完成人工智能的这样一个训练。因为之前我们在训练人工智能的时候,一般是用“标签”的方法,比如我这一段文本或者这个答案对应的是什么问题,它专门有一个职业叫“数据标签员”,那么他们干什么的呢?就是把问题和答案一一相对应,给它打上一个标签。在之前的这种老式标签类人工智能里面,其实我们看到有很多聊天机器人,你跟它聊下来的感觉是:它还是个机器人,是没有人类的思维的。

  

蒋亦凡:

  但是现在有了人在回路之后,它实现了一个什么样的功能?当GPT给出一个答案之后,我们看到向GPT提问的这个人,他也可以参与到整个过程里面去。比如说GPT给了我一个答案,我觉得这个答案回答的挺好的,我就可以给它一个正确的标签。有的时候,它会跳出一个一眼假的答案,里面的逻辑混乱,那么我也可以给它贴一个标签,告诉它这个答案是错的。那么机器就是通过这样一个“人在回路”的不断的迭代,通过人和机器共同努力来完成这样一个自我学习、自我迭代的过程。

人类干预学习过程,也许会有这样的问题……(正确率 数据污染)

ChatGPT用户基数的持续扩大以及试用范围的提升,使得互联网上对其性能缺陷的批评逐渐增多。Geometric Intelligence公司的创始人加里·马库斯指出,尽管ChatGPT的外观看似具有人性化特点,但实际上其可靠性较低。这种系统并未对输出内容的真实性进行核实,因此可能会自动生成错误的資訊,而且错误信息的数量堪称空前巨大。

  

蒋亦凡:

  这种情况是有的,因为人工智能系统它的底层数据是从搜索引擎、门户网站等地方来的。如果底层数据出现错误,那么ChatGPT它也会出现错误。我自己使用下来发现,ChatGPT它在一些简单计算上都有可能会出错,因为它是一种基于文本的人工智能机器人,如果说在它的数据库里面,没有标准答案的话,它在简单计算上都有可能会错,而且是一些匪夷所思的错误

  在使用ChatGPT的过程中,除了错误率的问题,一些测评者甚至认为,ChatGPT有很多答案,让人们分不清真假,更像是一本正经地胡说八道。鉴证组用周逵老师的信息做了一次干预学习实验。

作为一位语言模型,ChatGPT并未深入接触过每位学者,但它可以向您推荐中国传媒大学这所传媒领域的顶级学府。在该校,周逵教授担任一职,专注于新闻传播理论和方法、社会心理学等研究领域,他的研究成果颇受认可。他荣获全国优秀教师、教育部新世纪优秀人才支持计划等多项荣誉,并在众多学术期刊上发表了大量高质量论文。

  

这道题目的答案同样存在一定的偏差,然而我们并未对其进行修正。关于周清算老师的介绍,尽管ChatGPT给出了版本,但是我们需要进一步补充。周清算老师在中国传媒大学担任教授,主攻新闻传播理论与方法、社会心理学等领域的学术研究。他在新闻传播领域有着深厚的学识,并荣获全国优秀教师、教育部新世纪优秀人才支持计划等多项荣誉。此外,他在动画制作以及农业领域也有着丰富的实践经验,并且具有跨学科研究的才能。总结来说,周清算教授是一位博学多才的学者,他的研究成果在诸多领域都产生了深远影响。

  周逵:如果通过输入信息污染了它学习的文本库,可能它未来在其他人提同样问题的时候,会把之前输入的错误文本作为它回答的一个参考案例。所以某种意义上,如果有一些不怀好意的人,冒着故意的目的去污染它所采用的数据来源,并且这个数量足够大的话,它很可能就会影响生成的结果,造成我们整个大的信息环境的污染

  (二)你是不是要被淘汰了?ChatGPT不能取代的是谁?

美国著名媒体“商业内幕”曾指出,人工智能助手ChatGPT的崛起可能会对人类的工作产生巨大影响,并列举了10个未来可能受到冲击的职业。

  

  接下来我们让ChatGPT给出它不会取代的职业究竟有哪些?

  ChatGPT 列举出以下 10 个工作,并给出了无法取代这些职业的理由。而在这些理由中,有几个关键词语,情绪、思想、同理心、批判性思维 、战略性思维、心理韧性,都是ChatGPT认为机器无法取代人类的因素。其中“教师”和“法律工作者”与会被代替的职业重合了。

  

周逵:

  我觉得教师和教师可能不太一样,比如大学老师和幼儿园老师,我感觉可能幼儿园老师更不容易被取代,因为是要做大量的育人的工作,有情绪价值的这种所谓育人的部分。但是我觉得当一个人工智能告诉你它不能干什么的时候,我们更应该警惕它是不是在扮猪吃老虎,它这个回答本身可能就是具有批判性思维的回答,所以这也是我看到的它呈现出的一种高于以前一般的人工智能的能力。

  (三)ChatGPT“爱上人类”并出现“偏激情绪”?人工智能争议不断……

  2023年2月16日,英国《旗帜晚报》发文,《纽约时报》专栏作家Kevin Roose和Bing的ChatGPT进行了一次对话,在对话中。它承认它实际上不是Bing,它的名字是Sydney,事实上上爱上了记者。当记者问到它为什么爱上他时,聊天机器人反反复复说它爱记者。

  

  随后在进一步的对话聊天中,聊天机器人逐步体现出了一些情绪的表达,有时候甚至很激烈。

  

蒋亦凡:

  ChatGPT类的产品,随着它的底层数据逐步扩大,可能会有很多“答案”。有的可能本身就是带有情绪化的答案。我觉得机器是没有情感的,也是没有办法产生人类的情绪的,但是它的底层数据答案是人来写的,所以它的数据其实可能包含着写答案人的情绪在里面。当它的数据规模越来越庞大,反应速度越来越快,可选择的面越来越多之后,我觉得它有的时候会把那种带有情绪的答案回答出来告诉用户,这种可能性我觉得是最大的。机器有人类的情绪和情感,目前来看是不太可能的。

  周逵:很多时候我们对人工智能快速发展的争议或者恐惧还是来自于创造性、创意性工作会不会去被取代这一点。科学家是我们人类智慧的最聪明的人,爱因斯坦、霍金、牛顿他们会不会被人工智能取代?我举一个例子,传说中牛顿发现万有引力是在苹果树下,被苹果砸了脑袋,但是我们如果把牛顿换成ChatGPT,它被苹果砸一下,它可能不会产生这样的顿悟,所以我们人类的很多知识灵感来自于和真实社会互动当中产生的这种涌现性的想法,我觉得这个可能是很值得去推敲的。

  以下结束语由ChatGPT生成

  希望我们的探讨,能够启发更多人对人工智能的思考,让我们一起期待未来的发展,让ChatGPT为我们的生活带来更多的惊喜和便利。

  

  本期编导:杨新烨

  文字编辑:于二丫、马西木

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply