文章标签:
Error response
Error code: 414
Message: Request-URI Too Long.
Error code explanation: HTTPStatus.REQUEST_URI_TOO_LONG – URI is too long.
原标题:汪政:解码ChatGPT
编者按:2022年11月美国人工智能研究实验室OpenAI发布ChatGPT大型语言模型(Large Language Models,LLMs)引发了全球社会各界的关注,尤其是2023年3月14日发布的GPT-4的回答准确性不仅大幅提高,还具备更高水平的识图能力,且能够生成歌词、创意文本,实现风格变化。此外,GPT-4的文字输入限制也提升至2.5万字,且对于英语以外的语种支持更加优化。
近期,大型语言模型的发布引发了关于人工智能、生成式人工智能和通用人工智能对未来人类生活的热烈讨论和研究。在此背景下,Shahab Saquib Sohail, Faiza Farhat, Yassine Himeur等学者通过Scopus数据库,搜索并分析了109篇与ChatGPT相关的文章。这些文章涵盖了全球53个国家,349位作者,形成了对ChatGPT的全面研究和探讨。为了让更多人了解这一领域的研究成果,我们编译了这篇文章,并将其主要内容进行了翻译和编辑,题目变为《解码ChatGPT:现有研究、当前挑战和未来可能方向的分类》。我们希望这篇文章能帮助我国人工智能领域的创业者、研究者和文化爱好者正确理解和分析大型语言模型,从而为生成式人工智能和通用人工智能的研究提供指导。
原文链接:
https://doi.org/10.1016/j.jksuci.2023.101675
解码ChatGPT:
现有研究、当前挑战和未来可能方向的分类
在解析ChatGPT的现有研究、当前挑战以及未来发展方向方面,本文将深入探讨这个备受关注的人工智能助手。首先,我们将对现有的研究进行分类和梳理,以便更好地理解其成果和不足之处。接着,我们将揭示当前面临的主要挑战,并对其进行深入分析,以期为解决这些问题提供有益的参考。最后,我们将展望未来的发展趋势,探讨可能的研究方向和应用场景,为我国人工智能领域的发展贡献力量。
近年来,自然语言处理(NLP)和人工智能(AI)领域取得了显著进步,研发出了能生成类人文本的复杂语言模型。其中,生成预训练模型(GPT)以其生成连贯且符合上下文的响应能力,备受瞩目。GPT模型已经在各类NLP任务中取得成功应用,涵盖了语言翻译、文本摘要以及问答等(Guo et al.,2023)。GPT模型的一个重要变体便是聊天生成预训练模型(ChatGPT),这是一个专为与用户进行对话交互设计的聊天机器人(AI,2023;Sohail等人,2023)。ChatGPT借助GPT的功能,提供交互式且动态的响应,模仿类似于人类的对话。这一创新技术开启了新的可能性。
一、ChatGPT的介绍
1.1ChatGPT的体系结构
ChatGPT是由OpenAI团队研发的一种语言模型,其设计初衷是为了构建具有会话能力的智能对话系统。作为一种先进的自然语言处理技术,ChatGPT具备强大的语义理解能力,能够准确地把握用户的问题和指令,并生成富有意义、富有逻辑的回应。正如ChatGPT自己阐述的那样(于2023年3月29日发布)“我是一名名为ChatGPT的语言模型,由OpenAI公司精心打造。我的任务是模拟人类的思考和交流方式,以实现与用户的真实互动,为他们提供富有信息量和实用性的回答。”
ChatGPT采用了一种由编码器和解码器组成的转换器架构,这种架构与传统的循环神经网络不同,通过各层的协同工作来处理和生成自然语言文本(Chen等,2023)。该系统的核心组成部分是标记器,它可以把原始文本分割成更小的单元,也就是标记,这样便于进行后续的处理。接下来,利用输入嵌入组件,将这些标记转化为高维向量表示(Wang等,2019)。这样的设计不仅提升了处理效率,而且也大大提高了生成的自然语言文本的质量。
ChatGPT的运作机制主要由两大核心部分构成,分别是编码器和解码器(Budzianowski和Vulic,2019)。尽管ChatGPT因其高效且实用的特性而受到广泛好评,但在研究人员和业界的眼中,其潜在的风险也引发了众多关注。主要是因为,ChatGPT所生成的内容有时看似逻辑严密,但实际上却存在事实错误(Borji,2023)。这种情况可能会导致用户产生误解或不当反应,对网络内容的真实性构成了严重威胁。更为重要的是,ChatGPT生成的虚假信息容易被误认为是真实的,尤其对于对特定主题不熟悉的人来说(NewsGuard,2023)。因此,研究人员一直在积极寻找和追踪与ChatGPT有关的潜在风险,这些风险包括但不限于刻板印象的传播、有偏见的反应以及误导性信息的过滤(Liang et al.,2021;Nadeem等人,2020)。同时,使用ChatGPT还存在伦理问题,尤其是在将其用于制造被操控的内容时。
1.2ChatGPT研究进展
GPT-1是ChatGPT的第一个版本,其基础参数数量达到了1.17亿个,并通过在庞大的文本数据语料库上进行训练,从而实现了卓越的自然语言处理能力(Ernst和Bavota,2022)。随后的GPT-2、GPT-3和GPT-3.5版本,通过大幅度提升参数数量,进一步提升了模型的表现力。这种进步不仅推动了更精确、更具人性化反应的出现,也使得模型具备了零样本学习的能力。这意味着模型可以对过去未见过的提示产生流畅且连贯的回应。这一突破性的技术进步,得益于无监督学习技术的运用以及一种名为“语言建模”的新型训练目标(Zhang和Li,2021)。
ChatGPT的局限性虽然存在,但其应用范围已经拓宽至诸多领域,如医疗保健(Abdel Messih和Kamel Boulos在2023年的研究中提出)、网络安全(Mijwil等人于2023年的工作中涉及)、环境研究(Rillig等人于2022年的论文中讨论)以及科学写作(Salvagno等人于2023年及Dowling和Lucey在2023年的文章中都提到了)。这些应用的发展可能进一步拓展至实时对ChatGPT进行培训,以便提升其性能,并扩大其领域特定知识的覆盖范围,从而使得ChatGPT能够更好地服务于客户服务、医疗保健、商业和金融等特定领域。
1.3研究问题和主要贡献
撰写一篇关于ChatGPT及其未来贡献的综述,对于综合知识、确定优点和局限性、指导未来研究、告知从业者和解决伦理问题至关重要。这篇综述文章试图回答以下研究问题:
问题一:ChatGPT研究的现状是什么,包括其架构、进展和主要贡献? 问题二:与ChatGPT相关的出版物的多样性如何,这一研究领域的最新趋势是什么? 问题三:ChatGPT在不同领域的各种应用是什么,如医疗保健、营销和金融服务、软件工程、学术和科学写作、研究和教育、环境科学和自然科学? 问题四:如何利用多模式数据(如文本、音频、视觉)来增强ChatGPT的功能和性能,在这方面的关键技术挑战是什么? 问题五:在聊天机器人系统中部署GPT模型的主要挑战、伦理考虑、潜在风险和正在进行的研究工作是什么,以及如何解决这些问题以确保公平、透明、可解释性和以人为本。为此,这项综述工作首次对ChatGPT进行了全面的批判性研究,涵盖了8种不同的应用、当前问题和未来挑战。此外,文献调查概述了需要改进的领域,并提出了潜在的挑战。最后,还介绍了该工具的未来应用及其局限性的答案。
本文的结构如下:第2节重点介绍ChatGPT的各种研究领域。第3节介绍ChatGPT相关文献的出版趋势和分类。第4节讨论了ChatGPT的应用。第5节和第6节分别概述了该工具的局限性和未来的增强功能。最后,第7节给出了结论性意见。
二、调查方法
由于ChatGPT研究在我们日常生活的不同层面上得到了广泛的宣传和接受,它的快速传播导致了多样化的研究格局。我们的研究强调需要进行全面审查,概述其在不同应用中的各个方面的用途、局限性和潜在的未来方向。
通过搜索查询后,以Scopus数据库中筛选出检索到的文章创建了包含(IC)和排除(EC)标准。在应用特定标准后,共有109篇文章包括在分析中。这些文章来自349位作者代表53个不同的国家,表明国际上广泛参与了关于ChatGPT的讨论文献。值得注意的是,医学领域的代表性最高,占出版物总数的23%。其次是社会科学(20%)和计算机科学(11%)。美国是已发表文章的来源国,共有33篇出版物。紧随其后的是英国,共有10种出版物,澳大利亚和中国各有9种出版物。在合作方面,美国拥有最广泛的网络,与24个不同的国家合作,占总语料库的18%以上。瑞士在合作方面排名第二,有20个合作国家,其次是澳大利亚,有19个合作,英国有18个合作。
三、ChatGPT的出版物多样性
ChatGPT推出后,很快在各种学科中广受欢迎(Cox,2023;Dwivedi等人,2023年;Tlili等人,2022年),包括学术界(Chen,2023b)和科学界(Morreel等人,2024年)。然而,由于ChatGPT产生不准确信息或被感知的情况,许多人提出了批评和强烈反对。
就出版途径(期刊和会议)而言,《自然杂志》以13篇文章位居榜首。然而,没有文章在NLP的顶级会议上发表,可能是因为会议的宣布和接受通常需要更多的时间,因此未在网上发布。
四、与ChatGPT相关的出版物的最新趋势
通过全面的文献综述,在Scopus数据库中搜索ChatGPT的相关文章后共发现了109篇文章。截至2023年3月25日,主要有三类文章发表:1)对ChatGPT的评估,2)使用ChatGPT进行的预测,以及3)对ChatGPT的评论。最大的一组包括跨不同领域的ChatGPT评估。共发表了68篇文章来评估ChatGPT在提供准确答案或知识深度方面的能力。使用ChatGPT对不同领域进行预测是第二大文章组(39篇)和最少评论组(10篇出版物)。
同样重要的是,提示正成为与ChatGPT相关的一个新兴维度(White等人,2023)。研究人员探索了设计有效提示的各种技术,以从该工具中获得所需的反应。另一个重要趋势是发展促进多样性的办法。伦理考虑在大多数论文中都有详细或简要的讨论。随着人工智能系统与用户的互动,对偏见、公平和道德问题的担忧变得突出。研究的重点是开发方法来减少语言模型中的偏见,并确保它们符合。
五、ChatGPT的应用
本节概述了ChatGPT和生成聊天机器人的主要应用程序。ChatGPT的常见应用之一是作为个人助理(Bakker等人,2022)。在不同的领域,该工具被定制以满足特定领域的需求。例如,在医疗保健领域,ChatGPT被用作虚拟医疗助理,为患者提供有关症状、医疗和一般医疗保健建议的信息。在市场营销中,ChatGPT是一个对话式聊天机器人,用于处理客户咨询、提供产品推荐和协助订单跟踪。
5.1医疗保健
尽管ChatGPT可以访问有限的医学数据,但它在医学执照考试中的表现相当于医学三年级本科生。Stokel-Worker和van Noorden在他们的文章中描述了生成人工智能对科学的影响,以及ChatGPT如何回答一些开放式医学问题,几乎与普通医生一样好(Sohail et al.,2023),但也有一些缺点和不可靠性(Stokel-WWalker和van Noorden,2023年)。当明确提供临床重要因素时,ChatGPT能够识别这些因素,但随着场景的复杂性增加,它错过了相关问题(Howard等人,2023)。ChatGPT的回答通常是连贯的,拼写和语法都很恰当。该模型的回答包括对情景和问题的理解总结、管理选项以及反映其信息来源的免责声明,这些信息来源与患者信息网站的格式类似。ChatGPT经常逐字逐句地重复问题,包括任何错误,尽管它偶尔会注意到并更正它们。
5.2营销和金融服务
近年来,人工智能在银行业的使用变得越来越重要,ChatGPT为后端运营、数据分析和个性化客户服务提供了机会。AI可用于了解消费者需求并制定有效的营销策略,但由于金融服务行业的高监管,仅依靠ChatGPT存在局限性。人力参与是验证见解和报价可信度的必要条件,银行必须投资于基础设施和人力资源,将人工智能融入其数字化转型战略。
许多研究,如Dwivedi等人(2023);Geerling等人(2023);Street和Wilck(2023);Rathore(2023)已经研究了在银行运营中使用ChatGPT的潜力,包括后端数据分析和营销沟通策略,以及前端运营与客户接触的潜力。
5.3软件工程
软件工程是一个广泛的领域,由软件开发、设计、测试、编码等子过程组成。ChatGPT已被证明有助于软件工程的所有这些子领域(Sobania等人,2023;Aljanabi等人,2022;Surameery和Shakor,2023,White等人,2021;White等人(2023)。研究人员已经使用ChatGPT来自动确定软件错误的程序(Sobania等人,2023;Surameery和Shakor,2023)。他们在标准QuixBugs基准集上评估了ChatGPT的bug修复能力。
Ahmad等人(2023)使用ChatGPT来分析、综合和评估面向服务的软件应用程序的体系结构。他们得出的结论是,在人类观察的情况下,ChatGPT可以代替全职的人类架构师来执行以架构为中心的软件工程过程。此外,White等人(2023)提出了一个使用ChatGPT实现软件开发过程自动化的快速工程框架,包括创建API规范、与第三方库脱钩、需求规范、测试、部署等。
5.4学术和科学写作
ChatGPT的一个应用领域引起了许多人的兴趣,那就是语言摘要和阐述。自发布以来,ChatGPT已被广泛用于论文写作、申请起草、电子邮件内容生成和研究论文写作。此外,Kitamura(2023)指出,人工智能辅助工具非常有用,可以为未来的医疗内容写作发挥作用。也就是说,人类的判断对于证实ChatGPT的输出是必不可少的。同样,Kumar(2023)断言,如果受到人类的指导,ChatGPT在研究写作方面具有巨大潜力。
除此之外,Bishop(2023)在与ChatGPT的一系列对话中表明,人工智能机器人可以用人类风格写作,也可以复制作者的写作风格。作者(Salvagno等人,2023)推断,在如何规范人工智能辅助工具在学术写作中的使用需要达成共识,因为在科学写作中使用聊天机器人会带来与剽窃、不准确和不平等相关风险的伦理问题。Gao等人的一项实验(2023)使用了50篇科学期刊的摘要,并要求ChatGPT根据标题生成摘要。有趣的是,人类评论者发现聊天机器人写的摘要和人写的摘要之间很难区分。
5.5研究和教育
对于chatGPT正在研究的许多应用领域来说,研究和教育是最突出的。Rahman和Watanobe(2023)通过实验表明,ChatGPT既可以用于解决技术问题,如工程和计算机编程,也可以用于解决非技术问题,例如语言和文学。然而,他们警告要意识到其局限性,如偏见和歧视、隐私和安全、技术滥用、问责制、透明度和社会影响。
Megahed等人(2023)从他们的研究中得出结论,ChatGPT在翻译代码和解释众所周知的概念等结构化任务中表现良好,但在解释不太熟悉的术语和从头开始创建代码等细微任务中表现不佳。他们认为,虽然使用人工智能工具可以提高效率和生产力,但目前的结果可能具有误导性和不正确性。因此,生成性人工智能模型必须经过适当的验证,并与软件过程改进中的其他方法结合使用,以确保准确的结果。
5.6环境科学
到目前为止,有一些关于ChatGPT在环境科学中的潜在用途的研究。Rillig等人(2023)概述了该LLM工具的潜在好处和风险。他们认为,ChatGPT可以帮助简化环境研究的工作流程,环保主义者可以更多地专注于设计实验以及发展新的想法,而不是他们写作的质量。
它还将使非英语国家在环境科学领域拥有更大的代表性,加快相关环境问题的研究步伐。朱等人(2023)也提出了类似的观察结果,考虑到环境研究涉及的各种决策过程,在将ChatGPT等人工智能工具集成到其中时,必须谨慎行事。在解决对社会福利有重大影响的环境问题时,这一点尤为重要。
Biswas(2023d)提到了使用ChatGPT来解决全球变暖问题。据他说,环境研究人员可以利用ChatGPT的能力来分析和解释大量的气候变化数据,并随后根据分析预测气候变化模式。此外,ChatGPT可以用于以易于理解的格式向更广泛的受众呈现复杂的气候变化信息。它有可能为决策者提供相关信息和建议,以缓解气候变化。
5.7自然语言处理
ChatGPT已显示出其作为各种面向NLP的任务的有价值工具的潜力,包括自杀倾向检测、仇恨言论检测和假新闻检测。特别是,Qin等人(2023)认为,像ChatGPT这样的大型模型可以执行NLP任务,而不需要特定的数据自适应。他们在20个常见NLP数据集上对ChatGPT的零样本学习能力进行了评估,涵盖了推理、自然语言推理、问答、对话、摘要、命名实体识别和情感分析等类别。
Hendy等人(2023)对机器传输任务的GPT模型(包括ChatGPT)进行了全面评估。评估涵盖了18个翻译方向,涉及法语、德语、冰岛语、汉语、日语等多种语言。结果表明,GPT模型可以生成对资源丰富的语言具有高度竞争力的翻译输出。然而,对于低资源语言,GPT模型的当前状态显示出局限性,这表明需要进一步改进。
鉴于各种NLP任务之间的相似性,上述研究的结果可以外推到其他相关领域,ChatGPT的应用正在各个领域迅速扩展(Mijwil等人,2023;Aljanabi等人,2021),这表明这种增长趋势将在可预见的未来持续下去。
六、ChatGPT面临的挑战和问题
研究人员已经确定了关于ChatGPT的几个问题,可以大致分为两组:内在限制和使用相关问题。这些限制使得ChatGPT在现实世界场景中的使用和部署变得困难。
6.1固有的内部问题指的是ChatGPT固有的局限性
它包括五个主要局限性,即幻觉、内容偏颇、非实时性、误传性和不可解释性。ChatGPT可能会产生幻觉,即创建不存在的新数据/信息(Deng和Lin,2022)。另一个类似的担忧是错误信息(Borji,2023)。这两个问题都可能导致产生反事实或无意义的回应,从而严重威胁生成内容的可靠性。研究证明,通过人的反馈强化学习,算法改进、正确输入查询以及验证生成的响应可能有助于克服这些问题。
也有人担心ChatGPT引起的刻板印象和偏见反应的潜在危害(Liang等人,2021;Nadeem等人,2020)。除了算法改进和人类反馈之外,重新定义训练数据以删除或标记有偏见的内容可能有助于朝着这个方向发展。ChatGPT有许多关键应用,需要对逻辑推理步骤进行合理的推理和解释。它包括各种容错领域的决策,如社会服务、环境科学、医疗保健等。在这种情况下,ChatGPT不仅必须提供可用于决策的准确信息,还必须提供逻辑推理过程中涉及的步骤。
6.2使用相关
与使用相关的问题类别包括不道德地使用该工具、侵犯版权的内容以及过度依赖ChatGPT。此外,法律和法规应旨在惩罚不道德地使用ChatGPT的行为。由于有许多与ChatGPT相关的伦理考虑,我们在下一节中分别进行了讨论。
6.3伦理问题
ChatGPT能够通过从众多互联网来源提取信息来自动生成响应,通常无需用户进一步输入。这引发了人们对其潜在滥用的担忧,因为据报道,个人利用该系统创作大学论文和学术文章,甚至在提示时包括参考文献(Ali和Djalilian,2023a)。与使用ChatGPT相关的伦理问题之一是产生虚假文本和叙事(NewsGuard,2023;Dugan等人,2022)。Curtis等人(Curtis,2023)提出了用于识别由ChatGPT生成的文本的各种方法。这些方法包括简单的二进制分类器以及先进的深度学习模型。一些技术利用统计特征或语法模式,而另一些技术则结合语义和上下文信息来提高准确性。这些研究的主要目的是对ChatGPT特有的最新检测技术进行全面和最新的评估。
ChatGPT的使用日益增多,突显出学术出版迫切需要严格的人工智能作者指南。当人工智能生成学术文本时,存在与版权、归属、剽窃和作者身份相关的伦理问题。这些担忧尤其相关,因为当前的技术允许人类读者或反剽窃软件进行区分人工智能生成的内容和人类创作的内容之间的差异(Rahimi和Abadi,2023)。我们的观点是,ChatGPT的可用性、易用性和多语言能力可以显著提高学术产出,从而使知识传播民主化。然而,聊天机器人可能产生误导或不准确的内容,这引发了人们对学术错误信息的担忧(Mhlanga,2023)。OpenAI承认,ChatGPT可能会产生听起来合理但不正确或无意义的答案。
七、未来可能性
在本节中,我们将探讨与ChatGPT相关的一些未来可能性。我们设想,ChatGPT的未来迭代可能会包含各种额外的变量,这有助于开发更复杂和增强的人工智能语言模型。
7.1提高会话能力
ChatGPT可能会更好地理解和反应人类的语音,使其听起来更具对话性S.S.Sohail、F.Farhat、Y.Himeur等人。自然的这可能需要在情感分析、自然语言处理和上下文理解等学科中进行发展。以下是一些可以帮助人工智能变得更具对话性的基本策略。
7.1.1 增加训练数据的数量和种类
人工智能语言模型从提供的数据中学习。因此,通过让他们接触更广泛的语言模式和语言文本,扩大训练数据的规模和多样性有助于提高他们的会话能力。通常,增加训练数据的数量和种类可以帮助提高ChatGPT的性能。通过提供更多的数据,该模型可以提高对语言以及单词和短语之间关系的理解(Cao et al.,2023)。更具体地说,增加训练数据量可以帮助模型更多地了解不同的主题和上下文,这可以使其更加通用,能够处理更广泛的查询。此外,提供更多不同的数据可以帮助模型学会重新计算。
然而,同样重要的是,仅仅增加数据的数量和种类并不总是能提高性能。数据的质量也至关重要,重要的是要确保用于训练的数据准确、相关且多样,足以代表各种语言和语音模式。此外,其他因素,如模型架构、训练方法和超参数,也会影响模型的性能。
7.1.2 微调
微调方法包括将现有的人工智能语言模型通过一系列任务或领域。该模型可以接受培训,通过参与客户服务或个人助理等对话任务,得出更相关、更有用的答案(Bakker等人,2022;Himeur等人,2022b)。这个过程包括向模型提供会话数据集,并使用会话对作为输入和输出通过反向传播对其进行优化。因此,该模型变得更加准确、有效,并对生成会话响应的特定任务做出响应。
7.1.3 包含人的反馈
可以收集人工智能语言模型产生的反应的人工输入,以帮助模型的对话技能。这可以通过要求用户对答案的质量进行评分来实现,也可以通过让人类对模型产生的回答进行审查、编辑和提供反馈来实现。如果模型理解上下文(如先前的对话历史或用户的意图)的能力得到提高,它们可以产生更相关、更个性化的响应。结合人类反馈是提高ChatGPT性能的有效方法。
7.1.4 融入人类情感
人类经常通过幽默、同理心和讽刺来表达自己的感受。人工智能语言模型的对话技能可以通过添加情感来增强,使其更具相关性和趣味性。尽管这是人工智能领域一个复杂且有争议的主题(Pahl et al.,2022;Domnich和Anbarjafari,2021),但将人类情感纳入人工智能的语言模型是一个挑战。因为在人工智能语言模型中添加情感会带来意想不到的后果和风险,如偏见和歧视、操纵、隐私泄露以及不恰当或冒犯性的反应。因此,在将情绪纳入人工智能语言模型之前,必须充分考虑风险和道德分歧。
7.1.5 基于风格的高级文本分析技术
通过将利用复杂网络的基于风格的技术与Chat GPT相结合,该模型可以利用风格属性的分析来增强其文本生成能力。这种组合允许Chat GPT识别、理解和复制风格模式,从而生成不仅与内容一致,而且与所需风格一致的文本。在Chat GPT框架中集成基于风格的分析,可以更全面地理解和生成文本,为个性化、风格丰富和适合上下文的交互开辟了可能性。
除此之外,Chat GPT还可以通过集成单词嵌入(Quispe et al.,2021)来增强其对风格元素的理解和融入,从而做出创新性贡献。此外,将基于风格的文本分析集成到ChatGPT的对话框架中(Stella et al.,2019)可以帮助生成感觉更自然、更个性化的文本,从而在用户和人工智能系统之间建立更牢固的联系。然而,当前的主要挑战是熟练地将Chat GPT生成以内容为中心的文本的能力与复杂的基于网络的方法所促进的风格分析相结合。它需要将Chat GPT的内容生成能力与复杂网络技术提供的全面风格分析无缝集成。
7.2个性化
ChatGPT的未来迭代可能会适应每个用户,利用他们之前的互动来个性化答案并创建更亲密的对话。因此,用户体验和数据保护都可以得到改善。增强ChatGPT的自定义能力的方法如下:
7.2.1 通过各种来源增加个性化的用户体验
可以提供更多的信息来提高对语言模式的理解,并使答案更符合用户需求。许多来源,包括社交媒体、客户支持互动和其他在线对话,都可以提供这些信息。
7.2.2 特定域的微调
增加特定主题或领域的领域知识,如客户服务、医疗保健、商业或金融,可以通过微调特定数据集来实现。对于用户特定领域,这可能会导致更精确的答案和量身定制(Batko和Slezak,2022;Himeur等人,2022a)。
7.2.3 包含个性化提示
包括个性化提示,如用户名或对先前对话的引用,可以提高用户满意度并提高理解。如ChatGPT可以在答案中使用用户名,从而使交互更加自定义。例如,其中一个名叫John的用户之前曾与ChatGPT进行过一次对话,在对话中他提到了自己的名字。如果约翰问:“今天天气怎么样?”ChatGPT可以回应:“当然,约翰!今天的天气预报是晴天,气温为75度。”通过结合John的名字和之前的对话,ChatGPT能够提供更个性化和定制的响应,从而提高用户对所提供信息的整体满意度和理解力。
7.2.4 提供文化和地区多样性的实例
ChatGPT可以根据各种数据集进行培训,这些数据包括各种文化规范和传统的详细信息,如问候语、社会习俗和文化实践。这有助于ChatGPT更好地理解和处理来自不同文化背景的用户,并确保其反驳被考虑和尊重各种文化规范和标准。
7.2.5 用户对会话响应的反馈
收集用户对会话响应的反馈可以帮助确定使其更加个性化的方法。调查、用户试用以及对用户与模型交互的分析都是收集反馈的方法。
7.2.6 持续培训和更新
为了增强ChatGPT提供个性化答案的能力,可以对其进行新的数据训练。例如,如果出现新的趋势,可以对与该趋势相关的数据进行训练,以增强其提供个性化回答的能力。具体而言,有几种方法可以实现对ChatGPT的持续训练和更新。一种方法是定期向模型中输入新数据,方法是向现有训练集添加新数据,或者根据新数据对模型进行微调。另一种方法是持续监控ChatGPT的性能,并根据需要对模型进行调整。这可能包括监控准确性、困惑度和语言生成质量等指标,并使用这些反馈来更新模型。
7.3多式联运设计
与ChatGPT的多模式集成将实现更自然、更人性化的直观、引人入胜和有效的沟通。它需要创建能够处理和组合各种数据的机器学习模型和算法,包括文本、音频和图像。可以将这些不同的模式结合起来,以各种方式创造更具吸引力的有效的用户体验。
7.3.1 基于图像的设计
使用图像作为交流的主要工具是基于图像的设计的重点。为了传达某种信息或想法,这可能涉及使用图像、插图和其他视觉组件。视觉识别、图像字幕和基于图像的搜索可以与ChatGPT集成,使其成为多模式人工智能。图像识别和基于图像的搜索是功能强大的工具,在不同领域都有大量应用。例如,学生可以利用这些技术来定位和分析相关图像,用于学术研究目的。
7.3.2 基于音频的设计
可以与ChatGPT结合的音频功能的几个例子是语音识别、音频字幕和基于内容的音频检索。通过处理听觉输入并将其翻译成软件或其他设备可能使用的文本,语音识别技术使ChatGPT能够理解和识别口语。
7.3.3 基于视频的设计
集成基于视频的设计技术,如视频内容分析、视频字幕和视频索引,是开发多模式人工智能系统的关键方面。通过结合视频内容分析,多模式ChatGPT可以分析和处理视频片段,检测对象,并跟踪视频中的运动。视频字幕可以添加到ChatGPT中,在对话过程中提供隐藏字幕或字幕,使视频内容更容易访问。此外,视频索引允许用户使用关键字或时间戳搜索视频中的特定内容,从而更容易快速查找相关信息。
7.3.4 人机交互设计
创建多模式人工智能的下一步将是结合人机交互的特征,包括面部表情、触觉。
7.4可信度
当今最紧迫的需求之一是开发值得信赖的人工智能。为了实现这一点,ChatGPT的未来迭代可以包含保证公正和公平答案的功能。随着人工智能伦理和公平变得越来越重要,可以考虑三个关键类别:计算技术、伦理考虑和社会考虑。深度学习、机器学习和人工神经网络等升级的技术发展应该集成到计算方法中,以提高人工智能的性能。然而,还必须考虑伦理因素,包括数据伦理,以确保人工智能系统培训的数据收集、存储和使用是以道德和负责任的方式进行的,同时防止未经授权的访问或滥用。为了防止基于宗教、种族或性别等特征对个人或群体的歧视,机器学习的公平性也必须是优先事项。
7.4.1 公平
在人工智能系统的创建和应用过程中,应纳入人工智能的公平性,以避免偏见和歧视。它需要确保人工智能系统平等地处理每个人,没有歧视,不会加剧现有的偏见和不平等。这需要全面考虑用于训练人工智能模型的数据,以及人工智能系统中使用的算法和决策程序。作为一种AI语言模型,ChatGPT可以通过考虑和解决其训练数据、决策过程和输出中的偏见来努力实现公平。解决训练数据中的偏见的一种方法是确保用于训练模型的数据是多样的,并能代表人群。这可以通过使用各种来源和包括代表性不足群体的数据来实现(Hassani和Silva,2023)。培训数据也应仔细策划和过滤,以消除任何有偏见或有问题的数据。
7.4.2 透明度
人工智能系统的决策过程和基本数据对用户透明和可用的程度被称为人工智能的透明度。因为透明的人工智能系统更容易理解和分析,它们鼓励信任,使系统更有可能做出道德和法律选择。为了确保ChatGPT使用的透明度,必须清楚该模型的局限性及其功能。此外,重要的是要对用于训练模型的数据源和任何潜在的偏差保持透明。
7.4.3 可解释性
可解释的人工智能可以为其选择和决策提供全面的解释。因此,人类可以理解和验证系统的决策过程,这对于建立人工智能系统的信心至关重要。增加可解释性的一种方法是使用固有的可解释性模型,如决策树或线性回归模型。这些模型更容易理解,因为它们明确地显示了每个特征对模型输出的贡献。
另一种方法是计算并呈现模型输入的特征重要性分数。这允许用户查看哪些因素该模型正在使用进行预测。
7.4.4 以人为本的设计
它指的是创建符合人类价值观、需求和偏好的人工智能系统的过程。这需要考虑人工智能系统的伦理和社会影响,并在设计时强调透明度、公平性和问责制。以人为中心的设计原则通常应用于研发过程中,例如进行用户研究以了解使用语言模型的人的需求和行为,测试不同的设计原型,以及根据用户反馈迭代设计。
八、结论
在这篇综述文章中,我们通过全面回顾关于ChatGPT的100多篇Scopus索引出版物,展示了未来GPT语言模型在各个领域的巨大潜力。尽管有其潜力,但早期的ChatGPT研究仍然面临一些局限性。我们确定了一些可能需要解决的问题,这些问题被归类为内在的和以使用为中心的问题。此外,我们还讨论了伦理问题。最后,为克服这些挑战并提高ChatGPT的效率,我们发现了一些潜在的未来发展方向。
【作者简介】
汪 政
中国政法大学法学院博士生
浙江泰杭律师事务所主任
浙江合众法律科技智能研究院院长
来源、转自公众号:法律科技智能研究院返回搜狐,查看更多
责任编辑:
Error response
Error code: 414
Message: Request-URI Too Long.
Error code explanation: HTTPStatus.REQUEST_URI_TOO_LONG – URI is too long.