“人工智能女王”贾斯汀·卡塞尔: ChatGPT给我们的答案有可能是错的

新快报讯 5 月 25 日,2023 小蛮腰科技大会暨 AIGC 人工智能峰会在广州开幕。会上,被誉为 ” 人工智能女王 ” 的卡耐基梅隆大学计算机学院讲席教授、前副院长,法国国家信息与自动化研究所(Inria)研究主任贾斯汀 · 卡塞尔(Justine Cassell)带来《从大语言模型到 ChatGPT:AI 时代的语言革命》的主题演讲,她说,” 我相信,我们未来会看到非常多的好机遇。”

小蛮腰科技大会上,贾斯汀 · 卡塞尔带来主题演讲。

聊到人工智能(AI)这个话题时,贾斯汀 · 卡塞尔说,AI 不仅仅是个技术,它是一种模型、一种态势、一种范式。” 我们现在不仅能够让机器学习人怎么做,还能够做得比人更好。”

她聊到了 AI 系统中的一种——大语言模型(LLM)。作为一种 AI 系统,它需要几千、上万甚至更多的数据融入、模型和算法的融入,它让我们能够预测在话语中的下一个词是什么、下一个句子是什么结构、在谈话的下一步会走向什么样的发展。所以,当她在打字发邮件时,输入 “how(如何)” 这个词时,算法就马上可以说 “How are you(你好吗)?”,这就是大语言模型在背后的助力。

她的另一个关键词是 ” 生成式 “。她提到,生成式的 AI 是一种新的系统。这个新的系统,第一次让我们能形成一个文本、图片或者音乐,这些都不是既有的,而是从来没有存在过、完全由 AI 创造的,所以说它能够为我们带来新的生成性的内容。

举个例子,比如说 AI 系统现在最火的 ChatGPT。贾斯汀 · 卡塞尔说,它已经在活动中多次被提及,它们可以进行对话,这其实与我们以前看到过的对话是一样的,它是新生成的对话,它可以产生画面、图片或者艺术作品,这都是从前没有艺术家尝试过、画过的,是一个全新的内容。

” 有一个我们需要记住的是,ChatGPT 并不会生成自己的行为。”ChatGPT 是一个 LLM,它与我们以前的不同的老的技术不一样,它会把什么是正确的措辞的算法和推理的过程作为一个模块嵌入到它的计算之中。但是 ChatGPT 本身而言还没有一个自主去做逻辑推理的能力,所以 ChatGPT 给我们的答案有可能是错的,因为它其实只是一个对话框、它只是一个看起来非常酷炫的技术呈现而已,但是目前为止,它还没有一个自主思辨的能力。

” 除了没有推理能力,ChatGPT 也没有记忆能力。”” 我也非常自豪,同时我们也看到这些年轻计算机科学家,他们现在正在研究关于推理和记忆方面的老论文,来看看有没有一些传统的方式,比如说这些标志性的 AI 以及和大语言模型结合起来,看一看到底什么是重要的,下一句话应该说什么,以及使得新的 ChatGPT 可以记住他们所说的话。”

她谈道,增加透明度也是非常重要的趋势。微软介绍了 ” 必应 “,把必应和 ChatGPT-5 结合在一起,为什么他们要这么做?” 因为他们希望信息是准确的,所以我们不仅仅只是需要准确的信息,同时如果我们希望从大语言模型获得信息,我们想知道这些信息的来源是哪里,来源必须要透明。”

据她分享,还有一个技术叫微调,它可以让我们添加自己的数据,在大语言模型被输入之后可以继续添加数据,这叫作微调。贾斯汀 · 卡塞尔说,她的学生正在研究这方面的工作,或者重新排序,可以确保专门的术语、专门的行业和专门的数据库能够应用起来,让这些大语言数据变得更加有用。

采写:新快报记者陈慕媛

查看原文

Leave a Reply