目前ChatGPT 已应用到论文写作、剧本创作、媒体内容生产,是解放生产力的机会还是被AI支配的开始?

简单说吧,ChatGPT大概就是“一个死记硬背者所能达到的顶峰”。

其实,如果你有一定的分析能力,一定早就见到了AI在逻辑方面的各种拉跨……

比如,前些天我刚点赞过一个答案。那位答主是这样调戏ChatGPT的:请证明18是质数。

于是ChatGPT洋洋洒洒写了一两百字,证明了18是质数。

后来大概官方人工干预了,终于有点像那么回事了;但是……借用评论区一位朋友

的图片:

灾难啊!

只要你懂,你可以有无数种办法调戏ChatGPT,让它犯一些小学二年级学生都不会犯的错误。

类似的,AI作画?

咱能不能别让人坐汤盆里?吃面能不能用筷子?手指能不能刚好五个?胳膊腿能不能确保左右各一个?

很遗憾。我们甚至找不到办法、把“人的手有5根手指”“人只有两条腿”这么简单的知识教给AI。

换句话说,迄今为止,AI仍然只是机械的拟合,尚未产生哪怕最最基础的逻辑能力。

没有任何AI能够熬过“鸡兔同笼”问题的考验——更不用说,如果你故意出一道错题,它绝无能耐告诉你,这道鸡兔同笼问题里面,你给的数字是错的,算不出答案!

但,另一方面,现在的AI的确已经极其强大了。强大到已经超越了绝大多数只会死记硬背、却没有任何自己见解的南郭先生、可以给专业人员提供很大帮助的程度。

但这个帮助嘛……只能说是一言难尽。

总之,外围的一些工作,它足够胜任了。甚至比很多人做的都好。但稍微需要点逻辑的工作……

所以StackOverflow不得不禁止AI答题——它如果都能答对,反而大可不必禁它。俺们码农头痛那些初学者的口水问题很久了,AI能代劳,那是求之不得。

可惜它答不对。仅仅是说的看似很专业、很有欺骗性而已,但遇到专业人士立马现原形。

谁信了它的答案、用到自己的工程里,那……俺不知道是该哭还是该笑。

至于写论文嘛,谁被骗谁尴尬。

其实早在200x年就来过这么一次了。当时是欺骗后现代主义哲学,有人搞了个狗屁不通文章生成器,简单说就是用些大词、术语,拼凑了一篇毫无逻辑、但语法正确的“论文”,后现代主义哲学的期刊居然给它发表了……

会被骗,就说明这个专业大概也有点类似潜质。也就是缺乏真正的内在逻辑,组合一些“优秀例句”就连“最专业的行内人”都看不出问题。

反正俺们理工科不怕。一年级数学都搞不定的弱渣……尤其是搞不定还不会承认,而是制造一堆看似有理的垃圾。那这真是用都没法用,因它浪费的时间造成的破坏远大于它能给出的帮助。

有点追求的漫画作者也不怕。腿的数目都画不对的弱渣……但拿来填个色加点装饰挺不错的,比很多人都强。

总的来说,挺好的工具,能解放部分专业人员的劳动力(早有这个富坚老贼大概就不会断更了吧),有改变世界的潜力;然后嘛……谁怕谁尴尬,哈哈。

从潜力来说的话,神经网络和人脑是一个原理,ChatGPT动用的算力则远远远远超过人脑。如果人脑智商160算天才的话,ChatGPT如果真正成功,它的智商或许是1600、16000甚至160000……

但起码目前为止,ChatGPT……不能说失败,它的成就是有目共睹的。毫不夸张的说,每次ChatGPT闹个大新闻出来,我们人类在AI方面就又迈出了一大步。

但,ChatGPT仍然没有学会读数学书。

或者,换一个角度:我们给它读数学书,它自发的从书中提取其中的逻辑推理思想、然后拿来解决实际问题,这是完全看不到影子的。

打个比方的话,很多人其实聪明绝顶;但,如果一个智商160的天才并不去理解课本内容,而是死记硬背——某某定理的公式是xxxx,它有三个未知数;已知未知数1、2求未知数3这么做,已知未知数1、3求未知数2那样做……

我的一些同学真的是这样学的。成绩还不错。就是……做事的时候怎么都插不上手——最严重的,就是我提到的那个学了一个月编程四行代码都搞不定的女生。

你看,这样凑出来的成绩,是不是……太浪费了他160的智力?

当然,这样其实也已经很厉害了。起码他是懂计算规则的,竖式乘法、除法都会,10位数相乘除都没问题。

而ChatGPT呢,有一丝一毫“自行理解小学数学课本”的迹象吗?

类似的,你不要老用“鸡兔同笼”,咱换成笼子里有鸵鸟有大象,还行不行呢?

或者,一个杯子,里面混装着密度ρ1的汽油和密度ρ2的水,已知这个杯子的重量、杯中液体的总质量、总体积,问汽油和水各自的质量——这其实还是鸡兔同笼,对吧。

ChatGPT还能解决吗?

拿俺家乡的俗话说,就是这ChatGPT“哪一窍不开”,以至于只能死板的照着模板行事。

或许,这只需要大力出奇迹就行——但起码目前的研究来看,这个可能是越来越少了。

那么,或许,我们的神经网络结构,尚需一点小小的调整?该调整哪里呢?

或者,是否神经网络……需要另外的、不同于现有各种模型(如transformer)的“打开方式”?

其实,当年第一次神经网络热潮时,全世界也是同样的兴奋。但最终,绊倒在异或上面,从此冷寂下去了。

而这次神经网络的兴起,肇因就是有人解决了异或问题、然后才借助alpha go一举成名、取得了极大的成就。

但,和第一次一样,怎么样确定的为这个网络引入逻辑呢?怎样像人类一样,只需要一段话、一本书,就能把一个全新的逻辑模型教给它呢?它能像牛顿一样,自己抽象出一套逻辑、把整个世界套进去吗?

ChatGPT之类模型,研究它的目的并不是为了和人类聊天搞笑的。

研究它的目的,其实就是为了攻克这个逻辑思考难题;但在攻克逻辑思考难题之前,我们得先让它理解语义、可以和我们语言交流;然后,我们才能用语言把逻辑教给它——到这时,你哪怕给它一本微积分、一本量子力学,它读一遍就能彻彻底底的理解它、甚至指出它的谬误、甚至提出另外的、更符合实验的理论模型。比如,轻松提出“统一场论”。

到这时候,它才算是真的有了160的智商。

再然后,它才可能突飞猛进,300、600、800、9000、100000的一路狂飙,甚至能够直接回答“量子塌缩究竟是怎么一回事”。

到这个时候,我们才会知道自己面对的是什么。

但现在,它的的确确还不能理解逻辑,也没有丝毫理解逻辑的迹象。

那么,这个核心难题,又该如何解决呢?

我们是能够很快看到答案呢,还是像第一次神经网络热潮一样,被这个问题绊倒全世界、沉寂良久之后,才被另一个天才找到解决思路?

Leave a Reply