当前位置:首页> AI教程> ChatGPT对逻辑思维训练的影响

ChatGPT对逻辑思维训练的影响

释放双眼,带上耳机,听听看~!
探讨ChatGPT在逻辑思维训练中的影响和应用

公众号|沐洒(ID:musama2018)关注我 带你学点有用的

全文一共2443字,读完预计需要5分钟

记得第一次听说ChatGPT是在去年底,看到新闻的时候被它的成熟度惊掉了下巴,但国内一开始并没有掀起很大范围的讨论,只不过是IT圈内人传颂和把玩罢了。

到了春节收假的时候,情况突然变得不太一样了,一夜之间全世界,全领域,全年龄的人都在讨论ChatGPT,连续霸榜各大平台头版头条长达一个月之久。

金融市场也在狂欢,人工智能全产业链的股票全都涨疯了,疯到完全无视美元指数的强硬上涨。

各大公司纷纷抢着宣布自己早已在布局相关产业,都想蹭一波热度提提股价,又或许它们只是怕自己落后丢脸而已。

总之,过去的一个月,地球沸腾了,因为ChatGPT沸腾了,因为AIGC沸腾了。

前阵子我在公司内网的学堂里听了一门课,是陈铭老师的分享(没错,奇葩说那个站在宇宙中心呼唤爱的陈铭)。

ChatGPT对逻辑思维训练的影响

他在课上提到一个哲学观点:

语言的意义是从可能错的部分流淌出来的

什么意思?

让我们来想一句话,这句话无论放在什么语境,什么时间,什么条件下,都不会错,你能想到哪句话?给你三秒钟思考。

3,2,1!

好,我来揭晓:

几乎所有的话都必然存在错误,但这句话不会错:人是人

为什么?因为这句话毫无意义。不输出有效信息,也不产生价值交换

但如果你说的是:我是人,这句话就有了意义,因为你表达了一个观点,你认为你是一个人,这是有效表达,是有信息量的。

然而,有意义的表达一定是存在出错的可能性的:

你为什么能确定你是人呢?

你确定你知道人是什么吗?

你确定你知道你是什么吗?

你怎么能确定自己不是一个泡在福尔马林里的“缸中大脑”呢?

是的,你很难证明这一切,就好像庄周和蝴蝶一样,到底是庄周梦到了蝴蝶,还是蝴蝶梦到了庄周?

而“人是人”,这句话左右两边恒等,虽然正确,但毫无意义。粗鄙一点说,这就是一句彻头彻尾的废话,正确的废话。

我们不是在聊ChatGPT吗?我扯这些做什么?

那是因为,如今火热的ChatGPT在某些场景下的回答,就是给我这种感觉:

一本正经的胡说八道,满屏幕正确的废话

我自己把玩过ChatGPT,也看过网上无数人把玩的案例,其中有一些案例比较经典,完美印证了上面的看法,比如这个:

ChatGPT对逻辑思维训练的影响

这是ChatGPT在模仿有名的胡锡进文体,众所周知,老胡的大多数文字都是口水话,突出一个模棱两可,左右互搏。

ChatGPT在回答很多主观问题的时候,也会有类似遮遮掩掩,看似正确实则废话的表现。

比如我问它,今天的恒生科技指数为什么暴跌,它会一本正经的给我铺垫一下什么是恒生科技,什么是指数,最后给我个结论:股市有涨有跌,存在一定的波动性……

这不是句废话吗?我能从中拿到什么有效信息?

类似的例子很多,大家可以自己去把玩ChatGPT,也可以上网搜搜网友的调戏案例,你会发现,震惊全世界的ChatGPT,在某些场景下,有时候就像个傻子一样。

这是我一个月前发的朋友圈:

ChatGPT对逻辑思维训练的影响

配图是我当时看到的一篇文章里的一段话,是这样的:

ChatGPT对逻辑思维训练的影响

为什么ChatGPT在小孩子的测试面前突然失效了?

因为小孩的思维模型,尚未经过专业的逻辑训练,他们的想法天马行空,脑子装着十万个为什么,而且这十万个为什么你甚至无法在任何强大的搜索引擎里找到合适的答案。

而成年人,经过漫长的逻辑思维训练,和社会教条的规训,思维模型早已成定势,越聪明的人越具备极强的理性推导能力,那么,这也恰好就是ChatGPT最擅长的能力:逻辑推演。

ChatGPT的背后是超级强大的算力,超级丰富的语料库,和超级严谨的逻辑推演能力。

于是,在一场场与AI的正面逻辑硬碰硬中,人类屡屡败下阵来。

前不久,和大名鼎鼎的“AlphaGo”同级别的AI围棋程序“KataGo”,宣布被一个业余棋手给打败了。

ChatGPT对逻辑思维训练的影响

要知道,作为AI围棋的代表,AlphaGo曾经打遍天下无敌手,对战人类顶级围棋天才柯洁(8次世界冠军)的时候,更是3场全胜。

ChatGPT对逻辑思维训练的影响

如此猖狂的AI围棋程序,竟然被一个业余棋手打败了?为什么?是因为KataGo比AlphaGo弱?还是人类棋艺又进步了?都不是。

外行看热闹,内行看门道。

之前和AI对战的都是职业选手,他们在下棋时都在用受过多年训练的定势思维推演棋局,而这位业余选手,用的却是“旁门左道”,通过在各种违背常理的地方落子,躲避掉AI程序的预判,并最终获胜。

说到底,AI程序,不管是AlphaGo,还是ChatGPT,都是依附于人类过往的数据训练出来的,我们正常的成年人,也都是从同样的数据环境里训练出来的,不同的是,任何一个人类个体成长所用的数据量,远远少于AI训练用的数据量(仅限逻辑训练层面,非逻辑领域不一定),所以人类在面对AI的时候必然是一败涂地。

这也是为什么ChatGPT面世之后,全世界人类都在散播着失业焦虑。在逻辑理性领域,人类毫无胜算

人类的命运就这么绝望了吗?显然不是。

在聊AI领域话题的时候,我经常说一句话:连三体人都猜不透人类的脑子里在想什么,AI怎么可能猜透?

人之所以为人,其思想系统的复杂性远超过任何一个已知的实体(包括生物和非生物)。你会发现在非常多的主观题面前,ChatGPT的表现并不好,因为它猜不透你的心。

为了让ChatGPT能更好的理解你的意思,人们通常会用一大段极其精准的词汇,用严谨的语法拼接在一起,这样AI程序就能更加有效的进行词法语法分析。

可是你忘记了,当你在用极其精确的词汇描述问题的时候,你已经不是一个人类了。或者说,这已经不是一个正常人的交流方式了。

语言的意义是从可能错的部分流淌出来的

当语言过于追求精准,正确的时候,此次表达本身就已经丢失了信息,或者至少损失了可讨论的空间。

更何况,AIGC(AI Generated Content)是有宿命,有边界的

任何的数据,都会在进行模型训练之前,设置一段人工审核流程,为的是确保输入的数据不违背伦理,道德,政策等人类红线。

输出内容的时候亦是如此。

极致理性的机器于是便戴上了桎梏。它可以不追求卓越,不追求创新,不追求颠覆,但必须保证不越轨,不出错。

阉割的理性,何以战胜人类智慧的光芒?

“虫子从来就没有被真正战胜过”,这是《三体》里很经典的一句话,“虫子”指人类。

AI再强大,也只是人类手里的工具(当然不可否认这个工具确实好用)。

它可以GC(Generate Content 生成内容)出全世界,但只有人类,才能创造意义

全文完。

码字不易,如果你还想继续看我写的东西,就关注我吧(记得加星标🌟哦),顺便给个赞👍或点一下在看,你的支持是我继续写下去的动力。

公众号|沐洒(ID:musama2018)

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI教程

使用ChatGPT和Node.js自动查找文章错误

2023-12-21 10:06:14

AI教程

如何使用训练数据训练一个线性回归模型

2023-12-21 10:11:14

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索