前天,和老丈人一起吃饭的时候聊到马上快冬至了,可以包饺子了,老爷子突然来了一句,冬至不吃饺子,我就问他这是从哪得到的信息?他说抖音上看到的。
选择性相信
我发现有些人对于信任的选择很奇怪,虽然我没学过心理学,但是我觉得这一定是一种心里现象,这种人会相信一些很陌生的渠道来源的信息,而对身边的人充满了怀疑。对此,我询问了AI,得到了几个答案:确认偏误、达克效应、熟悉性偏见、信息茧房等心理学解释,感觉很多人都有会出现这几种奇怪的问题。
如今,信息的获取可谓是大爆炸,好的坏的有用的没用的,都会通过各种方式涌进你的大脑。有的时候觉得很无奈,就像一个计算机处理不过来信息了,随时有种要卡死的感觉。 现在,在互联网上获取信息是很方便,但是到手的信息大部分都是被加工过几手甚至几百手你都无从知道,你只能去怀疑,然后再去花时间去证明去找其他的答案来对比。 不知道这是在节约时间,还是在浪费时间,不知道是在解决问题,还是在制造问题。
失去了很多
以前没有AI的时候,写代码会自己选择思考,调试,最终达成一个自己可以理解的过程。现在提示词喂给AI,获取一堆看似很严谨的代码,但是有的时候真的看不懂AI返回的上百行代码,还得花时间去理清思路,跟上AI的节奏。如果AI正确了,那么还算有所收获,如果AI给出的答案就是在跟你玩,或是给出了一个错误的答案,你花了大把的时间进行了调试才发现这是个坑,你肯定会很失望。
所以,我现在尽可能的让AI只写一个方法,至于大篇幅的构建还是算了,不够浪费时间的。
AI的泡沫终会被戳穿
AI真的那么厉害吗?我并不觉得,AI的错误和漏洞百出,写的代码虽然比我强,但是也是问题多多修改起来很麻烦。AI的能力是人类的上限而已,虽然计算能力很强,但是大模型需要投喂,人类不突破,AI能突破?扯得有点远了,AI只是工具,暂时还不能替人类决策,不然,真的就没人类什么事了。