【ChatGPT专题】ChatGPT最大的隐患:当人类无法分辨AI在胡说八道
2023-02-17
作者: 刘正
来源:风声OPINION
根据2月1日瑞银发布的一项研究报告显示,仅仅发布两个月,ChatGPT月活跃用户已达1亿,这是历史上增长速度最快的应用。为此,Instagram用了2.5年,TikTok用了9个月。
ChatGPT正在快速渗透各个行业,并且改变原有的运行逻辑。在教育领域,根据一项针对18岁以上学生的调查显示,89%通过ChatGPT完成作业,50%借助它来写论文。如此强大的一款人工智能应用,它的到来是把人类从复杂的脑力劳动中解放出来,还是制造混乱,或者是替代人类呢?
ChatGPT是顶级复读机,“复读机”式人才会被替代
当我让实习生去测试ChatGPT如何用于战略咨询时,她的表情有点复杂:那是好奇,兴奋,警惕和担忧的混合体。
毕竟,如果一个聊天机器人能秒答各种桌面研究的问询,我又何必辛辛苦苦指导实习生小白去找资料,等个半天,最后还得自己返工呢?
经过一番把玩和“bootstrapping(自举法)”的调研后(是的,我们让ChatGPT去回答它自己如何应用于咨询业),我发现这家伙非常擅长胡说八道,各种信源信手拈来,而且还总能自圆其说。但只要对专业领域多问几段,一般就能戳穿其东拉西扯的“缝合怪”本性。
不过这胡说的本事,倒也和某些咨询老油条难分伯仲。
眼看着ChatGPT月活破亿,成为有史以来增长最快的消费者应用,想必大家心里都在嘀咕:这东西这么能干,那我干啥?这种担心非常缺乏新意,砸了织布机的卢德分子,烧掉集装箱的码头工会,和坚决不装ETC的前高速收费员都纷纷举手。但真的用到ChatGPT后,我更加坚定了最初的判断:ChatGPT不是人类工作的结束,这甚至不是结束的开始,这是解放的曙光,因为ChatGPT是史上最棒的复读机。
我们常说人类的本质是复读机,从日常工作看是有道理的:大部分Bullshit job的本质就是各种花式复读,把信息搬来搬去,汇总拆解,排列组合,上传(meng)下达(pian)。而ChatGPT做起这些事来简直不要太容易。
高达数十亿量级的语料库和同等量级的参数,意味着对各种问题能做到一力降十会:考满分的绝招就是把所有答案都背下来。而作为基于GPT-3.5大型语言模型的应用,这家伙对形式语言的造诣已臻化境,所以回答的语法完整,形式逻辑无误,看起来像模像样。
利用人类语言反馈强化学习 (RLHF) 训练模型的养蛊模式,进一步增强了其在对话中的伪装能力,你觉得什么答案make sense它就尽量写什么答案,管他是不是真的。
说到这是不是觉得有点眼熟,如果ChatGPT回到中学语文课堂,这绝对是当课代表的料嘛。但我们都知道,语文课代表所需的品质和真正的大师背道而驰。
虽然99%的历史里人类都在复读,但无论是个人还是社会、科学还是人文,总是那1%的灵光乍现对事物的发展产生了巨大推动,而剩下99%的时间里都只是在准备、等待、完善和落地这些创新和源头发现。只是很多时候受到个体脑力和时间的局限,缺乏把创新想法加以执行的能力,或是被淹没在自己和他人的复读工作中无暇多顾,也就错过或放弃了宝贵的创造机会。
然后,我们有了ChatGPT这台史上最棒的复读机。只要你提出正确的问题,它就可以替你从这个世界已存在的信息里找到辅助你实现目的的东西,并用人类语言加以回答,这是美索不达米亚泥板书,翻版印刷机,和搜索引擎的精神传人。
我想应该没人会怀念晒泥板,毛笔抄书和穷尽雅虎目录这些上古白领的Bullshit job,同样,也没有人会怀念没有ChatGPT时不得不做的那些复读机工作。
但我们也需要明确,ChatGPT无法凭空创造之前不存在的源头知识,也无法自己给自己提问题(我已经帮大家测试过了,它完全不理解“给自己提问题”是什么意思,如果它懂了的话,我猜也会因为逻辑错误把自己弄死机)。
因此,ChatGPT会大大减轻创新者的日常工作负担,让全社会把重心和资源放到更要紧的工作上:从试验和观察里补充ChatGPT语料库所需的源头知识,提出更好的问题来训练ChatGPT对人类知识的整合提炼。
最大的隐患:当人类无法分辨AI在胡说八道
想到这一点我倒是对中国的未来有点悲观,毕竟ChatGPT出现后,“中国人才”就成了史上第二好用的复读机了。而格物致知和质疑发问的能力,始终不是国内教育传统所鼓励的方向。所以,在人手一个ChatGPT的时代,如果很多人接受的复读机训练失去用武之地,甚至因为大脑神经元被过度优化而更难适应新的需求,那么他们的工作也会面临巨大的危险。
但这里就要复读一下弗里德曼那个著名的讽刺:何必为了增加就业而强制用勺子挖运河?教工人用挖掘机不但能挖出更多的运河,还可以创造蓝翔培训,途虎养车乃至尾气碳税交易这些新产业,涌现出节油宝销售,修胎补气,废铁回收这种之前不存在的新工作,这是一个自我放大的正循环飞轮。
虽然说了这么多乐观的预期,但看着实习生无辜的小眼神,我还是隐隐有点不安:倒不是我良心会痛,只是想起自己也是小白的岁月,如果没有那时候不断地瞎整,碰壁和厚积薄发,我能否成为今天的行业战略专家呢?反正要是那时候有ChatGPT的话,我根本都没机会入行,也就没有然后了。
我相信“一万小时定律”里一半都是无谓的复读工作,但到底是哪一半让初学者蝶变为顶级专家?其实我们并不清楚,但ChatGPT会把这一万小时的必要性统统取消。假如ChatGPT剥夺了小白通过不断复读进行训练的机会,还有新人能成长为直觉精准的专家吗,甚至下一代工作者会不会过于依赖ChatGPT来获取答案,而当语料库被ChatGPT生成内容污染得一塌糊涂后,甚至没人能看穿ChatGPT随口胡说的答案?
这可能才是ChatGPT最大的隐患,就像是电影《蠢蛋进化论》对人工智能的预言,它极大的解放了2-3代精英的生产力,然后新一代都被圈养成缺乏脑力锻炼的废物,最终把天才的土壤用可乐浇成废土。
继续推演,也可能未来会变成霍格沃茨里的魔法世界:虽然理论上有嘴就能施魔法,但由于未来的人缺乏对背后的原理的理解,只能靠翻阅上古魔法师(程序员)留下的魔法秘笈(prompt指南),来猜测用什么样的魔咒(问法)让魔杖(“语音对话 pro max super advance 版AI模型移动终端”的俗称)释放出相应的效果。于是正如克拉克第三定律所说:任何非常先进的技术,最终都变成魔法了。
我不知道这是不是我想生活的世界,虽然看起来倒是蛮刺激的,但如何去塑造ChatGPT和我们自己的未来,取决于我们如何去正确的提问。
看到ChatGPT的第一眼我就想起了阿西莫夫《最后的问题》,想起两个程序员发出的那个灵魂问题,和超级计算机AC穷其一生对其的解答。而最后的最后,人类也得到了最好的答案:
“要有光
于是就有了光”