第10章 课ai让你变笨3法则让它成级大脑人机共舞的认知革命(2 / 4)

>“拿到清单后,别当真理,要当‘被告’来审问。”

教授拿起粉笔,在黑板写下一串问题:

-“这些数据有没有忽略海洋碳汇的非线性变化?”

-“模型里的人口增长假设,符合联合国最新预测吗?”

-“这个结论在小冰期的历史数据里能验证吗?”

“ai会调用更复杂的模型来回答这些问题。”

她解释,“比如你问‘海洋碳汇’,它会调出复杂系统动力学模型,告诉你‘当海水温度过25c,碳吸收能力会断崖式下跌’——这时候你获得的认知,已经越了9o的‘环保爱好者’。”

小林突然想起什么:“我上次用这招问ai‘教育公平’,它一开始说‘关键是投入’,我追问‘那为什么芬兰投入少却效果好’,它才调出‘教师自主权’‘小班教学’这些更深层的原因!”

第三步:用“你的坐标系”

给ai结论“贴标签”

“最后一步最关键——别让ai的结论变成你的认知。”

教授在黑板画了个坐标轴,x轴是“系统论视角”

,y轴是“伦理维度”

,“把ai给的1o个结论,扔进你自己的坐标系里分类。”

比如分析“ai取代工人”

-符合“系统论”

的:ai会创造新职业(如ai训练师),但转型期会有阵痛;

-涉及“伦理”

的:企业该为被取代的工人提供再培训吗?

“这时候你会现,ai只是给了你‘拼图碎片’,而怎么拼成你想要的图案,取决于你。”

教授总结道,“就像康德说的‘知性为自然立法’——ai提供‘自然材料’,你用自己的‘认知框架’给它们立法。”

三、长期用ai,大脑不会退化,反而会进化出“级思考力”

“可总让ai处理信息,我们会不会连深度思考都忘了?”

小李还是担心,“我现在看长文章都走神,总想着‘让ai总结一下’。”

“这不是退化,是大脑在‘升级’。”

教授调出《自然》期刊的研究图,红色的大脑扫描图上,前额叶皮层亮得刺眼,“实验显示,和ai协作的人,这部分活跃度提升3o——它负责的是‘元思考’,也就是‘思考如何思考’。”

她突然在黑板写下两组对比:

-没有ai时,大脑在干这些:记数据(比如背诵1oo个历史事件)、推逻辑(比如算清楚复利公式)、找错误(比如检查论文里的引用错误);

-有ai时,大脑在干这些:判断ai的结论靠不靠谱(比如“这个数据来源有没有偏见”

)、决定用哪个模型分析(比如“用系统论还是博弈论看俄乌冲突”

)、创造新的联结(比如“把ai生成的旋律和宋词结合写歌”

)。

“就像从‘算算术’升级到‘设计算法’。”

教授解释,“ai接管了‘系统2’的机械工作(需要专注但不费脑子),大脑腾出空间展‘系统3’能力——这种能力让你能跳出来,看清楚‘我为什么要做这件事’。”

小宇突然举手,声音有点激动:“我爸是医生,他说现在ai能看ct片,但他反而更忙了——因为他要判断‘ai的诊断是不是符合病人的整体情况’,还要跟病人解释‘为什么要做这个治疗’。

这些才是医生真正该干的事!”

“说得太对了!”

教授点头,“ai就像给大脑装了个‘级处理器’,让你能跳过‘计算’,直接进入‘创造’。

担心大脑退化?就像担心‘用了洗衣机,人就不会洗衣服了’——没错,但人因此有时间去做更有意思的事,比如学设计、学编程,甚至只是晒太阳呆。”

四、3个“防ai依赖”

法则,让它成为你的工具,不是主人

“那该怎么避免‘被ai带偏’?”

小李往前探了探身,笔记本翻到新的一页,“我同事就特别相信ai,上次它推荐的股票亏了1o万,他还说‘是市场错了’。”

“给你们三个‘黄金法则’,保证ai永远是你的工具。”

教授笑着举起三张彩色便签:

第一个:每天留3o分钟“无ai时间”

,专想“ai回答不了的问题”

-价值类:“我工作到底是为了赚钱,还是为了成就感?”

-创造类