当你写这篇文章时, 讽刺感会更强烈
你有没有遇到过那种新闻标题, 仿佛在点名批评你?我就是这样, 在刷信息流时看到: “重度LLM用户大脑连接性下降47% 😳”
而我, 作为一名全栈生成式AI工程师, 工作时间一半在设计提示词, 另一半在批判AI输出。现在却在读一篇说我的大脑可能正在变成浆糊的文章。更讽刺的是?我还用ChatGPT来帮我写关于使用ChatGPT有害的回应。
给讽刺之神献上厨师之吻。
但在你关掉这个标签页, 准备去做“脑力俯卧撑”之前, 让我来说说为什么这份MIT研究——虽然提出了重要问题——却可能只见树木不见森林。
先看看这项研究到底发现了什么
MIT媒体实验室的这项研究, 由Nataliya Kosmyna领导, 追踪了大脑32个区域的活动, 发现依赖ChatGPT写作文的参与者表现出:
- 大脑参与度最低
- 在神经、语言和行为层面表现不佳
- 行为越来越被动, “到最后经常只是复制粘贴AI输出”
老师们形容他们的作文“毫无灵魂”, 缺乏“原创性、好奇心和批判性思维”。
听起来很可怕, 对吧?但这时我的“蜘蛛感应”开始发作了。
Yann LeCun的技术现实检验
在我们都把笔记本扔进大海之前, 先搞清楚这些工具到底是什么。AI研究员Yann LeCun说得很到位:
“LLM是一个一个地生成token。每生成一个token都需要固定的计算量, 这显然是系统1——是反应式的, 对吧?没有推理……”
翻译一下: 大语言模型只是模式匹配机器, 不是思考机器。它们擅长根据见过的模式快速生成看似合理的文本, 但并没有我们人类认知中那种深度、反思性的思考。
苹果的研究也支持这一点, 指出虽然LLM能处理部分逻辑推理, 但“在复杂度超过某个阈值后, 无法发展出可泛化的推理能力”。
换句话说: 它们在某些任务上很厉害, 在另一些任务上很糟糕。问题不是用不用——而是_怎么用_。
我的“重度LLM用户”一天 (剧透: 和你想的不一样)
让我给你描绘一下现实中“重度LLM用户”的一天:
50%时间在写提示词: 这不是机械敲字, 而是要足够理解问题, 才能清晰表达。要有策略地拆解复杂任务。要根据输出不断迭代优化。
剩下50%: 阅读AI生成的代码和内容。理解它。批判它。优化它。没错——有时还会被AI给出的新思路惊艳到。
关键点在于: 你绝不会直接用AI生成的内容。
至少, 绝不应该。每一条输出都要经过人的判断。有时会发现很棒的方案, 有时会被AI的胡言乱语逗笑。大多数时候, 介于两者之间。
古人智慧, 现代问题
自从这场争论开始, 我脑海里一直回响着一句中国古语:
学而不思则罔, 思而不学则殆
“只学习不思考会迷失, 只思考不学习会落后。”
(没错, 我坚持用自己的翻译。就像我告诉ChatGPT的——我比AI更懂孔子的思维和文化语境。点到为止。)
这不是新难题。人类一直在平衡吸收信息和发展智慧之间挣扎。AI只是把“学习”那一端推到了极致。
想知道人类记录过的任何知识?随便问。但至于什么是优雅的代码、如何有意义地生活、什么是好文章——这些依然需要人的判断。
“计算器辩护”及其真正意义
这里可能会失去一部分读者, 但请耐心听我说。
有了计算器, 脑算复杂数学就没意义了。你也不再背电话号码。数字日历比大脑更好地管理你的日程。
我们“认知外包”已经几十年了。大脑容量有限——我们一直在淘汰过时技能, 为当下重要的能力腾空间。
不信?来个思维实验:
把你赤身裸体扔到荒野。你能:
- 用可辨认的材料搭建庇护所吗?
- 用认识的植物制药吗?
- 用……任何东西做衣服吗?
你的冰河时代祖先会嘲笑你的“无能”。但你现在却能以他们无法想象的方式为社会做出贡献。
衡量标准不是我们大脑单打独斗能做什么——而是我们的认知能力是否适应了我们共同构建的世界。
“AI依赖”并不是你想象中的洪水猛兽
让我们直面这个大象级问题: 所谓“AI依赖”未必是灾难。
没人说你“依赖衣服”——尽管人类曾经裸奔几千年。我们现在都“依赖手机”, 哪怕曾经背过无数号码。这些依赖之所以变成常态, 是因为它们真的让生活变好了。
想想看——你会说某人“太依赖”:
- 眼镜来看清楚?
- 汽车来出行?
- 抗生素来避免感染致死?
AI依赖只是我们用工具进化的下一个阶段。达尔文说的不是“最强者生存”或“最聪明者生存”, 而是“最适者生存”。适者, 就是能适应环境的人。
关于“无灵魂”AI写作的真相
在我们接受AI写作“天生无灵魂”之前, 先说个不太舒服的事实: 现在的AI检测工具极其不靠谱。它们经常把人类写作误判为AI生成, 尤其对非母语英语者更不友好。
所以当老师们说能看出“无灵魂”的AI作文时, 他们到底在检测什么?
问题不是AI没有灵魂 (不管那是什么意思) 。而是AI不了解_你_——你的风格、价值观、标准。这才让内容显得千篇一律。
但关键区别在于:
- AI生成内容: 复制粘贴不审核 = 无灵魂
- AI辅助写作: 用AI加速但坚持你的标准 = 完全可以有灵魂
差别只有一个词: 归属感。
AI是你的员工, 不是你的替代品
这个认知彻底改变了我的思路: 把AI当成你要管理的员工, 而不是魔法水晶球。
你把任务分配给员工时, 不会无脑接受他们的产出。你会:
- 设定清晰的期望
- 严格审核他们的工作
- 不合格就退回重做
- 对最终结果负责
那些变成被动“复制粘贴者”的人, 并不是“AI让大脑退化”——而是领导力不足。这不是AI问题, 是质量控制问题。
如果你不愿意在员工的作品上署名, 为什么会接受AI的?
年龄因素 (和你想的不一样)
你可能以为年轻的“数字原住民”更适应AI工具。现实更有趣。
这和年龄无关——而是环境和激励。大学生乐于尝试AI, 是因为环境鼓励不断学习, 一切都新鲜、刺激、理所当然。
但如果你35岁, 已有一套能让你安身立命的技能, 为什么还要学AI?你的环境在暗示: 维持现状, 顾家, 攒钱。
这个模式不是年龄决定的, 而是情境决定的。让一个50岁的人处于必须掌握AI才能生存的环境, 他会学得飞快。让一个20岁的人身处不重视AI的环境, 他也会忽略它。
聪明AI用户的真实画像
经过多年与AI的日常协作, 我总结出这些有效做法:
像领导者而非秘书一样思考
- 在开始前设定质量标准
- 对所有输出保持批判性审查
- 不达标就果断舍弃AI产出
- 对最终结果全权负责
保持你的学习闭环
- 总是理解AI为何给出某种输出
- 测试AI可能遗漏的边界情况
- 培养对AI盲点的直觉
- 不断追问“为什么”, 直到彻底明白
保持核心判断力
- 定期手动完成关键任务, 保持基本功
- 当感觉不对时相信直觉
- 对AI推理模式保持好奇
- 明确哪些认知任务必须自己掌控
没人谈的剧情反转
也许会让你大吃一惊: 我认为重度AI用户其实_更敏锐_了, 而不是更迟钝。
还记得没有AI时学编程吗?花几个小时查最基础的概念, 拼凑Stack Overflow答案, 祈祷自己理解对了。现在呢?即时反馈, 清晰解释, 多种方案对比。
这种加速反馈回路不会让你变笨——只会让你学得更快。但 (重点来了) 前提是你要坚持质量把控。
陷阱在于不理解就用AI代码。今天能跑没问题, 但当你需要调试、扩展或修改时?你的无知就是定时炸弹。
你的大脑与AI: 真正的故事
MIT研究揭示的是: 当人们变成AI输出的被动消费者时, 会发生什么。但这是选择, 不是命运。
我见过最有效的AI用户, 都把这些工具当作高级思维伙伴, 而不是替代大脑。他们在与AI展开丰富对话, 而不是被动接受“石板经文”。
下次用AI时, 留意一下: 你是在被动消费, 还是主动协作?你是在外包思考, 还是增强思考?
因为事实是——我们不仅在适应AI, 更在与AI共同进化。那些能茁壮成长的人, 不是回避AI或完全依赖AI的人, 而是能与AI共舞的人。
改变一切的问题
与其问“AI正在让我们变笨吗?”, 不如问: “我有没有用AI让自己更有能力?”
这两个问题的差别, 可能决定你的认知未来。
所以我给你一个挑战: 下周开始, 不仅记录_什么_任务交给AI, 更要记录_如何_管理这些委托。你是被动接受, 还是主动指挥?
欢迎在评论区分享你的体验。我真心好奇——自从用上AI后, 你有没有发现自己的思维方式发生了变化?你用什么策略保持那种关键的平衡?
最后送你一句换个视角的话: 我们并没有把大脑“丢给”AI, 而是在发现大脑的新用法。问题不是要不要拥抱这场进化, 而是如何有意识地塑造它。
毕竟, 如果达尔文活在今天, 他大概会说: 重要的不是成为房间里最聪明的人, 而是成为最适合我们共同打造这个房间的人。
你, 想打造一个什么样的房间?
