Paul Rust / Nina Vasan
4 minutes
图片来源:Beth Goody
ChatGPT宕机了,一时间,你六神无主。你呆呆凝视着空白文档。报告得在两小时内交稿,但你一想到要自己动笔,便感到压力山大。那些一度可以自动启动的分析能力都去哪儿了?无论是拆解问题、整理思路,还是寻找恰当的措辞,现在似乎都变得无比困难。思考什么时候变成了这么难的事情?
随着生成式人工智能(AI)重塑我们的工作、学习和思考方式,这种离开技术拐杖就走不了路的时刻变得越来越常见。在我们的实验室,研究人员已经花费了十年时间来治疗患者,研究技术如何塑造人类思维,并推动心理健康和幸福原则融入AI及社交媒体平台。在生成式AI以前所未有的速度进入职场和校园之际,我们观察到一个令人不安的现象:AI正悄然侵蚀我们的认知能力。
AI技术具有强大的诱惑力。如我们的同事、哈勒姆医院(Harlem Hospital)和哥伦比亚大学(Columbia University)精神病学家达尔雅·乔尔杰维奇(Darja Djordjevic)所言:“这是一台随时待命、热情无限、似乎无所不能的机器。它能够创造强大的反馈环。你不需要经历从零开始的不适,短短几秒钟就能获得奖赏。”
难怪我们喜欢规避困难的大脑渴望走这些捷径。人类一直借助技术来实现认知卸载——运用外部工具来减轻脑力负担。我们记笔记以帮助记忆,用计算器进行运算,并依靠GPS来导航。
然而,以往的技术仅影响一项项特定的能力,生成式AI工具的影响却是全方位的。这些工具的应用范围极其广泛,执行起来高度自主,因此,当我们启动这些工具时,大脑便会进入事实上的休眠状态。
风险正源于此。这种便利性会提升短期生产力,同时也会加速长期的认知衰退,所影响的领域可能比之前任何技术都要多。我们从心理学、病患护理、航空研究和行为科学领域汲取洞见,建议培养四种促进与ChatGPT更审慎互动的习惯——使这种互动强化而非削弱我们的认知能力。
1. 先动手起草,后用提示词
我们的认知能力就像肌肉一样用进退废。将整个任务卸载给AI,可能会削弱我们的解决问题、创造性思考和批判性推理等认知能力。
近期一项针对近1,000名学生的研究揭示出这种令人不安的现象。使用ChatGPT解数学题的学生在练习阶段成绩领先同学48%。但在无法使用AI的测试中,他们的成绩却较练习阶段无AI辅助的同学低17%。短期收益掩盖了长期损失。
这种模式并不仅限于课堂。研究表明,在航空领域,过度依赖自动驾驶会削弱飞行员的手动飞行技能。因此,美国联邦航空管理局(Federal Aviation Administration)鼓励飞行员在部分航段手动驾驶,以保持熟练度。
长期以来,心理学家一直强调“成功体验”——通过艰苦奋斗攻克难题——的力量,将其作为预测自我效能(我们对自身能力的内在信念)的最强大指标。当ChatGPT替我们跨越障碍时,成功体验便根本无法形成;随着时间的推移,这种能力逐渐消退,自信心不断减弱,依赖性日益加深。
要保持敏锐的认知能力,不妨在打开聊天窗口之前先列出思路。深入思考问题,写下你的想法;列出要点即可。然后让模型展开阐述或润色。这种初始的手动努力或许就像在疏于锻炼好几个月之后重返健身房,但有意识的练习既能维持技能水平,又能守护信心。
2. 把AI当成导师
你有没有注意到,向Perplexity或ChatGPT询问答案之后,你可以看着屏幕流畅地阐述概念,但在一小时之后,记忆变得模糊起来,向同事解释时变得支支吾吾?
如果我们直接向AI索取答案,我们的参与度便会降低——记忆与理解随之受损。麻省理工学院(MIT)一项初步研究发现,使用ChatGPT撰写论文的人更不容易回忆起自己的论文。该结果印证了“谷歌效应”,即便捷的信息检索会影响内在记忆的留存;同样,研究表明使用GPS会减弱空间记忆力。
但AI带来的风险不仅限于孤立的事实:我们可能丧失对完整概念和思想的把握,因为只要轻轻点击一下就能得到解释。
一种可能的解决方案是:将聊天机器人变成苏格拉底式的导师。不要指示机器人“给我答案”,而要尝试让机器人“引导我逐步拆解问题,以便让我独立解决”。请机器人分步骤来解释。任务完成后,不妨关闭窗口,用自己的语言重新解释概念,以检验记忆效果。
一项针对化学专业学生的研究显示,经改良的ChatGPT模型(该模型不直接提供解决方案,而是仅仅逐步给出提示)比默认模型更有助于增进参与度和学习成效。只要作出小小的调整,将以结果为导向的提示改为以过程为导向的提示,就能培养持久的理解力。
3. 暂停和检查表
你会经常机械地覆制AI生成的结果,却在同事指出那些不知为何从你眼皮底下溜走的明显错误时懊恼不已吗?
高度依赖AI,不仅会导致技能退化,而且会损害判断力并滋生偏见。瑞士商学院(Swiss Business School)一项针对666名参与者的研究和微软(Microsoft)今年一项对319名知识工作者的调查均发现,高度依赖AI与批判性思维能力下降呈正相关。
依赖AI,会使我们站在“自动化偏见”面前,让我们盲目接受机器的判断并继承其盲点:在一项行为科学实验中,志愿者只因AI警告他们不要信任人类伙伴而丧失了获得更高现金奖励的机会,尽管已有证据表明,与人类伙伴合作能够取得回报。
风险远不止于单次的决策失误;如果我们不能批判性地审视AI的输出,就有可能内化机器的固有偏见。在一项实验中,参与者观看了AI生成的“财务经理”图片。尽管在现实生活中,美国只有不到45%的财务经理为男性(白人男性就更少了),却有85%的AI图片将财务经理呈现为白人男性形象。令人警觉的是,参与者观看了AI图像后,也更倾向于将白人男性身份与财务经理职位相关联。
为了克服这种偏见,可以运用“认知强制”工具(这是从医学和航空领域借鉴的方法),将思维方式从依靠直觉的快速处理转变为缓慢而审慎的分析。医生利用“诊断暂停”来复核推理过程;飞行员起飞之前,会在脑子里过一下检查表。不妨运用相同的方法:当AI给出答案时,暂停一下。将要点大声复述出来或者写下来。然后在脑子里过一下检查表:答案能否得到验证?是否遗漏了某些角度?是否存在偏见?这类元认知提示既能捕捉错误,又能激发创造力和批判性思维。
研究显示,元认知能力较强的工作者在使用ChatGPT时会更有创造力。此外,一项初步研究表明,如果引导学生在使用生成式AI检索时自问一些元认知问题(比如“这一回答在多大程度上符合你的预期?”“回答中是否有你无法完全理解的内容?”),学生会表现出更高的批判性思维水平。
4. 尝试AI禁用期
维持思维能力的最直接途径是将某些时段设定为“AI禁用”区。可以是1小时、1天,甚至整个项目期。要避免依赖,确保维持敏锐的认知能力,亲力亲为是最可靠的方式。
生成式AI延续着无可阻挡的崛起势头,它迫使我们从体制层面和个体层面重新审视人类的能力本身。
在企业环境中,AI引发了关于人才和价值创造的疑问。那些重金投资AI生产力工具的企业可能在无意中削弱员工的长期能力。
教育机构面临更加棘手的挑战:如果彻底禁用生成式AI,可能使学生在AI无处不在的世界中沦为数字文盲,但无限制的使用又可能削弱教育旨在培养的思维能力。这种挑战要求我们建立精细化、基于实证的框架,引导学生在利用AI的同时持续锻炼关键技能。
当然,以上论述绝不是主张将生成式AI束之高阁。恐怕没有什么人愿意用纸质百科全书替代维基百科,或者用算盘取代Excel。挑战在于如何培养人有意识地与技术建立关系——既要利用技术的优势,又不能让技术掏空我们的能力。
生成式AI可以成为伙伴、缪斯和加速器。但如果缺乏有意设定的边界,这个无处不在的助手就不再仅仅是帮我们写写东西而已,更会成为真正的作者,而人类将沦为只会点击“发送”按钮的机器。
本文作者保罗·鲁斯特(Paul Rust)是斯坦福大学“头脑风暴”心理健康创新实验室(Brainstorm: The Stanford Lab for Mental Health Innovation)研究员,同时在德国维滕/赫德克大学(University Witten/Herdecke)攻读理论医学博士学位;妮娜·瓦桑(Nina Vasan)是斯坦福大学“头脑风暴”实验室创始人兼主任、精神科诊所Silicon Valley Executive Psychiatry首席医疗官。可通过以下邮箱与他们联系:[email protected]。
频道推荐:经济学人中文版