李升伟 编译
科学带来污染。在其对现象的成功认知过程中,科学使我们能够通过聚焦问题的某些特征来寻找最优解。这种解决方案沿着选定的特征维度集中突破,却将其他标准搁置一旁。这种专注特定属性的解决方案虽然在特定领域最大化效益,但可能产生累积性的负面效应——即对问题其他关联方面的污染。例如,最大化工业生产率可能导致环境危机,而片面追求经济增长可能加剧社会贫困问题。这些污染源于人类通过科学范式(物理或社会经济)认知世界时,对特定领域进行工程化突破的实践。
本质上,这种解决方案具有人工属性。它们仅适用于理想化的问题场景——在那些可以忽略非关键因素的封闭环境中成立。但在现实世界中,这类理想化方案的累积效应可能造成严重负面影响。以现代交通系统为例:其设计专注于缩短出行时间,却忽视了相较自然交通方式所需的超额能耗。尽管单次出行的能耗看似微小,但长期累积却对生态平衡造成破坏,引发气候变化这一污染效应。
诚然,这是对污染问题的抽象简化描述。但由此我们可以追问:人工智能(AI)是否会产生独特的认知污染?它将如何影响人类心智世界?我们能否预防或缓解此类风险?
第一类污染已初现端倪:算法偏见的传播。当AI系统专注于优化核心指标(如候选人筛选或信用卡额度评估)时,公平性等伦理标准被边缘化。这些系统的"伦理效能"——即实现道德行为的能力——往往未被纳入先验设计,导致偏见的固化与放大。
第二类污染表现为认知茧房效应。某些依赖用户画像的推荐系统,通过精准匹配个人兴趣提升用户体验,却在长期将用户禁锢于既有偏好中,形成个性化推荐的文化惯性。这种对认知广度的压制,实质污染了个体的精神世界。
第三类污染来自大语言模型(LLMs)。它们以统计分布为生成标准,在早期阶段甚至缺乏对输出结果的可解释性考量。这些系统虽能模仿推理结果,却未掌握自主推理能力。当智能表象缺乏底层逻辑支撑时,可能助长教条主义思维,削弱辩证思考能力。人类已出现"自动化偏见"倾向,而缺乏可解释性设计的AI系统将进一步推动这种依赖外部权威的浅层思维模式。
更深层的危机在于:AI可能引发"正确思维"对"自由思维"的压制。当人类过度依赖所谓"无争议正确"的系统时,将抑制对替代方案的探索欲望。这种对思维多样性的压制——作者称为"心智领域logo多样性污染"——在AGI时代尤为严峻。LLM架构下的AI系统本质上互为思维克隆体,其经验领域局限于数字信息空间,且运行架构远较人脑简单。这种克隆思维的反馈循环将进一步强化教条主义倾向。
当前AI系统的能耗远超人类大脑发育所需——这暗示其智能本质与人类存在根本差异。作为"人工"智能,其异质性可能成为认知污染的根源:人工智能与自然智能的差异可能对人类心智世界产生毒性反应。
人性化AI 要实现AI的积极潜力同时规避污染,必须推动AI系统的"人性化"转型。这需要从专注优化单一指标的解决方案,转向多维度平衡的系统设计——类似于现代城市规划中对环境与社会因素的综合考量。
全息解决方案(Holistic Solutions)要求AI系统具备认知与伦理双重胜任力。例如,为破解用户兴趣茧房,系统设计需内嵌促进认知多样化的机制。这需要融合模型驱动设计与数据驱动训练的混合范式:既通过显式设计确保道德规范遵循,又通过包含价值权衡的训练数据培养系统寻求"中道"的智慧——如亚里士多德所言的动态平衡能力。
基础层面的范式转换意味着放弃追求完美系统。图灵早已指出:开放环境中的智能系统必然具有容错性。这种不完备性要求我们接受"满意解"而非"最优解"——正如进化系统通过足够好的适应性实现生存。优秀的AI系统应能识别自身局限,在特定情境下呈现决策困境,并提供替代方案的解释分析。这种能力正是可解释AI(XAI)的核心挑战:使解释从被动陈述转变为主动参与决策的过程。当前LLM整合目标导向推理模块的尝试,标志着向此目标的迈进。
柔性逻辑体系 承认智能系统的不完备性,意味着传统形式逻辑的失效。计算机科学赖以建立的绝对逻辑体系,需要被更具柔性的推理框架取代。概率论支撑的生成式AI已体现这一转向,但概率逻辑更适用于低层次感知问题。对于高层认知任务,需要更贴近人类论证推理的规范框架:在论辩逻辑中,合理辩护的连贯性决定推理有效性,结论的确定性取决于对立观点的可信度比较。
神经-符号融合 构建具自然认知特征的AI系统,需要整合子符号与符号计算。神经-符号AI(Neural-Symbolic AI)致力于探索认知推理如何从神经架构中涌现,如同人类心智的运作机制。当前阶段,可先实现神经模块与符号模块的协同:例如用符号推理器为LLM的语言处理提供逻辑形式抽象,或通过包含推理链的训练数据提升系统的解释与压缩能力。
认知临床试验 所有AI利益相关方都认识到系统自洽性的必要。当前美欧立法侧重事后监管测试,但或许应借鉴医药开发的临床试验机制,在部署前进行"认知副作用"筛查。测试重点包括:系统能否清晰阐释其信念基础与推理过程;能否识别自身矛盾(类似人类的认知失调);其结论是否基于连贯合理的论证。
知识整合 基于全息方案的AI是跨学科系统工程。正如21世纪重大挑战之一——在深度专业化背景下实现科学与人文的深度融合。“良善AI”(Good AI)必须追求知识的整体性(consilience),这需要超越学科壁垒的智慧整合。
AI引发的认知污染风险,恰似工业文明带来的环境危机。当有人预言AI将取代人类时,我们更应警惕的是:这种污染是否会导致人类心智朝不可持续的方向演化?面对AI带来的短长期伦理焦虑,所有研究者都应承担起责任,通过前瞻性探索规避可能的认知污染风险。正如苏莱曼(Suleyman)等学者警示的,驾驭AI的真正挑战,在于使其成为扩展而非禁锢人类智慧的工具。
原文链接:https://dl.acm.org/doi/10.1145/3707445