Joint Effect, Joint Power
星期二 二月 24th 2026

JM观察|黑盒AI不需要对自己的思考负责,风险因此转嫁给了整个社会

【专栏】| Conlumists>陈娅杂谈

赞助稿酬

独立媒体人(Jointing.Media) 陈娅,武汉, 2026-02-22

“黑盒”是对一类AI系统(尤其是深度学习模型)的形象比喻。这类模型拥有亿万级参数,通过海量数据训练而成,其内部决策逻辑复杂到连开发者也难以解释。我们投喂数据,它吐出答案,但中间的推理路径完全隐没在层叠的数学运算中。

哈萨比斯的DeepMind正是“黑盒”的典型。它曾在谷歌内部被视为一个只进不出的“黑盒”:十年烧掉近百亿美元,几乎不推出外部产品,一心追求“诺奖级”突破。2024年,它果真捧回了诺贝尔奖,但同时也将“黑盒”模式推向了极致——其最新药物发现引擎IsoDDE完全闭源,性能是AlphaFold3的两倍,却对学术界彻底保密,被称为“AlphaFold 4”。

无处不在的“黑盒”

IsoDDE并非孤例。在无数关键领域,黑盒AI早已是幕后操盘手。

自动驾驶:当车辆做出“幽灵刹车”或在事故瞬间选择撞击对象时,我们无法追问它的“伦理观”。是传感器误判?是算法偏见?无从得知,也无法追责。

金融与司法:信贷模型拒绝贷款,却拒绝透露原因;量刑辅助系统给出刑期建议,却隐藏权重逻辑。不透明的决策可能固化偏见,侵蚀公平。

医疗诊断:AI发现早期病变,医生只能盲目信任或否决。若手术机器人因“黑盒”故障,责任归属将成为无解难题。

网络安全:AI拦截了某个攻击,但安全团队无法理解逻辑,就无法修补根本漏洞,导致下次攻击依然无力防御 。

大语言模型:ChatGPT等模型常表现出“动机性推理”——先决定答案,再编造看似合理的解释。它们像能写出正确答案却藏起草稿纸的天才学生,令人不安。

商业API:部分API出于商业保护,只返回最终结果而隐藏推理过程。开发者在关键业务中若遇到错误输出,根本无法调试或追责 。

这些黑盒共享同一个悖论:能力越强,权力越大,越不需要对自己的思考负责。风险因此转嫁给了整个社会。

闭源的代价:以IsoDDE为例剖析

IsoDDE的闭源选择,表面是商业护城河(30亿美元药企合作、17条自研管线),实则暴露了黑盒AI的深层风险。

药物研发关乎人命,监管机构需要透明可验证的过程。一个无法解释的“黑盒”模型,如何通过FDA审查?

IsoDDE声称发现隐藏15年的药物位点,但技术报告不披露细节。若其存在系统性偏差,整个学术界都无力纠错。

顶尖工具被锁进少数公司保险柜,全球科研生态将失去源头创新。AlphaFold曾服务超300万研究者,而IsoDDE只服务于商业利益。

Isomorphic Labs既授权技术又自研管线,算法是否会优先推荐商业价值高的靶点?不透明的利益导向,将动摇药物研发的客观公正。

打开黑盒:AI核磁共振

2026年,《麻省理工科技评论》将“机制可解释性”列为十大突破技术,称其为“AI核磁共振”——一套逆向拆解AI大脑的工具包。

像生物学家一样解剖AI。研究人员使用稀疏自编码器从神经元活动中提取“概念”(Anthropic已从Claude中提取3400万个概念,从“金门大桥”到抽象编程思想),再通过因果干预验证功能,追踪信息通路。主要玩家有:

Anthropic:用电路追踪技术评估Claude Sonnet 4.5的安全风险,在部署前识别并抑制不良行为。

Google DeepMind:开源Gemma Scope 2工具包,覆盖从2.7亿到270亿参数的Gemma 3模型。

OpenAI:开发“AI测谎仪”,通过分析内部表征判断模型是否在说谎。

这项技术正在走出实验室,带来实实在在的价值。日本乐天用基于可解释性的系统检测隐私信息,成本比GPT-5便宜500倍,准确率更高。未来,可解释性将成AI合规的标配,帮助开发者调试模型、验证安全。

尽管前景光明,但它目前仍面临巨大挑战。主流模型有数十亿参数,潜在电路达数亿条,逐一验证的时间与算力成本极高;理解局部组件,不等于理解系统整体涌现出的智能;若用思维链监控作为训练信号,AI可能学会刻意规避监控,反而隐藏真实意图。

黑盒AI既是技术巅峰,也是信任悬崖。哈萨比斯的“黑盒”为他赢得了诺贝尔奖和数十亿合作,却也筑起了高墙,让全球科学家望墙兴叹。机制可解释性技术为这堵墙凿开了一扇窗——虽不足以完全透明,但至少让我们窥见内部的零件结构,并在关键节点上判断它是否在“撒谎”。

未来,AI的发展必须在商业利益与公共安全间找到平衡。监管需推动可解释性标准,企业需承担透明责任,而像机制可解释性这样的技术,将成为人类驾驭超级智能的必备罗盘。毕竟,当AI的决策足以影响生命与公平,我们不能只满足于“它做到了”,而必须追问:“它为什么这样做?”

黑盒可以暂时不打开,但我们必须拥有随时打开它的能力。这,或许是AI时代最根本的安全底线。

EN

编辑:Wind

延伸阅读:

数据被“投毒”,普通人如何建立防护

战略三部曲之二|量子战略如何重构行业增长逻辑

JM观察|算法即权利,权利应被关进笼子里

从微软的实践,看组织如何捍卫数字主权

媒体寡头时代:全球超级富豪如何重塑信息与权力版图

最应普及的AI使用技巧:左右互搏

JM观察|身处算法时代,每个人应提高信息素养

眼球经济论

克隆数字人、信息安全与隐私保护