独立媒体人(Jointing.Media)Wind,上海,2026-02-01
一个夸大其词、耸人听闻的标题(劣币)能获得大量点击和转发,而一篇严谨、客观、需要时间阅读的深度报道(良币)却可能因“完播率低”、“停留时间短”而被算法降权。互联网上的“劣币驱逐良币”是一个普遍且深刻的现象,这并非简单的“好东西没人看”,而是一种缺乏制约的新型权力体系的系统性后果。
算法无声,但它已在为亿万人立法。它决定我们看见什么、相信什么、购买什么,甚至与谁相遇。宪法学者会警告我们:任何集中且不受制约的权力都必然走向异化,无论它来自君主、政府,还是代码。
社会学家则揭示得更深刻:这种权力正重新编织社会结构——它放大分歧、固化偏见,将公共话语场域变为情绪化的竞技场,让理性、深度与事实在算法的“优选”逻辑中节节败退。我们面临的挑战本质上是政治性的:如何为数字时代的“利维坦”打造牢笼?
一、算法如何扭曲我们的世界
算法权力之所以危险,在于其运作的隐蔽性与效能的规模性。
社会心理学家与传播学者为我们揭示了其作用机制:算法通过精心设计的“奖励函数”,系统性地利用人类的认知捷径。它发现,愤怒比理性传播更快,简单比复杂更易吸收,确认偏见比颠覆认知更受欢迎。于是,为了最大化“用户参与度”这一核心指标,平台无意中建造了一座巨大的“劣币”生产线。
传播学者进一步指出,这导致了“公共领域的再封建化”。过去由专业编辑守护的公共对话空间,如今被算法逻辑接管。这种逻辑不问真伪,只计算热度;不辨良莠,只优化停留时长。结果便是,严肃新闻被八卦淹没,深度分析被情绪宣泄替代,一场无形的“认知降级”在全社会蔓延。
技术与算法伦理学家则深入技术黑箱内部,指出问题的根源在于目标的极度简化。当复杂的社会价值被压缩为“点击率、留存率、转化率”等几个可量化的商业指标时,算法便不可避免地与人类的长期福祉背道而驰。它如同被设定了错误目标的巨人,力量越大,造成的扭曲越深。
二、为何“关进笼子”是必然选择
面对这种权力,政治哲学家的声音必须被首先聆听。他们提醒我们,“权力导致腐败,绝对权力导致绝对腐败”这一古老箴言,在数字时代并未失效。算法平台行使的,是兼具立法(制定规则)、行政(执行规则)与司法(裁决争议)功能的复合权力。然而,这种权力的诞生未经民主授权,其运行也缺乏基本的透明度与问责制。因此,对其加以制约,是捍卫公民自由与尊严的现代性必需。
商业战略与平台经济学家从另一个角度得出了相同结论。他们指出,放任“劣币驱逐良币”是一种饮鸩止渴的短视行为。尽管劣质内容可能在短期内提升互动数据,但它最终会侵蚀平台的信任根基,导致用户流失、品牌贬值和社会许可的收回。健康、可信、可持续的数字生态,才是平台长期价值的真正来源。因此,负责任地治理算法权力,并非慈善,而是明智的长期投资。
三、构建多层次的“权力牢笼”
将原则转化为实践,需要一场精密的、多兵种协同的社会工程。这不仅需要各领域专家的专精贡献,更依赖于他们视角间的深度协同与巧妙制衡,以应对治理中必然出现的复杂张力。
第一层:价值之笼——重塑算法目标体系
技术与算法伦理学家是这里的总工程师。他们主张,必须将伦理价值“编码”进系统本身。这意味着,算法优化目标必须从单一的“参与度最大化”,转变为包含真实性、多样性、公平性、用户福祉等多元价值的综合体系。
具体而言,可强制推荐系统引入“质量”信号(如信息来源权威性、内容创作投入度),并为高质量但低流量的内容保留一定曝光空间,打破“流量至上”的单一评价维度。
第二层:规则之笼——确立法律红线与平台义务
平台治理与数字经济法专家负责绘制施工蓝图。他们呼吁建立专门的《算法治理法》,其核心作用之一,正是为技术伦理提供的价值框架赋予强制性的法律保障。法律将抽象的伦理原则转化为明确的行为禁令和责任条款,例如:
透明度义务:要求对关键算法进行影响评估并公开摘要。
非歧视义务:严禁基于大数据进行不合理的价格歧视(“大数据杀熟”)或机会剥夺。
审慎注意义务:平台应对其推荐内容导致的显著社会危害(如大规模谣言传播)承担合理责任。
用户权利保障:赋予个人对自动化决策的解释权与申诉权。
在此,一个关键的治理张力浮现出来:法律专家追求的严格、普适的监管,与平台经济学家所关注的创新活力与市场灵活度之间,需要取得精妙平衡。优秀的立法不是扼杀创新,而是通过划定清晰的“马路牙子”,让创新在安全、公平的赛道上竞速。这要求规则具备一定的前瞻性与适应性。
第三层:监督之笼——建立独立的外部制衡
监管科学与独立审计专家是关键的“看门人”。他们主张培育独立的第三方算法审计行业,对主流平台的算法进行合规性、公平性与非歧视性审计,并公布审计报告。
同时,应设立具备技术专业性的国家级监管机构,负责监督、调查与执法,其运作应保持独立并接受公众监督。他们的工作确保了法律条文不会沦为“一纸空文”,而是能产生真实的约束力。
第四层:社会之笼——激发多元主体的抵抗力
社会学家与技术人类学家将目光投向更广阔的社会场域。他们强调,健康的数字社会不能仅靠自上而下的监管,必须赋能用户与创作者:
通过“数据可携带权”增强用户自主选择能力;
通过市场设计与工具支持(如设立优质内容创作者基金),提升优质创作者的生存能力;
通过广泛的数字素养教育,提升公众的算法批判意识。
这种赋能使治理从单向管制变为多元共治。例如,正如当前一些平台允许用户标记“不感兴趣”来微调推荐,未来应赋予用户更精细的 “价值偏好”调节权(如“减少情绪化内容”、“增加多元观点”),让个体能在一定程度上“反向训练”算法。一个警觉、知情且有权能的公民社会,是制约算法权力的最广泛、最根本的基石。
四、一场关乎未来的社会契约重构
将算法权力关进笼子,绝非易事。它触及技术复杂性、商业利益与全球竞争格局。然而,这不再是一个可以选择的技术优化问题,而是一个必须面对的文明治理问题。
我们正站在数字时代的“宪法时刻”。旧的社会契约未曾预见代码的统治力,新的契约必须将算法权力纳入民主问责的框架。
这需要一场深刻的协作:哲学家定航向,伦理学家搭框架,法律专家筑边界,审计专家做体检,社会学家察民情,经济学家谋长远,而企业领袖和每一位公民,都需意识到自己在数字公地中的权利与责任,以知情、审慎的参与,共同履行这份新契约的守护之责。
驯服算法,最终是为了守护人性。当我们成功地将这股新兴权力关进以价值、规则、监督与社会韧性铸就的牢笼时,我们守护的不仅是清朗的网络空间,更是理性、真实与尊严得以存续的人类未来。这场战役的胜负,将决定我们是技术的主人,还是它的囚徒。
编辑:一一







