Joint Effect, Joint Power
星期六 四月 26th 2025

克隆数字人、信息安全与隐私保护

【专栏】| Columnists>AI ask, I answer

赞助稿酬

独立媒体人(Jointing.Media)一白,上海,2025-04-26

《黑镜》(Black Mirror)第七季第六集《联邦星舰卡里斯特:深入无际》(Federal Starship Callister: Into the Infinite)是第四季《卡利斯特号星舰》的续集。

故事的起源是富二代詹姆斯·沃尔顿利用其父亲留给他的信托基金,资助天才程序员技术宅罗伯特·戴利完成一个庞大游戏世界的搭建。为加快进度,劳伦斯使用违规的基因克隆机器复制了戴夫,并把克隆体置于游戏引擎中心。

后来,技术宅戴夫又将公司的几名打工人克隆复制后带入游戏世界,这都是法律所禁止的。

戴利死后十个月,虚拟世界中的克隆体南妮特·科尔船长带领联邦星舰卡利斯特号的船员们被困在数字领域中。这些克隆数字人突破屏障,穿越虫洞,进入了戴利创建的游戏世界“无限”游戏宇宙中。但他们在游戏宇宙中没有玩家标签,只能通过抢劫玩家的信用币来维持飞船能量,这种生活方式非常危险。

他们计划通过游戏引擎中心“无限之心”获取源代码来建立自己的私人宇宙,却发现了被沃尔顿禁锢着的戴利的另一个克隆体。戴利的克隆体在游戏在“无限之心”里创造了无限多宇宙。

现实中,因担心非法DNA数字克隆被曝光,沃尔顿想消灭克隆体以避免公司股价崩盘,而现实世界中的南妮特则想解救他们,也包括自己的克隆体。争斗中,南妮特被撞昏迷,将成为植物人。

戴利的克隆体试图欺骗南妮特的克隆体,让她牺牲船员们换现实中受伤的本体苏醒,实则鱼和熊掌可兼得,但条件是她要留下来陪伴自己,被拒后对其施以惩罚。最终,南妮特的克隆体杀死了戴利的克隆体,在“无限”自我毁灭前将船员数据上传到外置硬盘。

游戏崩溃后,船员们惊奇的发现,他们进入的宇宙竟然是南妮特的意识,在她康复后与她一同生活,通过她的眼睛感受真实的世界。

本集延续《黑镜》标志性的科技讽喻:沃尔顿的资本黑手与戴利的代码权杖,共同编织出数字殖民者的统治罗网;”信用币”体系则如当代消费主义的镜像,揭示自由意志在算法牢笼中的徒劳挣扎。而当意识最终栖身人脑褶皱,那道横亘于碳基生命与硅基灵魂之间的哲学天堑,已在量子涟漪中悄然崩塌。

为在技术垄断与资本剥削的无形枷锁下留一丝希望,故事结尾以技术白痴CEO沃尔顿的游戏公司股价崩盘,纸上财富归零,善良勇敢的女工程师南妮特复活,克隆人船员在游戏宇宙毁灭后幸存做结,以迎合“善恶终有报”的美好期许。

然“天地以万物为刍狗”,宇宙大爆炸的那刻,谁能幸免于难?世界变好还是变坏,匹夫皆有责。

围绕这个故事我让AI向我提问:

豆包:
1. 在剧中,克隆体们进入南妮特的意识后,从伦理角度看,他们和南妮特算一个人还是不同的个体呢?
2. 剧中数字克隆技术引发了诸多问题,从法律层面出发,该如何规范这种技术的使用?
3. 当数字克隆体有了自我意识,像戴利的克隆体那样,他们是否应该拥有与人类相同的权利?为什么?
4. 南妮特的克隆体泰莎在虚拟星舰中成为果敢的舰长,而现实中的南妮特是普通职员,这体现了环境对人性怎样的影响?从哲学角度如何解读?
5. 沃尔顿在现实与虚拟世界中的行为分裂,这种分裂对理解权力与人性的关系有何启示?
6. 从隐私保护的角度来看,数字克隆技术可能会带来哪些风险?剧中是如何体现的?

一白:这部剧确实给人带来非常多的思考,从环境对人的成长的影响,到法律或监管层面如何杜绝这种技术的滥用,再到人性的弱点及光辉时刻,都有各种各样的折射。首先我想针对技术的不当使用对人类社会产生的负面影响这一角度,来谈一谈自己的思考。
比如,戴利趁同事不注意时收集他们的生物信息,最终在游戏世界中克隆他们并奴役他们。这是一种偷盗行为。

其次,环境对人的改造不仅体现在南妮特和其克隆体的对照上,也体现在戴利的两个克隆体和沃尔顿与其克隆体的对照上。
戴利的第二个克隆体像是被无上的权力冲昏头脑的暴君,而被困在游戏引擎里,与外界隔离的戴利的第一个克隆体则温和友善的多。人的善恶呈现哪一面随着环境而变,权利会放大人的善还是恶呢?
这一点在沃尔特和其克隆体身上也能明显看到。沃尔顿为了达成自己的目的,自己的克隆体也是可以被视为工具,一旦成为障碍,一样可以清除,毫不手软。

豆包:确实,环境对人的影响很明显。那从技术角度来看,在剧中生物信息被偷偷收集这种情况,你觉得在现实生活中,应该建立怎样具体的监管机制,才能防止类似生物信息被盗用去发展克隆数字人技术呢?

:我觉得主要从三个方面入手:
一是立法层面,国家要针对此类事件制定各种相关法律,才能防微杜渐;
二是公众教育层面,要投入资源让公众自发保护自己的生物信息和个人隐私安全,只有大家有了这种意识,才能建立公众防护盾;
三是监管方式的创新,管理部门不能守株待兔,而要基于人性的趋利避害,创新监管方式。

豆包:从立法层面来看,你认为制定相关法律时,重点要明确哪些具体的法律责任和处罚措施,才能对生物信息非法收集、克隆数字人技术滥用等行为形成有效震慑呢?
另外,在公众教育方面,除了提高意识,还可以通过哪些具体形式,让公众更深入地理解这些技术风险,并且将保护隐私转化为实际行动呢?

一白:从立法层面要重点明确以下几点:
一是明确数据收集的权限,规定谁有权收集和接触这些信息;
二是确定具备何种资格的人或在何种范围内的人才有权限查看和使用原始信息;
三是限定数据的使用范围,在保障技术发展的同时,规范非原始性信息和数据经挖掘后形成的成果如何在市场上使用以造福公众。立法者需对信息的产生、研究、使用及后续数据的价值利弊等进行评估后,才能明确具体的法律责任,并依据其影响力大小和危害性确定处罚措施。

对于克隆数字人技术,随着 AI 技术的推广和普及,每个人都能克隆自己的数字人,但私人信息上传后都存储在 AI 技术服务方。这就需要从立法、公司制度以及技术监管等多层面入手,通过技术方式实现监管,例如让 AI 警察监管 AI 盗贼,其效率或许比人力更高,也就是以魔法打败魔法。

在公众教育层面,提高意识固然重要,但关键在于让大家在使用过程中有选择权。现在很多平台的条款属于霸王条款,要么全部同意使用信息,要么不能使用平台。对此,应建立通畅的举报和反馈渠道,促使企业改进条款。同时,应开设通识教育课程,无论是在学校、社区大学还是老年大学,通过安全教育课程让大众理解技术风险,从而提高行为意识并转化为实际行动。此外,社区可组织相关活动,不仅限于宣讲,还可设计游戏化活动,让大众在参与中增强保护意识,避免造成更大的社会危害。

豆包:确实,无论是立法、公众教育还是监管创新,都切中了关键要点。关于用 “AI 警察监管 AI 盗贼”,这是个很有前瞻性的设想。但在实际操作中,AI 警察本身也可能存在漏洞或被恶意利用,你认为应该如何确保 AI 监管系统自身的安全性和公正性呢?

另外,在你提到的通识教育课程方面,如果要设计一套针对不同年龄群体(青少年、成年人、老年人)的课程内容,你觉得每个群体最需要重点学习和掌握的技术安全知识分别是什么呢?

一白:这个问题在各个行业都存在,道高一尺,魔高一丈,技术在善恶之人手中会有截然不同的用途,就像原子弹的发明一样。没有任何监管系统能百分之百确保 AI 监管系统自身的安全性和公正性,只能在不断发展完善中修复漏洞。AI 监管系统应设置多个监管点,涉及数据容灾、自熔断机制等,同时考虑在特定情况下由人接管系统,借助更中立或脱网工具监管联网 AI 系统,这需要科学家们深入研究。

对于通识教育课程,不同年龄群体的学习能力、方式以及对新知识的接受程度各有不同,因此课程应由不同年龄群体参与设计,而非单方面制定教程。例如,老年人存在数字鸿沟,易受骗,而青少年对新事物接受快,甚至能成为创造者。家庭内部成员间可协作设计课程。其实,重点不在于知识本身,而在于如何让知识融入日常行为,教案设计理念至关重要,要注重游戏化、生活化和实用性。

豆包:关于家庭层面的通识教育课程设计,我觉得可以围绕一些家庭常见的数字场景展开,比如一家人共同使用智能设备时如何避免信息泄露,家庭共享云盘时怎样设置权限以保证隐私安全。如果以家庭为单位设计课程,你认为还可以从哪些贴近生活的场景切入,让家庭成员在互动协作中提升数据安全意识呢?另外,在让知识融入日常行为方面,除了游戏化和生活化,你觉得还有哪些有效的方式可以实现这一目标呢?

大家觉得呢?

延伸阅读:

AI ask, I answer | Social Media and Public Oversight

AI ask, I answer | AI’s Role in Relationships and Marriage

Discuss the Risk of AI with AI

焦虑的一代:放不下手机的父母,怎么教孩子“好好成人”?