【专栏】| Columnists>AI ask, I answer
独立媒体人(Jointing.Media)一白,上海,2025-04-26
《黑镜》(Black Mirror)第七季第六集《联邦星舰卡利斯特:深入无际》(Federal Starship Callister: Into the Infinite)作为第四季第一集《卡利斯特号星舰》的续集,延续了对科技伦理的深度探讨。
故事的起源是富二代詹姆斯·沃尔顿利用其父亲留给他的信托基金,资助天才程序员技术宅罗伯特·戴利完成一个庞大游戏世界的搭建,并一起创办了一家游戏公司。为加快开发进度,沃尔顿非法使用基因克隆机器复制出戴利的数字人,让“他”在游戏世界的引擎中心做数字“程序猿”。毫不知情的戴利随后又克隆公司数名打工人带入私人宇宙陪自己玩联邦星舰卡利斯特号星际旅行游戏,此项克隆技术同样为法律所禁止,且当事人均不知情。
第四季里克隆体南妮特·科尔船长带领联邦星舰卡利斯特号的船员们斗败戴利,突破屏障,穿越虫洞,进入了戴利创建的游戏世界“无限”。自此,戴利创办的私人宇宙崩塌,他无法退出游戏。现实世界中的戴利死亡。
然而,因为克隆数字人在“无限”游戏宇宙中无玩家标签,只能通过抢劫玩家的信用币来维持飞船能量,这种危险生活方式让船员们计划通过游戏引擎中心 “无限之心” 获取源代码建立私人宇宙。期间他们发现沃尔顿禁锢的戴利克隆体在游戏 “无限之心” 里创造了无限多个宇宙。
现实世界中,为防止非法 DNA 数字克隆曝光致公司破产,沃尔顿欲消灭克隆数字人,南妮特则试图解救。争斗中南妮特被车撞昏迷成植物人。
游戏世界里,戴利的克隆体试图欺骗南妮特的克隆体,让她牺牲船员们换现实中受伤的本体苏醒,实则鱼和熊掌可兼得,但条件是她留下来陪伴自己,被拒后对其施以惩罚。最终,南妮特的克隆体杀死了戴利的克隆体,在“无限”游戏自我毁灭前将船员数据上传到外置硬盘。这相当于南妮特再一次杀死了戴利。
游戏崩溃后,船员们惊奇的发现,他们进入了南妮特的意识,通过她的眼睛感受着真实的世界。
本集延续《黑镜》标志性的科技讽喻:沃尔顿的资本与戴利的代码,共同编织出数字殖民者的统治罗网;“信用币”体系则如当代消费主义的镜像,揭示自由意志在算法牢笼中的徒劳挣扎。而当意识最终栖身人脑褶皱,那道横亘于碳基生命与硅基灵魂之间的哲学天堑,已在量子涟漪中悄然崩塌。
为在技术垄断与资本剥削的无形枷锁下留一丝希望,故事结尾以技术白痴CEO沃尔顿的纸上财富归零,善良勇敢的女工程师南妮特康复,克隆人船员在游戏宇宙毁灭后幸存做结,以迎合“善恶终有报”的美好期许。
然“天地以万物为刍狗”,宇宙大爆炸的那刻,谁能幸免于难?世界变好还是变坏,匹夫皆有责。
围绕这个故事我让AI向我提问:
豆包:
1. 在剧中,克隆体们进入南妮特的意识后,从伦理角度看,他们和南妮特算一个人还是不同的个体呢?
2. 剧中数字克隆技术引发了诸多问题,从法律层面出发,该如何规范这种技术的使用?
3. 当数字克隆体有了自我意识,像戴利的克隆体那样,他们是否应该拥有与人类相同的权利?为什么?
4. 南妮特的克隆体泰莎在虚拟星舰中成为果敢的舰长,而现实中的南妮特是普通职员,这体现了环境对人性怎样的影响?从哲学角度如何解读?
5. 沃尔顿在现实与虚拟世界中的行为分裂,这种分裂对理解权力与人性的关系有何启示?
6. 从隐私保护的角度来看,数字克隆技术可能会带来哪些风险?剧中是如何体现的?
一白:这部剧确实给人带来非常多的思考,从环境影响人的善恶呈现,到法律或监管层面如何杜绝这种技术的滥用,再到人性的弱点及光辉时刻,都有各种各样的折射。首先我想针对技术的不当使用对人类社会产生的负面影响这一角度,来谈一谈自己的思考。
比如,戴利趁同事不注意时收集他们的生物信息,最终在游戏世界中克隆他们并奴役他们。这是一种偷盗行为。
其次,环境对人的改造不仅体现在南妮特和其克隆体的对照上,也体现在戴利克和沃尔顿与其各自克隆体的差异对照上。
懦弱的戴利在自己控制的游戏宇宙里是个说一不二、杀伐果决的舰长,以发泄在现实世界所遭受的怨气;而被困在游戏引擎里,与外界隔离的戴利的克隆体则温和友善的多。善恶并存,一体两面,呈现哪一面随着环境而变,权利会放大善还是恶呢?
这一点在沃尔顿和其克隆体身上也能明显看到。沃尔顿为了达目的,自己的克隆体一旦成为障碍,一样可以清除,毫不手软。而沃尔顿的克隆体却可以在危难之时挺身而出,舍己为众。
豆包:确实,环境对人的影响很明显。那从技术角度来看,在剧中生物信息被偷偷收集这种情况,你觉得在现实生活中,应该建立怎样具体的监管机制,才能防止类似生物信息被盗用去发展克隆数字人技术呢?
一白:我觉得主要从三个方面入手:
一是立法层面,国家要针对此类事件制定相关法律,才能防微杜渐;
二是公众教育层面,要投入资源让公众自发保护自己的生物信息和个人隐私安全,只有大家有了这种意识,才能建立公众防护盾;
三是监管方式的创新,管理部门不能守株待兔,而要基于人性的趋利避害,创新监管方式。
豆包:从立法层面来看,你认为制定相关法律时,重点要明确哪些具体的法律责任和处罚措施,才能对生物信息非法收集、克隆数字人技术滥用等行为形成有效震慑呢?
另外,在公众教育方面,除了提高意识,还可以通过哪些具体形式,让公众更深入地理解这些技术风险,并且将保护隐私转化为实际行动呢?
一白:从立法层面要重点明确以下几点:
一是明确数据收集的权限,规定谁有权收集和接触这些原始信息;
二是确定具备何种资格的人或在何种范围内的人有权限查看和使用原始信息;
三是限定数据的使用范围,在保障技术发展的同时,规范非原始性信息和数据经挖掘后形成的成果如何在市场上使用以造福公众。立法者需对信息的产生、研究、使用及后续数据的价值利弊等进行评估后,才能明确具体的法律责任,并依据其影响力大小和危害性确定处罚措施。
对于克隆数字人技术,随着 AI 技术的推广和普及,每个人都能克隆自己的数字人,但私人信息上传后都存储在 AI 技术提供方。这就需要从国家层面立法、行业层面建立共识公约,公司层面制度建设以及技术监管等多方面入手,避免个人信息被滥用,例如让 AI 警察监管 AI 盗贼,其效率或许比人力更高,也就是以魔法打败魔法。
在公众教育层面,提高意识固然重要,但关键在于让大家在使用过程中有选择权。现在很多公司的条款属于霸王条款,要么全部同意使用信息,要么不能使用其产品。当然,目前有些平台也陆续改进中,让用户能选择通知开发方删除其个人数据。
对部分商家的“霸王条款”,应建立通畅的举报和反馈渠道,促使企业改进条款。同时开设通识教育课程,无论是在学校、社区大学还是老年大学,通过安全教育课程让大众理解技术风险,从而提高安全防范意识并转化为实际行动。此外,社区可组织相关活动,不仅限于宣讲,还可设计游戏化活动,让大众在参与中增强保护意识,避免造成更大的社会危害。
豆包:确实,无论是立法、公众教育还是监管创新,都切中了关键要点。关于用 “AI 警察监管 AI 盗贼”,这是个很有前瞻性的设想。但在实际操作中,AI 警察本身也可能存在漏洞或被恶意利用,你认为应该如何确保 AI 监管系统自身的安全性和公正性呢?
另外,在你提到的通识教育课程方面,如果要设计一套针对不同年龄群体(青少年、成年人、老年人)的课程内容,你觉得每个群体最需要重点学习和掌握的技术安全知识分别是什么呢?
一白:“黑警”这个问题在各个行业都存在,道高一尺,魔高一丈。技术向善还是作恶在于使用者,技术是中性的。没有任何监管系统能百分之百确保 AI 监管系统自身的安全性和公正性,只能在发展中不断修复和完善。我想,在AI 监管系统投入使用前,对各类应用场景和人的使用行为需有深刻研究,以防微杜渐;其次,在使用中,AI 监管系统应设置多层监管和同级多个监管点,这将涉及数据容灾、自熔断机制等,同时考虑在特定情况下由人接管系统,借助更中立或脱网工具监管联网 的AI 系统,这方面可能需要科学家们深入研究技术上的可行性了。
关于通识教育课程,不同年龄群体的学习能力、方式以及对新知识的接受程度各有不同,因此课程应由不同年龄群体参与设计,而非闭门造车。例如,老年人群体存在的数字鸿沟,易轻信;青少年对新事物接受快,创造力强,甚至能成为课程的设计者。家庭内部成员间可协作设计课程。其实,重点不在于知识本身,而在于如何让知识融入日常行为,教案设计理念至关重要,要注重游戏化、生活化和实用性。
豆包:关于家庭层面的通识教育课程设计,我觉得可以围绕一些家庭常见的数字场景展开,比如一家人共同使用智能设备时如何避免信息泄露,家庭共享云盘时怎样设置权限以保证隐私安全。如果以家庭为单位设计课程,你认为还可以从哪些贴近生活的场景切入,让家庭成员在互动协作中提升数据安全意识呢?另外,在让知识融入日常行为方面,除了游戏化和生活化,你觉得还有哪些有效的方式可以实现这一目标呢?
大家觉得呢?
编辑:Wind、Kimi(AI)