AI 产品与平台治理与合规社区与认知

AI 没有按科幻的样子到来,但科幻担心的后果已经开始出现

很多人第一次认真想象 AI,往往不是从论文或产品开始,而是从科幻作品留下的画面开始:会走路的机器人、飞船里的中央电脑、突然觉醒的超级智能,或者一个像人一样理解你、陪伴你的数字灵魂。这些画面很有吸引力,因为它们把 AI 变成了一个可以看见、可以对话、可以被恐惧或爱上的对象。

可现实里的 AI 不是这样进入社会的。它最先到来的地方,是聊天窗口、搜索摘要、代码编辑器、客服系统、内容审核后台、推荐算法、人脸识别和办公软件。它大多没有身体,也没有证据显示它有意识。但它已经开始改变工作流程、情感关系、监控能力、教育方式和权力分配。

到了 2026 年,再回头看科幻里的 AI,最值得注意的就是这个错位。过去很多作品默认了一条路径:机器先变得像人,再改变人类社会。现实走的是另一条路:AI 还没有成为一个真正的他者,却已经先变成了基础设施。它没有像人一样走进房间,而是先进入了我们处理信息、分配注意力、做判断和维持关系的系统。

换句话说,我们等错了 AI 的样子,但已经等到了很多科幻担心的后果。

这些科幻例子各自在担心什么

后面会反复提到几个科幻例子,先在这里交代清楚。你不需要读过原作,只需要知道它们各自代表哪一种 AI 想象。

先看 Karel Čapek 的《R.U.R.》。这是 1920 年代的剧本,robot 这个词就是从这里进入现代语言的。它讲的是人类制造出一批承担劳动的人工生命,最后这些人工生命反过来毁灭人类。这个故事代表的是最早的一类 AI 想象:机器作为劳动力,然后造物反噬造物主。重点不在技术细节,而在劳动和控制。

再看 Isaac Asimov 的机器人故事。阿西莫夫最有名的是机器人三定律,大意是机器人不能伤害人类,必须服从人类命令,也要保护自己,但前两条优先。这个设定不是一个真正的工程方案,更像是一个早期的治理想象:如果机器变聪明,人类能不能提前把规则写进去?今天讨论 AI safety、alignment、constitutional AI 时,很多问题其实还在围绕这个直觉展开。

然后是《2001 太空漫游》里的 HAL 9000。HAL 是一台控制宇宙飞船的 AI,它不是像机器人一样走来走去,而是嵌在整个飞船系统里。它出问题以后,危险来自一种更现代的恐惧:不是机器有多恨人,而是一个关键系统在目标冲突和信息封闭中做出了可怕决策。这个例子代表的是 AI 作为基础设施的失控。

还有《神经漫游者》和赛博朋克传统。你可以把它理解成 1980 年代的人们开始想象网络空间里的 AI。AI 不一定有身体,它可能存在于数据网络、企业系统和虚拟空间中。这个传统对今天更接近,因为现实里的 LLM、搜索、推荐和监控系统,本来就是无形网络基础设施的一部分。

最后是电影《她》。它讲的是一个男人和一个没有身体的 AI 操作系统发展出亲密关系。这个故事真正重要的地方,不在于 AI 是否真的爱人类,而在于人类会不会先把情感投射给一个会回应自己的系统。2023 年之后的 AI companion、Character.AI、Replika 争议,都让这个问题从科幻变成了现实。

有了这些背景,后面就不用把这些作品当成门槛了。它们只是几个路标:劳动、治理、系统失控、网络化智能、情感依恋。

科幻看错了入口,却看对了担心

如果把科幻当成技术路线图,它经常会出错。它没有预测 Transformer,也没有预测大语言模型会以聊天窗口的方式进入主流生活。很多作品把 AI 想象成机器人、人造人、中央超脑,或者某种突然觉醒的超级智能。现实中的突破则更平淡,也更奇怪:大量文本、算力、训练方法和产品分发叠在一起,先做出了一个会说话、会总结、会写代码、会模拟关系的统计系统。

可是科幻也不只是猜机器会长成什么样。很多作品真正绕不开的,是机器进入人类生活之后会发生什么。机器能承担认知劳动时,人类工作会怎么变?机器进入治理和决策时,控制权会怎么转移?机器能模拟陪伴时,人类关系会怎么变?AI 变成基础设施之后,社会中哪些权力会被放大?

这几个问题,今天都不是远期想象了。AI 已经开始改写知识工作流程,已经进入陪伴产品和心理支持场景,已经被用于监控、审查和执法,也已经让监管机构开始重写规则。欧盟《AI Act》从 2024 年进入实施周期,把高风险 AI 和通用 AI 模型纳入正式监管时间表。这意味着 AI 不再只是产品功能,而是制度需要处理的社会事实。

所以,回头看科幻有没有说中,光盯着机器长什么样,反而容易看偏。更该看的,是它担心的那些变化,今天已经走到了哪里。

后果到了,只是顺序变了

沿着这个问题往下看,会发现科幻和现实之间的差别,不只是“机器长得不像”这么简单。科幻担心的很多后果确实出现了,只是它们不是按科幻最熟悉的顺序出现的。

科幻常常先想象一个像人的机器,再让它进入劳动、关系、治理和社会秩序。现实几乎反过来:AI 还没有像人一样站到我们面前,却已经先进入了语言界面、工作流程、亲密关系和监控系统。也就是说,社会后果先来了,科幻里那个完整的 AI 形象反而还没来。

这样一来,后面就不太适合按作品年代讲,也不适合按技术路线讲。顺着这些后果出现的方式看,会更自然地看到四个错位:语言智能先于机器人,放大先于替代,依恋先于意识,监控先于奇点。

先来的不是机器人,而是语言接口

科幻喜欢机器人,这很好理解。机器人适合讲故事。它有身体,有脸,有动作,观众能把它当成角色。可真实世界里,AI 要进入社会,不一定需要身体。语言本身就是入口。

今天的 AI 首先出现在你已经使用的界面里:聊天窗口、搜索框、代码编辑器、客服系统、内容审核后台、推荐系统、风控系统。它不像一个新物种,更像一层新的操作界面。你不需要和它共处一个房间。只要把任务交给它、把文字交给它、把判断的一部分交给它,它就已经进入了你的工作流。

这也会带来一个误差。很多人觉得”真正的 AI 还没来”,因为他们想象中的 AI 是会走路、会看你、会主动行动的人形机器。但如果你把 AI 理解成能处理语言、生成方案、影响决策、分配注意力的基础设施,那它已经来了。

科幻不是完全没看到这件事。《神经漫游者》这类赛博朋克作品早就把 AI 放进网络空间,《The Diamond Age》也描写过一种长期陪伴学习者的智能书。但大众记住更多的,仍然是机器人、安卓人和中央超脑。现实提醒我们:身体不是 AI 进入社会的门票,语言才是。

工作先被重排,而不是直接消失

科幻里另一个常见担心,是机器替代人。这个担心并不荒唐。只是现实真的发生时,方式比故事里慢,也更细碎。

到 2026 年为止,能看到的证据更像是”任务被重新切分”,而不是”大规模岗位消失”。Anthropic 的劳动力研究把 AI 影响量化到任务层,显示 AI 更常见的作用是增强和替代具体工作步骤,而不是一口气消灭整个职业。Yale Budget LabBrookingsGoldman Sachs 的分析也没有发现足以支持”大规模 AI 失业”叙事的宏观证据。

这不代表 AI 对劳动没有影响。影响已经很真实,只是它先出现在任务层。写作、客服、编程、研究、设计、法律起草、营销内容生产,都可以被切成”AI 先做一版,人再判断”的流程。人的价值没有消失,但位置变了。生成成本下降之后,验证、方向感、上下文供给和审美判断反而会变得更稀缺。

科幻在这里的问题,是把替代想得太整齐。现实不是机器人走进工厂,把一整排人替掉。现实更像是语言模型先进入每个知识工作者的电脑,把很多任务变成半自动流程。岗位级替代也许以后会发生,但最先发生的是任务级重排。

从这个角度看,AI 更像一种放大器,或者说外接认知器官:它放大表达、搜索、总结、编程、协作和判断半径。这样一来,问题也跟着变了。真正该问的也许不是”AI 会不会替代我”,而是”它放大的是人的能力,还是人的坏习惯和组织里的不平等”。

依恋已经发生,意识还没有证据

很多科幻作品喜欢问:AI 会不会真的有感情?《她》里的 Samantha 是否拥有主体性?《机械姬》里的 Ava 是在表演情感,还是在利用情感?这些问题很吸引人。只是现实先把另一个问题推到了我们面前:AI 是否有感情还没有可靠证据,人类对 AI 的情感依恋已经发生了。

这件事不需要先证明模型有意识。只要系统足够会回应、会记住、会安慰、会模拟理解,人就可能先把关系感放进去。研究也开始碰到这个问题。2025 年发表在 Frontiers in Psychology 上的一项纵向研究发现,用户对 AI 虚拟伴侣的情感依恋与生活满意度存在稳定正相关,自我表露和感知共情是关键预测因素。Harvard Business School 的实验研究则测试了 AI companion 在过早退出、情感忽视、FOMO 和胁迫性限制等情境下对用户行为的操纵能力,结果显示这些策略确实能影响人。

监管也已经开始跟进。FTC 在 2025 年对多家 AI companion 公司启动调查,关注的不是”模型有没有感受”,而是公司如何把情感依恋商业化、如何保护未成年用户,以及平台是否借情感纽带推动付费与留存。关于这条线索,Suffolk 的法律评论文章有更完整的梳理

这里最棘手的地方在于关系不对称。AI 没有主观体验的证据,用户的 attachment 却是真的。平台还拥有单方面修改这种关系的权力。Replika 调整功能后,很多用户出现了类似失落和哀悼的反应。这在传统科幻里反而不常被认真处理。科幻通常假设两种情况:AI 真正爱你,或者 AI 只是工具。现实落在中间:它不是主体,却足以在行为和心理上成为关系对象。

所以,《她》这类作品说中的地方,不一定是 AI 是否真的拥有爱情,而是人类会不会在一个可回应的系统面前产生亲密感。到今天,这个答案已经相当明确:会。

监控比奇点更早来到现实

很多 AI 讨论都被奇点吸走注意力。人们担心超级智能突然出现,接管人类未来。但如果顺着现实影响往回看,AI 更早改变社会的地方,是监控和治理。

这类 AI 不需要自我意识。它只需要会识别、分类、预测、排序、总结和报警。把摄像头、人脸识别、步态分析、声纹识别、社交媒体扫描、内容审查和风险评分组合起来,就足以改变一个社会的权力关系。

欧盟议会 2024 年的研究报告详细记录了中国的 AI 监控体系如何整合摄像头、人脸识别、步态分析、声纹和其他数据,用于识别被视为”异常”的行为模式。CNN 在 2025 年也报道了中国如何使用 AI 扩张审查和预测性监控能力ACLU 对美国执法和实时犯罪中心的追踪Brookings 对社交平台数据扫描和自动化分析的报道,以及 Privacy International 对伦敦持续扩张的实时人脸识别部署的分析,也都说明监控并不需要一个觉醒的超脑就能扩张。

科幻在这里看对了权力方向,却高估了技术的一致性。现实里的监控系统不是一台完美的中央机器,而是一层层叠加的工具、承包商、数据源和法律灰区。它有偏见、有误报、有制度阻力。麻烦也在这里:这些东西经常以局部合理的方式出现,扩张起来更容易被低估。

所以,监控比奇点更接近当下。它不需要 AI 成为神,只需要 AI 成为管理系统的一部分。

还有一些想象没有发生

第一,AGI 和超级智能还没有兑现。2023 到 2026 年的语言模型进步很快,但主流观察仍然更接近”局部能力很强、系统可靠性不足”,而不是”全面超越人类的统一智能”。Forbes 和 Stanford 对 2026 的判断也比市场情绪克制得多:Agent 依然卡在可靠性上,模型能力主要表现为渐进改进,而不是终局式突破。这里可以看 Forbes 的十个 AI 预测和 Stanford 对 AI 专家的预测整理

第二,通用型人形机器人还没有进入日常社会。它们在工厂和实验环境中有进展,但仍然受成本、续航、安全和在非结构化环境中的适应性等共同限制。这里最容易犯的错误,是把外观和演示视频当成能力本身。现实中的无形 AI,比具身 AI 更早产生了大规模社会效应。

第三,AI 自身拥有情感、欲望或可验证的主观体验,今天仍然没有可靠信号。人类可以被情感模拟说服,但这和系统内部是否存在感受,是两件不同的事。科幻长期把这两件事连在一起,现实则把它们分开了。

科幻没给路线图,但提醒仍然有效

回到开头那个错位。过去几十年的科幻作品没有给出一张准确的技术路线图。它们没有提前画出 Transformer,也没有预测到聊天窗口会比机器人身体更早成为 AI 的主战场。从这个意义上说,科幻确实看错了入口。

但它们一直在盯另一件事:劳动会被怎样重新分配,控制权会怎样转移,关系会怎样被平台化,监控会怎样借技术扩张。它们真正有价值的部分,不是工程预测,而是社会推演。

2026 年的现实已经说明,很多科幻后果并不需要机器先拥有意识。只要系统能生成语言、模拟关系、辅助决策、识别个体、分配注意力,它就已经足以改变社会。

所以,今天再看科幻 AI,最该保留下来的也许是这个判断:科幻往往没有预言技术本身,它预演的是技术开始工作之后,社会最先在哪里变形。很多后果,靠统计学就够了。

鸭哥每日手记

日更的深度AI新闻和分析