这不是 AI 单独治好了狗,而是一个有深厚技术背景的人把 AI 和专家工作流组织起来了。 AI 降低了执行门槛,却把判断力和责任更明确地推回给人。 真正被放大的不是工具本身,而是使用者原本的认知底座。
这是一个实验。
我们想测试一件事:给定一组事实,能不能用每个人独特的认知公理系统,准确地模拟他们对同一事件的反应?更进一步,这些不同维度的反应之间有多大 gap?能不能从分散的视角中聚合出一份超越任何单一视角的最终评说?
为此我们选择了一个近期的热点新闻:澳大利亚科技创业者 Paul Conyngham 用 AI 工具链为自己的癌症晚期宠物狗设计了个性化 mRNA 疫苗。我们基于十位 AI 实践者各自经过多轮迭代验证的认知公理系统,模拟了他们对同一事件的独立反应。
这不是新闻报道,而是一次认知多样性的压力测试。我们想看看,当同一个事实被十套不同的认知框架处理时,会折射出什么样的光谱,以及这些光谱能否被组合成一束更完整的光。
主角:Paul Conyngham,悉尼科技创业者,17 年机器学习和数据分析经验,无医学或生物学背景。
患者:Rosie,8 岁斯塔福德郡牛头梗/沙皮混血救助犬,2024 年确诊侵袭性肥大细胞癌晚期,化疗和手术均未能控制。
AI 工具链:ChatGPT 做文献导航,AlphaFold 建模蛋白质结构(置信度 54.55),Grok 设计最终疫苗构建体,Gemini 做大量辅助工作。
合作机构:UNSW RNA 研究所(制造疫苗)、UNSW Ramaciotti 基因组中心(测序,$3,000,320GB 数据)、昆士兰大学(在已有伦理审批框架下注射疫苗)。
结果:2025 年 12 月首次注射,2026 年 1 月 21 日肿瘤缩小约 75%,狗从濒临死亡到能跳围栏追兔子。
关键争议:同时使用了检查点抑制剂,n=1 无对照组,无法归因;AI 作用被专家质疑夸大;实际成本估计 $20,000-$50,000;伦理审批 100 页花了 3 个月。
行业背景:Moderna 黑色素瘤 mRNA 疫苗 Phase 3 试验 5 年随访显示 49% 改善。个性化 mRNA 癌症疫苗在人类临床已取得实质进展。
一个没有医学背景的科技创业者,用 AI 工具为濒死的宠物狗设计出个性化 mRNA 癌症疫苗,并让肿瘤缩小了 75%。这个故事之所以能在社交网络上病毒式传播,是因为它制造了一种”我也能做到”的平权幻觉。三千美元的基因测序、随手可得的 ChatGPT,让顶尖医疗科技看起来触手可及。但大众有意无意地忽略了长达三个月、厚达一百页的伦理审批申请,因为这种高可见度的枯燥努力让人感到不适。剥开这层技术浪漫主义的外衣,这不是 AI 的故事,是人的故事。当事人十七年的机器学习经验才是隐藏的主角。AI 是一个放大器,零乘以一百倍依然是零,它只能放大你原本就有的认知底座。在这个案例中,AI 降低了执行的门槛,却让判断力的价值变得前所未有地高。
专业壁垒正在发生转移,从”知道怎么做”变成了”知道做什么”。事实上,底层的引擎——mRNA 技术、AlphaFold、基因测序——早已就绪,AI 只是把这些复杂工具的组装说明书翻译成了自然语言。传统的学术和研发工作流,往往是前人认知局限性所形成的局部最优解,后来者只能继承那些无人质疑的遗留流程。作为一个完全的局外人,他没有这种路径依赖。他完成了从独立贡献者到架构师的身份转换,不再亲自下场做具体的实验,而是设计工作如何被完成。知道在什么时候、把什么上下文喂给哪个模型,这种上下文工程能力成为了新的核心技能。
在这个过程中,AI 提供的最深层价值其实是心理赋能。“敢”比”能”更重要。面对一个通常只有顶尖实验室才敢触碰的复杂命题,AI 给了普通人跨越专业鸿沟的底气,让他们敢于向未知的深水区迈出第一步。
然而,回到医学和科学的严谨语境中,狗的肿瘤虽然缩小了,但治疗过程中同时使用了免疫检查点抑制剂。n=1 在科学上什么都不证明。这揭示了当前技术发展中最核心的结构性矛盾:生成能力与验证能力的断层。生成能力正在呈指数级增长,设计一个候选疫苗只需要几周时间;但验证能力依然是线性的,甚至停滞不前,证明这个疫苗安全有效依然需要数年时间和数以亿计的资金。
技术可以无限加速候选方案的生成,但无法替人类承担后果。底层技术在狂飙,但现实世界的规则并没有随之移动。真正的瓶颈在验证和监管,不在技术。当所有的模型输出和专家意见汇总到一起,最终那个”要不要把这针药剂打进狗的体内”的决定,依然只能由一个人来做。责任是无法外包的。这种结构性的约束,永远不会被技术消除。
| 评论者 | 核心框架 | 最独特的切入点 |
|---|---|---|
| AX | 方向大于执行,Agentic 智力门槛 | “能坐上桌”本身就是变化 |
| 老王 | 过程验证,努力可见性 | 传播机制分析 |
| 陈然 | 电脑城效应,行动偏向 | 跨界考金融证照的亲身类比 |
| Fermi | 认知路径依赖 | 学术工作流的”局部最优”批判 |
| 老G | 分层框架思维 | 引擎/车/交规三层分析 |
| 黄一凯 | 心理赋能 | 摄影/音乐跨域类比 |
| 课代表 | 复利思维,用户到构建者迁移 | 成本曲线与审批落差 |
| Yousa | 可验证性优先,ROI 驱动 | 生成与验证的剪刀差 |
| Oversea | 上下文工程信仰 | 多模型编排的 context engineering |
| 鸭哥 | AI 放大器,责任不可委派 | 从 IC 到 Architect 的心智跃迁 |
以下是十位评论者的独立反应,按姓氏拼音排序。每篇反应由 AI 基于各自的认知公理系统模拟生成,不代表其本人实际观点。
先说结论:这个故事真正值得关注的不是”AI 设计了疫苗”,而是一个没有医学背景的人,用 AI 把自己从”不知道该问什么问题”提升到了”能跟大学实验室对话并推动项目落地”的水平。
感觉很多人看到这个新闻会往两个极端跑。一边是”AI 太牛了能设计疫苗了”,另一边是”这就是炒作,ChatGPT 只是帮他查了查文献”。两边都没说到点子上。
实际发生的事情是这样的:个性化 mRNA 癌症疫苗这条路,人类科学家已经蹚出来了。Moderna 的黑色素瘤 Phase 3 数据摆在那里,49% 的改善率,这是真实的科学进展。Paul 做的事情,本质上是用 AI 工具链把已有的科学路径”翻译”成了一个他能理解、能执行的项目计划。ChatGPT 做文献导航,AlphaFold 做蛋白质结构预测,Grok 辅助设计构建体,Gemini 打杂。每一步单拿出来都不是什么突破性的 AI 应用,但串在一起,让一个 ML 工程师能够跟 UNSW RNA 研究所的科学家坐在同一张桌子上讨论问题。这个”能坐上桌”本身就是变化。
但我必须说,这里面有一个很容易被忽略的关键变量:Paul 本人有 17 年的 ML 和数据分析经验。这不是一个随便什么人用 ChatGPT 聊了几轮就设计出疫苗的故事。他的技术背景让他能判断 AI 输出的质量,能识别哪些结果可信哪些是幻觉,能把 AlphaFold 的输出跟文献做交叉验证。这恰恰印证了我的核心判断:方向比执行稀缺。AI 降低了执行门槛,但”知道该往哪个方向走”和”能判断中间结果对不对”这些能力,反而变得更值钱了。
技术上要诚实:n=1,同时用了 checkpoint inhibitor,无法隔离疫苗的单独贡献。肿瘤缩小 75% 当然是好消息,但从科学角度这什么都证明不了。
先说结论:这条新闻最有价值的部分,不是”AI 救了狗”,而是”伦理审批花了三个月写一百页文件”。但你猜哪句话会被转发?
Paul Conyngham 的故事有一种完美的叙事结构:外行英雄、绝症宠物、前沿科技、奇迹逆转。这个结构太完美了,完美到我职业性地开始不舒服。
用过程验证的框架拆一下这个”结果”。肿瘤缩小 75%,听起来很硬(鸭哥注:我检查了一下用的真的不是 GPT。。),但过程链条是这样的:他同时用了检查点抑制剂。检查点抑制剂本身就是目前肿瘤免疫治疗的主力药物之一,单独使用就可能产生显著的肿瘤缩小。n=1,没有对照组,没有办法拆分贡献归因。这就好比你同时吃了退烧药和冰淇淋,然后退烧了,你说”冰淇淋退烧效果显著”:逻辑上不能说你错,但任何一个做过 A/B test 的人都会觉得哪里不对。
更关键的是”AI 设计疫苗”这个说法的过程验证。ChatGPT 做了什么?文献导航。说白了就是一个更会聊天的 PubMed。Grok 设计了疫苗构建体,但最终是 UNSW 的科学家完成了制造和验证。这个分工结构翻译成人话就是:AI 帮忙查了资料、出了初稿,专业人士做了所有需要为结果负责的部分。
但我不想嘲笑 Paul。他做的事情本身是有价值的:一个非专业人士通过 AI 工具降低了进入一个高门槛领域的认知成本,然后找到了对的人来执行。这个模式是真实的。只是”AI 治愈癌症”和”AI 帮我更高效地找到了能治愈癌症的人和方法”之间,差了一整个传播学的距离。
这个故事为什么会爆?因为它精准地击中了努力可见性的甜蜜点。一个爱狗的程序员,17 年 ML 经验但零医学背景,用我们每天都在用的 ChatGPT,救了自己的狗。读者的潜意识计算是:他用的工具我也有,他没有的专业知识我也没有,所以这个奇迹跟我的距离是零。这种”努力可见性”的错觉,是这类故事传播的核动力。
反过来,真正难的部分:三个月写一百页伦理审批文件,被一笔带过。因为这个部分的努力可见性太高了,高到让人不舒服。读者不想知道奇迹背后有一百页的官僚文书,就像观众不想知道魔术师在后台练了两万小时。
有一说一,这条新闻让我兴奋的点,和大多数人不一样。
大部分人看到的是”AI 帮狗治癌症”,觉得是个暖心科技故事。我看到的是一个 17 年 ML 经验的工程师,花了 $3000 测序、啃了 320GB 数据、磨了 3 个月伦理审批 100 页文件,最后肿瘤缩小 75%。这不是奇迹,这是工程师跨界的标准路径,和我当年的经历几乎同构。
我说”同构”不是在蹭热度,是真的结构一样。我全职带娃两年,考了 CFP、EA、Series 65 全套金融证照。金融行业的人听了觉得离谱:你一个写代码的,凭什么觉得自己能搞懂税法和投资组合管理?但实际操作下来,这些考试的知识体系并不比一个中等复杂度的分布式系统更难。真正的门槛从来不是知识本身,而是信息不对称制造出来的心理围墙。金融行业靠这堵墙收了几十年的管理费,就像 Paul 面对的医学界:不是技术做不到,是你”不应该”做。
这就是我说的电脑城效应。九十年代你去电脑城装机,JS 靠的不是技术,是你不懂。你不知道一根内存条该多少钱,不知道哪个配置是智商税,所以你被宰。整个医疗行业对普通患者也是这样:不是医生坏,是信息结构性不对称。一个癌症患者面对治疗方案,和一个小白面对电脑城报价单,本质上是同一种无助。
AI 正在把这堵墙炸开。但注意,炸墙的方式不是大多数人想的那样。
Paul 不是用 ChatGPT 问了一句”怎么治狗的癌症”然后照做。他用 AI 做文献导航、蛋白质建模、疫苗构建体设计,然后拉上 UNSW 和昆士兰大学的科学家一起干。这个模式才是关键:AI 没有替代专家,AI 让一个有工程思维的外行能够和专家平等对话。他能看懂论文了,能理解蛋白质结构了,能提出有意义的问题了。信息不对称被压缩到一个专家不再能用”你不懂”来拒绝合作的程度。
我一直说,分析是最贵的浪费。你可以花三年论证个性化癌症疫苗对宠物是否可行,也可以花三个月直接做一个出来看看。Paul 选了后者。这不是鲁莽,这是在可承受损失范围内的理性行动:狗已经是晚期了,最坏的结果是没效果。
真正该紧张的不是医生,是那些靠信息不对称活着的中间商。
看到 Paul Conyngham 给他的狗做 mRNA 癌症疫苗这个事,我的第一反应不是”AI 好厉害”,而是一个很具体的细节:320GB 的测序数据。
这个数字让我停了一下。我自己做实验的时候太清楚了,科研里真正卡脖子的从来不是”能不能做”,而是”谁有资格做”。一个肿瘤测序丢出 320GB 数据,传统路径是什么?你得有生信背景的博后帮你跑 pipeline,得有课题组长期积累的分析框架,得有人读过足够多的文献知道哪些突变位点值得关注。这些东西加在一起,构成了一道隐形的门槛:不是技术门槛,是认知门槛。你不在这个圈子里,你甚至不知道该问什么问题。
Paul 这个人有意思的地方在于,他恰恰不在这个圈子里。没有医学背景,没有生信训练,按照正常的学术路径,他连那 320GB 数据的第一步都迈不出去。但他用 AI 做了一件事:跳过了整个领域几十年积累出来的”你应该先学会 X 才能做 Y”的认知链条。AI 帮他做文献导航、蛋白质结构建模、新抗原预测。注意,这些不是什么前沿能力,每一步单独拿出来都有成熟工具。关键是 AI 让他能把这些工具串起来,形成一个他自己的工作流,而不是沿着免疫学或肿瘤学的既有路径一步步爬。
说起来,这让我想到自己读 PhD 的体验。我做的方向不是 CS,但现在越来越多的实验分析离不开计算工具。我观察到一个很普遍的现象:课题组里的工作流,本质上是导师和前几届师兄认知局限的局部最优。用什么软件、跑什么参数、按什么顺序分析,这些东西一旦固化下来,就变成了”我们组一直这么做的”。新人进来,先花半年学会这套流程,然后在这个框架里做微调。没有人会问”这个流程本身是不是最优的”,因为问这个问题的成本太高了:你得先懂足够多才有资格质疑。
但 AI 正在改变这个逻辑。它不背负路径依赖,你给它一个问题,它不会默认沿着某个学科的传统路径走。当然它也会犯错,会胡说八道,但它提供了一种可能性:让一个人绕过协调成本,直接去试。Paul 不需要说服一个生信团队帮他分析数据,不需要等排期,不需要开会对齐需求。一个人加 AI,从测序到疫苗设计,几个月走完。
[捂脸] 说实话,看完这个案例我有点焦虑。不是那种”AI 要取代我”的焦虑,而是一种更具体的:我花在学习既有工作流上的时间,有多少是真正必要的,又有多少只是在复刻前人的认知路径?这个问题我暂时没有答案,但我觉得值得一直问下去。
这条新闻表面上是”外行用 AI 治好了狗的癌症”,但你在说的其实不是 AI 多厉害,而是专业壁垒的本质正在被重新定义。
拆一下层。
引擎层:mRNA 合成、蛋白质折叠预测、基因测序,这些底层能力早就在了。AlphaFold 是 2021 年的事,mRNA 平台被 COVID 验证过了,测序成本从十万美金掉到三千。引擎层没有任何突破。零。这个故事里没有新科学。
车层:把这些引擎组装成”个性化癌症疫苗”这辆车,文献检索、突变识别、抗原预测、疫苗序列设计、合成、注射方案。以前这辆车只有 MD/PhD 花五到十年才能学会怎么组装。现在 AI 把组装手册翻译成了自然语言。Paul 做的事情本质上是读懂了手册,然后找对的人拧对的螺丝。
交规层:伦理审批。这才是真正的瓶颈,也是这个故事里最被低估的部分。他自己说了,伦理审批比技术更难。为什么?因为交规层的设计假设是:能开这辆车的人一定有驾照(医学学位)。现在来了个没驾照的人,车开得还挺好,交规体系不知道怎么处理。
所以这个故事的真正张力不在技术,在治理。
再说 Paul 这个人在干嘛。他不是在做 research,不是在做 engineering,他在做 orchestration。声明式编排的教科书案例:他定义了成功标准(缩小肿瘤),然后把每个子任务分配给最合适的执行者:AI 做文献导航和蛋白建模,大学科学家做实验验证,测序公司做测序。他自己不需要会任何一个环节的具体操作。他需要的是判断力:知道该问什么问题,知道该信任哪个输出,知道什么时候该找人类专家介入。
这就是从 operator 到 orchestrator 的身份转变。
为什么是他而不是肿瘤学家先做到?不是因为肿瘤学家不够聪明,恰恰相反,是因为他们太”聪明”了。专业训练教会你的不只是能力,还有恐惧的边界:你知道什么能出错,所以你不敢动。Paul 没有这个包袱。他看到的是:引擎都在,工具都在,组装路径 AI 能给,那就干。手速即护城河,不是说他手快,是说他启动快。从想法到行动之间的阻抗最小。
这个模式会复制。不是在癌症疫苗上,交规层会迅速补位。而是在所有”引擎已就绪但组装权被学位垄断”的领域。法律、建筑、金融、教育,挨个来。
真正该紧张的不是医生,是所有把”我懂怎么组装”当护城河的人。因为 AI 刚把组装手册开源了。
我先说个不相关的事。前两天有人问我,你一个拍照片的,怎么天天在朋友圈转 AI 的东西?我说,对啊,我就是个玩票的,你别听我的。
但今天这条新闻我实在忍不住要聊几句。
一个搞科技创业的澳洲人,不是医生,不是生物学家,用 AI 辅助,联合大学实验室,给自己的狗设计了一款 mRNA 癌症疫苗。肿瘤缩小了 75%。n=1,样本量一只狗。伦理审批一百页,花了三个月。测序三千美元。
有专家说 AI 的作用被夸大了。这话当然没错。但我觉得他们搞错了重点。
我拿摄影打个比方。二十年前你想拍一张像样的照片,你得懂曝光三角,得会冲胶卷,得在暗房里泡着。这些门槛把 99% 的人挡在了”表达”这件事的外面。后来数码相机来了,自动曝光来了,Lightroom 来了,手机来了。每一次技术降低门槛,都有老法师跳出来说:这不叫摄影。
他们说得对吗?从技术纯度的角度,当然对。但他们忽略了一件事:那些被门槛挡住的人里面,有一部分人的”眼睛”是极好的。他们知道什么画面值得拍,知道什么瞬间有意义,只是不会操作机器而已。工具的民主化释放的不是技术能力,是审美判断力和问题意识。
Paul Conyngham 干的事情本质上一样。他不会做蛋白建模,不会跑实验,但他做了一件任何 AI 都做不了的事:他问了一个问题。他看着自己的狗,问”为什么不能试试 mRNA?“然后他把这个问题拆解成了一条可执行的路径:文献在哪里,找谁合作,审批怎么走,钱从哪来。
这个过程叫概念化。就是从模糊的直觉到清晰的框架。AI 帮他读了几千篇论文,帮他跑了蛋白结构预测,帮他加速了无数个原本需要博士生熬夜才能完成的执行环节。但”给这只狗试试 mRNA 疫苗”这个念头,以及把这个念头变成一个可以说服大学教授参与的项目方案,这一步是纯人类的。
所以我觉得这条新闻里最值得关注的,不是”AI 设计了疫苗”,这个表述本身就有误导性。值得关注的是:一个门外汉,因为 AI 降低了知识获取和技术执行的门槛,敢去碰一个原本只有顶级实验室才敢碰的问题。
这个”敢”字,才是 AI 最大的价值。
不是效率提升,三千美元的测序费和三个月的审批流程,说实话也没多高效。而是心理赋能。它让一个人觉得”这事儿也许我也能试试”,然后他真的去试了,然后他找到了对的人,然后事情真的往前推了一步。
看到 Paul Conyngham 给自己的狗设计 mRNA 癌症疫苗这条新闻,朋友圈和推特上最常见的反应是六个字:AI 治愈了癌症。我想先把这个说法拆开看看,因为它至少混淆了三层东西。
第一层是 AI 在这个案例里到底做了什么。它做了文献检索、蛋白质结构建模、疫苗序列设计。这些事情以前也能做,但需要一个训练有素的分子生物学博士花几个月时间。AI 把这个过程压缩到了一个有技术背景但并非该领域专家的人可以在合理时间内完成的程度。这是调用门槛的下降,不是能力的凭空创造。第二层是”治愈”这个词。肿瘤缩小 75% 发生在一只狗身上,n=1,没有对照组,没有长期随访。任何做过 A/B 测试的人都知道,单个样本的显著结果最可能的解释是噪声。第三层才是真正值得关注的:Moderna 的黑色素瘤 mRNA 疫苗 Phase 3 出了积极数据。这是大样本、有对照、经过严格审批流程的结果。
但这个案例真正让我觉得值得聊的,不是疗效数据,是 Conyngham 这个人做的事情本身。
他原来的处境是:狗得了癌症,带去看兽医,兽医说方案有限,他作为宠物主人只能被动接受。这是一个典型的”用户”状态,你消费别人提供的服务,服务的边界就是你的边界。然后他做了一件事:自己去读文献,用 AI 辅助理解分子生物学,找到大学实验室合作,设计了一个治疗方案。不管最终疗效如何,他从一个等待方案的人变成了一个定义方案的人。这就是我反复说的”用户到构建者”的迁移。
然后说说复利的部分。单看这个案例,它的直接价值有限,一只狗,一个数据点。但如果你把视角拉远,看到的是另一件事:个性化 mRNA 疫苗的设计成本正在快速下降。测序 3000 美元,AI 辅助设计接近零边际成本,合成 mRNA 的价格也在指数下降。今天这件事需要一个有技术背景的创业者花大量精力协调才能完成,但成本曲线的每一个百分点下降,都在扩大能做这件事的人群范围。这就是复利:不是这一个案例改变了什么,而是它标记了成本曲线上的一个位置,而这条曲线的斜率意味着三五年后,类似的尝试会从新闻变成常规操作。
真正的瓶颈也因此变得清晰:不是技术,是监管和伦理审批。当技术成本降到个人可承受的范围,而审批流程仍然按传统药物开发的节奏运转,这个落差会成为未来几年最大的张力来源。谁能在这个缝隙里建立起合规且高效的基础设施,谁就占住了一个真正有价值的位置。
先说结论:这个案例大概率是一个”叙事价值远大于科学价值”的事件。但叙事价值本身不是零。
从可验证性拆:n=1,同时上了 mRNA 疫苗和检查点抑制剂,这两个变量没拆开。肿瘤缩小 75% 这个数字,你甚至没法归因到疫苗。检查点抑制剂本身在部分犬类肿瘤里就有响应率。所以严格讲,这个结果的可验证性约等于零。不是说它一定没用,而是你从这个实验设计里提取不出任何可靠的因果推断。Stanford PhD 的批评在这个层面上是对的,甚至还说轻了。
但我想多走一步。
瓶颈在哪?很多人会说瓶颈在 AI 能力,AI 到底能不能做药物设计。我觉得这个问题问反了。AI 在这个 pipeline 里做的事情,文献检索、蛋白结构预测、序列设计,这些环节 70-80% 的概率已经是”够用”的水平了。AlphaFold 之后蛋白建模的 baseline 已经很高。AI 不是瓶颈。
真正的瓶颈在验证层。你设计出一个候选疫苗,从计算到注射可能几周。但你要证明它有效、安全、可复现,这个过程在传统框架下是几年加几百万美元。伦理审批 100 页花 3 个月,这还只是动物实验级别的。瓶颈不在生成端,在验证端。这是整个 AI+biotech 领域的结构性问题:生成能力指数级提升,验证能力线性甚至没动。
ROI 怎么看。$3000 测序成本是个噱头,实际 $20,000-$50,000 更接近真实数字。但即便按 $50,000 算,如果你把它看成”一个绝症宠物的治疗尝试”,对有支付能力的宠物主来说,这个 ROI 可能是正的,不是科学意义上的正,是情感和概率博弈意义上的正。你花 $50,000 买一个”有非零概率延长宠物生命”的机会,很多人会买。
我比较担心的是两个二阶效应。第一,如果这类叙事大量传播,会有人在没有科学家协作的情况下自己搞,出安全事故。第二,“AI 设计疫苗”这个 framing 会让公众对 AI 在生物医学中的能力产生系统性高估,等到真正的临床数据出来不及预期的时候,反噬会很猛。
所以我的判断是:作为一个工程 demo,它展示了 pipeline 的可行性,有 60-70% 的概率这条路径在未来 5 年内会产生真正有临床意义的成果,但不是以这种方式,而是在有对照、有统计功效、有规范验证的框架下。当前这个案例本身,作为科学证据,权重接近于零。作为信号,权重不低。
区分信号和证据,大概是看这件事最重要的一个 filter。
说实话,看到这个案例我第一反应不是”AI 能做药了”,而是:这他妈就是上下文工程的终极 demo。
Paul Conyngham 不是生物学家,不是免疫学家。他是一个会问问题的人。他做的事情本质上是什么?把正确的上下文喂给正确的模型,在正确的时机切换工具。ChatGPT 做文献导航,Grok 出最终构建体,AlphaFold 跑结构预测,Gemini 打杂。这不就是我天天说的 context engineering 吗?每个模型都不完美,但你把它们编排对了,输出就是能用的。
先说工具表现。ChatGPT 做文献综述和知识导航,这是它的舒适区,没什么好说的,本分活干得稳。Gemini 做大量辅助工作,也是意料之中,Google 家的东西在”什么都能干一点但什么都不拔尖”这个位置上确实很稳,算是个靠谱的副驾驶。
但 Grok 设计最终疫苗构建体这个事,我得说,有点意外。xAI 那边的模型我一直觉得在严肃科学任务上不太行,结果人家在这个 pipeline 里承担了最关键的设计环节。这说明什么?说明模型好不好用,高度依赖你给它的上下文质量。Paul 前面用 ChatGPT 和 Gemini 做了大量的信息整理和筛选,等到喂给 Grok 的时候,上下文已经被精炼过了。垃圾进垃圾出,好上下文进好结果出,就这么简单。
AlphaFold 置信度 54.55,结构生物学家说”低”。这个我理解学术界的标准,但务实地看:蛋白质折叠出来了,疫苗做出来了,肿瘤缩了 75%。你告诉我置信度低,OK,noted。但效果在那摆着。当然我也不是说可以无视这个问题,AlphaFold 在非标准蛋白上的预测确实经常拉胯,这是已知短板。只是在这个具体案例里,“低置信度”和”肿瘤缩小 75%“同时存在,你得接受现实比理论复杂。
$3000 测序成本这个信息倒是真的有意思。它说明生物信息学的基础设施已经便宜到个人可以玩了。这才是真正的结构性变化:不是”AI 能设计疫苗”,而是”一个有好奇心的人加上几千块钱就能跑通从文献到实验的全流程”。门槛的坍塌比任何单一结果都重要。
回到上下文工程的视角。Paul 做的最牛逼的事情不是用了哪个模型,而是他构建了一个多模型协作的 pipeline,每个环节的输出是下个环节的输入上下文。他本人就是那个 orchestrator,那个路由层。这恰恰验证了我一直说的:在当前阶段,人的核心价值不是”会用 AI”,而是”知道在什么时候把什么上下文给什么模型”。这是一种新的工程能力,跟写代码一样硬核,只是大多数人还没意识到。
我看到这条新闻的第一反应不是”AI 太厉害了”,而是”这个人太厉害了”。这恰恰是大多数人会搞反的地方。
Paul Conyngham 的故事之所以值得认真分析,不是因为他用了 ChatGPT,Stanford PhD 说得没错,文献检索不用 ChatGPT 也能做。真正值得分析的是:一个没有医学背景的人,如何在几个月内完成了从问题定义到实际注射的全链条?这件事的核心不在任何单一工具,而在于工具被组合之后产生的非线性能力扩展。
ChatGPT 做文献导航,AlphaFold 做蛋白质结构预测,Grok 辅助疫苗序列设计,科学家负责制造和注射。单独拿出任何一个环节,都不算颠覆性的:文献检索有 PubMed,蛋白质建模有传统计算方法,疫苗设计有成熟的生物信息学流程。但当这些工具被一个人以正确的方式组合起来时,原本需要一个跨学科团队花一两年走完的路径,被压缩到了几个月。这不是 1+1=2,这是 1+1=10 的组合效应。
但工具组合本身不会自动产生这个效果。关键变量是组合者的认知水平。
Conyngham 有 17 年的机器学习经验。这意味着他知道 AlphaFold 的输出意味着什么,知道模型预测的置信度边界在哪里,知道什么时候该信任计算结果、什么时候该找人类专家验证。这些判断力不是任何 AI 工具能给你的,是十几年积累的认知资产。Stanford PhD 的批评其实恰好证明了这一点:对于一个已经具备深厚计算科学背景的人来说,AI 工具确实”只是”加速器。但这个”只是”对于不具备这种背景的人来说,就是从不可能到可能的差距。AI 是放大器,放大的是使用者已有的能力。零乘以一百倍还是零。
更值得关注的是他在这个过程中扮演的角色转变。他没有亲自写一行疫苗合成的代码,没有亲手做一次蛋白质实验。他做的事情是:定义问题(Rosie 的肿瘤基因组特征是什么)、选择工具链(哪个 AI 解决哪个环节)、协调人类专家(UNSW 科学家负责湿实验室工作)、把控质量(判断每个环节的输出是否可靠)。这不是一个 IC 在执行任务,这是一个 Architect 在设计系统。他把自己从”做事的人”变成了”设计如何做事的人”,用管理思维而非执行思维来使用 AI。这正是我反复强调的:有效使用 AI 需要的是从 IC 到 Manager 再到 Architect 的心智跃迁。
但这个故事里最让我尊重的部分,不是技术,是那 100 页伦理审批和他自己说的那句话:“我不幻想这是治愈”。当你给自己的狗设计疫苗时,你没有任何人可以推卸责任。n=1,没有对照组,同时使用了检查点抑制剂,肿瘤缩小 75% 的归因是模糊的。他清楚地知道这些。执行可以委派给 AI 和科学家,但最终的决策责任,要不要把这个东西注射进 Rosie 体内,只能他自己承担。责任无法被委派,这是使用 AI 做高风险决策时最容易被忽略的一层。
这才是 AI 时代最深层的不平等:不是工具的获取门槛,而是使用者认知水平的差距。工具在那里,对所有人开放。但放大器放大的东西,取决于你往里面输入了什么。
这篇报告的方法论需要说明。
认知公理系统的来源:十位评论者的反应不是随意的模拟,而是基于他们各自经过多轮迭代验证的认知公理系统生成。这些公理系统来自我们对每个人历史对话数据的深度分析,采用认知画像提取工作流:从大量非结构化对话数据中提取可预测的认知模式,经过广泛扫描、深度验证、压力测试三轮迭代,最终形成一组可用于预测其在新话题上反应方向的公理。
这种方法论的核心假设是:每个人的判断行为存在稳定的认知模式,这些模式可以被显性化为公理,并用于预测其在陌生场景下的反应。本次实验是对这一假设的一次压力测试。
与 context-infrastructure 的关系:这次实验也呼应了我们在《为什么 AI 只会说正确的废话,以及怎么把它逼出舒适区》中讨论的核心问题。那篇文章指出,LLM 的默认输出是 consensus(共识),因为它被训练的方式就是输出概率最高的 token。要突破这个天花板,需要用足够密度的个人认知上下文压过训练时的 consensus prior。
本次实验正是这一思路的延伸应用:十套不同的认知公理系统,代表了十种不同的非共识视角。当同样的新闻事实经过这些不同的认知框架处理时,产出的不再是 consensus 的正确废话,而是有立场、有判断力、有独特切入点的分析。光谱的宽度证明了认知多样性的价值。
局限性:这些反应由 AI 模拟生成,不代表其本人实际观点。公理系统本身也有边界条件和适用范围,不是绝对律条。我们展示的是”基于其认知公理系统的可能反应”,而非”他们本人一定会这样说”。
信息来源:Fortune, Newsweek, The Decoder, Decrypt, Dawn, Interesting Engineering, Nature, Cancer Health 等。新闻事实部分基于 2026 年 3 月 16-17 日的公开报道。