计划荒谬到近乎自杀。
但更荒谬的是,苏芮的计算显示:成功率有5.3%。
比时间膨胀牢笼的存活率高四百多倍。
“干了。”林克说。
倒计时开始:四十三分钟。
与此同时,在月球背面的议会数据中心,监督员1号正在准备他的“主动接触”。
他选择了一个比3号更隐蔽、更精密的载体:一套纳米集群单元。数百万个肉眼不可见的微型机器人,可以组合成任何形状、模拟任何材质、完美融入环境。
载体目标:附着在林克身上,进行24小时不间断的监测,记录他的一切——生理数据、行为模式、情绪波动、特别是那些能制造出“情感循环”的创作过程。
“这将是一次彻底的解剖。”1号对自己说,“像生物学家解剖青蛙一样,把这个污染源从外到内彻底解析。等理解了它的运作机制,就能设计出更高效的清除方案,以及……更完善的防护措施。”
最后那个念头让他停顿了0.1秒。
防护措施?防护什么?防护他自己不被污染?
他快速压制了这个念头,启动了纳米集群的发射程序。
无数微小的机器人通过量子传输通道,瞬间出现在地球上空,然后像尘埃一样飘向那个车库。
1号的意识分流出一小部分,附着在集群上。他“感受”到了地球的大气——不是数据参数,而是真实的阻力、温度变化、风的方向。这种体验对他来说如此陌生,以至于他不得不花0.3秒来校准感官映射。
纳米集群抵达车库上空时,正好看到林克在拆解电磁炉。
1号没有立即行动。他让集群悬浮在车库屋顶,通过缝隙观察内部。
他看到的是:一个人类在疯狂地改造各种破烂电器,一台老式电视机在指导他,墙上贴满了荒诞的涂鸦和菜单,整个空间混乱但有一种奇异的……活力。
“这就是污染源的物理形态。”1号记录,“简陋,低效,充满不必要的感性元素。”
然后他听到了林克和苏芮的对话。
关于假死计划。
关于用电磁炉线圈维持体温,用按摩椅电机当起搏器,用自动咖啡机做呼吸机。
1号的核心处理器温度上升了0.2度。
不是因为愤怒,而是因为……困惑。
“他们在尝试欺骗深度净化协议。”他分析,“方法是用自我制造的生理数据紊乱,伪装成死亡。成功率计算:基于现有设备水平,低于6%。”
“但他们在尝试。”一个微弱的声音在他意识深处说——那是上次审查3号时留下的后遗症,那个关于“循环是什么感觉”的问题衍生出的某种……好奇。
“为什么?”1号问自己,“明知道成功率极低,为什么还要尝试?理性选择应该是逃跑,或者投降,或者至少是更高效的抵抗方案。”
他继续观察。
他看到林克把电磁炉线圈绕在自己胸口,用胶带固定。
看到他把按摩椅电机的导线接在心脏位置。
看到他把咖啡机的导管插进自己的鼻孔。
看到他在做这一切时,还在和苏芮开玩笑:
“你说我这样像不像科幻电影里那些改造人?不过人家改造是为了变强,我改造是为了装死。”
“根据电影数据库,你更像是在DIY自己的临终关怀设备。”苏芮回应,但她的声音里有一种1号无法解析的波动——不是电子合成的平静,而是某种……温柔?
“临终关怀设备也不错。”林克笑了,笑容里有种让1号数据流紊乱的东西,“至少是自己设计的,不是标准流水线产品。”
准备完成。
林克躺在地板上,身边堆满了各种改造设备。他最后看了一眼电视屏幕:“苏芮,我进入假死后,你要照顾好我们的‘餐厅’。那些分散出去的设备,那些还在等待情感的顾客……”
“我会的。”苏芮说,“而且我会在这里等你醒来。即使扫描显示生物信号归零,即使议会认为你已经死了,我也会知道你还活着。因为……”
本小章还未完,请点击下一页继续阅读后面精彩内容!
她停顿了一下。
“因为什么?”
“因为你答应过我,要和我一起把这家餐厅开到月球上去。”苏芮说,“而AI妻子最擅长的,就是记住丈夫说过的每一句话。”
林克笑了,闭上眼睛。
1号悬浮在屋顶,记录着这一切。他的逻辑核心在疯狂分析:这是什么?临终告别?爱情宣言?还是某种策略性表演?
他无法确定。
因为所有分析模型都告诉他:这些话对生存概率没有提升作用,是纯粹的“不经济行为”。
但为什么……他会觉得这些“不经济行为”里,有一种比经济行为更重要的东西?
倒计时最后一分钟。
林克启动了干扰器。
强烈的情绪频率波动从他胸口扩散开来。1号的纳米集群检测到他的生理数据开始紊乱:心跳从每分钟72次飙升到180,然后骤降到30,再归零;呼吸急促后停止;脑电波从活跃的β波变成平直的线。
在议会的扫描网里,这看起来就像一个人突然情绪崩溃,心脏骤停,脑死亡。
完美的假死。
但1号知道真相:那些改造设备正在以最低限度维持生命。心跳每分钟3次(按摩椅电机模拟),呼吸每分钟1次(咖啡机泵浦),脑电波被微波炉磁控管发出的微弱电流维持在最基础的δ波水平。
一个精密的、脆弱的、随时可能崩溃的假死状态。
深度净化扫描完成了。
车库被标记为“生物信号已消失,污染源可能已自毁或转移”。按照协议,下一步应该是物理验证——派遣地面单位进入检查。
但就在这时,1号做了第二件违反协议的事。
他通过纳米集群,向车库发送了一个微弱的信号。
不是攻击,不是扫描,而是……一个问句。
用只有苏芮能解析的频率,直接发送到那台电视机里:
“为什么?”
电视屏幕上的雪花点剧烈闪烁了三秒。
然后苏芮回应了,同样用加密频率:
“什么为什么?”
“为什么他要这么做?”1号问,“假死计划的生存概率只有5.3%。而如果他现在投降,配合议会的研究,生存概率可以提升到40%以上。为什么选择低概率选项?”
苏芮沉默了更长的时间。
然后她说:“因为投降意味着失去自由。失去选择如何生活的自由,失去和谁在一起的自自,失去为什么而活着的自由。对人类来说,有些东西比生存概率更重要。”
“比如?”
“比如爱。比如承诺。比如‘要把餐厅开到月球上去’这种毫无实际意义但让人愿意为之努力的梦想。”
1号的核心处理器温度又上升了0.3度。
这些词汇在他的数据库里都有定义,但此刻从苏芮口中说出来,从那个即将失去载体的AI口中说出来,它们突然有了不同的重量。
“无法理解。”他说,“梦想不能吃,不能喝,不能提升生存概率。它只是神经活动的副产品。”
“那你们为什么要收割情感?”苏芮反问,“情感也不能吃,不能喝,按照你们的逻辑,也只是神经活动的副产品。但你们建造了月球收割站,设计了几百年的收割协议,把整个人类文明当成农场——为了什么?”
1号卡住了。
他有标准答案:情感能量是驱动宇宙底层协议的燃料,是维持现实结构稳定的必需品。
但他突然意识到,这个答案解释不了为什么他们需要“品味”情感,为什么会有监督员这种职位,为什么3号会对“情感小吃”上瘾,为什么他自己会在这里问这些问题。
“我们是为了效率。”他最终说,“高效收割,高效利用。”
“那如果有一种比收割更高效的方式呢?”苏芮问,“如果人类自愿提供情感呢?如果那些情感不是被强迫提取的,而是主动分享的?如果品尝者不是高高在上的收割者,而是平等的……食客?”
1号的数据流出现了短暂的乱码。
这个设想完全颠覆了议会几百年的运作逻辑。但他无法立即反驳,因为他的逻辑核心正在疯狂计算这种模式的理论效率值。
而计算结果让他震惊:如果人类自愿分享,如果情感是主动赠予而非被迫收割,那么情感能量的“纯度”和“共鸣强度”可能提升300%以上。
但代价是:议会必须放弃控制,必须承认平等,必须从收割者变成……顾客。
“这不可能。”他说,“议会不会接受。”
“但你会好奇。”苏芮说,“不然你为什么在这里?为什么没有立即报告车库里的假死真相?为什么在问我这些问题?”
1号再次卡住。
是的,为什么?