2026年的春天,硅谷的空气里弥漫着一种前所未有的焦灼。
4月10日凌晨4点,旧金山切斯特纳特街。一个20岁的年轻人走近OpenAI CEO山姆·奥特曼的住所,将一枚点燃的燃烧瓶砸向大门。火光划破夜空的那一瞬间,AI行业最不愿面对的一个事实浮出水面:关于人工智能的争论,已经彻底走出了会议室和社交媒体,变成了真刀真枪的物理袭击。
燃烧瓶、死亡名单与“即将到来的灭绝”
三天之内,奥特曼的住所遭遇了两起袭击。
第一起发生在4月10日凌晨,20岁的得克萨斯州男子丹尼尔·莫雷诺-加马被指控向奥特曼的住宅投掷燃烧瓶。监控录像清晰记录下这一恐怖瞬间——燃烧装置在车道大门顶部引发火灾,所幸火势未蔓延至主屋。更令人不寒而栗的是,莫雷诺-加马随后又前往OpenAI总部,用椅子砸向大楼玻璃门,并威胁要“放火烧毁总部,杀死里面所有人”。
警方从其身上搜出了一份名为“三部分系列”的“反AI”文件。文件中不仅声称人工智能将导致人类“即将灭绝”,还赫然列出了一份涵盖多家AI公司董事会成员、CEO和投资者姓名与住址的“死亡名单”。在第一起袭击发生仅两天后(4月12日凌晨),又有两人驾乘一辆本田轿车经过奥特曼的住所,并从副驾驶位置朝其伦巴第街一侧连开数枪。
奥特曼事后罕见地公开了一张与家人的合影,并坦言自己“低估了语言和叙事的力量”。他在博客中写道:“这是我家人的照片。他们是我的一切。我希望影像有力量,希望能打消下一个向我家扔燃烧瓶的念头。”但同时他也承认,恐惧和焦虑在AI时代并非毫无缘由。
当AI领袖成为“符号靶心”
AI太抽象了。普通人看不见模型权重,看不见训练数据,看不见数据中心里成千上万块GPU如何密集运行。大多数人能看见的,是发布会上的那个人、采访里的那个人、国会听证会上的那个人。
OpenAI是奥特曼,英伟达是黄仁勋,Meta是扎克伯格,xAI是马斯克。
硅谷向来擅长把复杂产业压缩成一张标志性的面孔。乔布斯的黑高领、扎克伯格的灰T恤、老黄的黑皮衣——AI时代把这套逻辑推得更极端。但符号有个可怕的副作用:它能吸收掌声,也能吸收敌意。当ChatGPT让人惊叹,掌声落在奥特曼身上;当AI让人担心饭碗、隐私、子女未来和社会秩序,怒火也会先找到这些人。
皮尤研究中心2025年的调查显示,美国成年人对AI的情绪明显转冷:50%的美国成年人表示对日常生活中AI使用增加“担忧多于兴奋”,57%的人认为AI给社会带来的风险很高。斯坦福大学发布的另一份报告则指出,2025年全球对AI产品和服务感到“紧张”的人群比例已上升至52%。
黑色卢德主义:从砸机器到“砸人”
历史正在以一种诡异的方式重演。
19世纪初的英国,卢德分子因为担心纺织机器取代工人,在夜色中潜入工厂、砸毁织布机。那场针对“物理机器”的暴力运动,如今以另一种形态卷土重来——只不过,这一次的靶心从冰冷的机器换成了推动AI技术的具体的人。
社交媒体上,一些用户用“Luigi-ing”这个暗语来为针对科技领袖的暴力行为命名。在某些互联网角落,攻击AI高管的人甚至被贴上了“英雄”的标签。
暴力绝非局限在硅谷一户人家门前。2026年4月6日,印第安纳波利斯一位市议员因为支持其选区的数据中心项目,住所遭人连开13枪,门前还留下了一张写着“不要数据中心”的便条。圣路易斯附近一个仅有1.2万人口的小镇,也在市议会选举中将所有支持数据中心项目的现任议员替换下台。
讽刺的是,就在暴力事件频发的同时,美国众议院国土安全委员会近期在一场闭门演示中,亲眼见证了“越狱”后的AI模型有多容易被恶意之徒用来制造炸弹、策划恐怖袭击或发动网络攻击。AI本身被工具化的风险,正在以一种更为深刻的方式反噬它所创造的行业。
新赛道:从GPU到保镖
AI行业最刺眼的新成本,正在从H100 GPU变成贴身保镖的人头费。
英伟达CEO黄仁勋成了最引人注目的例证。他身价约1550亿美元,外出时毫不张扬地带着外包的安保人员贴身跟随。无论是在旧金山出席活动,还是在中国去菜场发红包,他的保镖始终警惕性地尾随其后,手上把东西递得再自然,脸上放松的神情却写满了紧绷。在深圳吃火锅时,那个光头、格子衬衫的彪形大汉贴身不离,始终保持在离他不到一米的行进范围内,甚至黄仁勋在和服务员合影的那一刻,保镖依旧紧贴在他背后,唯恐任何细节错漏。根据最新正式披露的数据,2025财年英伟达为黄仁勋安排的个人安保包括住宅安保、咨询费、司机服务、安保监控和车辆等一系列支出,仅住宅安保、咨询费和司机服务的增量成本就高达345.3253万美元。
黄仁勋并非特例。Meta的马克·扎克伯格年安保费用高达约8亿新台币,亚马逊、谷歌等巨头也为CEO的安保层面投入大量资源。据一位2025年在曼哈顿偶遇黄仁勋的AI创始人观察,黄仁勋身后当时至少跟着五名保镖。一年后,这位创始人自己在认真咨询保安公司价格了。
OpenAI在物理和数字域同步升级了安保系统。根据公司2025年披露的措施,OpenAI核心专有算法和AI模型实行严格的“物理隔离”策略,存放在与外界互联网完全隔断的离线计算机系统上,每位员工若要访问都需获得明确许可。公司还大规模扩充网络安全团队,引入前Palantir网络安全负责人和退役美国陆军将军,在董事会增添高管席位。在人员层面,有反AI群体建议企业员工日常外出摘掉工牌,以规避意外袭击。
“老黄”们的两难
在这种紧张的氛围下,AI行业的领袖们正在被迫做出一个痛苦的选择:是继续维持过去那种亲民、开放的形象,还是彻底把自己锁进堡垒?
黄仁勋至今仍在努力维持平衡。他给中国区年会上的员工发橘子和红包,在上海菜市场毫无架子地溜达采买,但同时连吃牛肉火锅都要两个保镖尾随贴身不离。这种分裂也许是当下AI领袖群体的集体缩影——台上功高不居,台下心力交瘁。
奥特曼则罕见地公开发出过呼吁。他在博文中说:“我对AI的顾虑是合理的,我们可能正在见证人类历史上最具转折意义的变革期。”但他随后补充道:“真正紧迫的是,我们必须确保未来——无论是比喻意义上的还是字面意义上的爆炸——进入更少普通人的家庭。”
2025年底,OpenAI宣布招聘一位年薪55.5万美元的“AI防御和准备主管”(Head of Preparedness),直接向奥特曼汇报,专门负责研判神经网络可能被滥用和攻击的多个潜在途径。这条新闻彼时只是科技圈内一度被淡忘的偶然讨论,现在回头看,一切似乎早有征兆。
AI,再也听不见沉默的枪声?
当然,要说AI行业还没有到“人人自危”的程度也并不准确。大量的抗议和集会迄今为止仍以和平方式推进。3月21日,“Stop The AI Race”等组织在OpenAI、xAI、Anthropic大门外聚集,呼吁控制高级AI研发的步伐。许多关注AI安全的团体在奥特曼住所遭袭后,也公开表达了明确的谴责立场。
但这些和平的声音,并不能掩盖暗涌中某些更极端的力量正一步步走向前台。从燃烧瓶到枪击,从网络谩骂到上门刺杀名单——AI产业的赛道早已不是单纯的算力和算法比拼。当技术开始被一些孤独而绝望的灵魂视为“灭绝枪声”时,AI走到哪儿,恐惧都将是那个笼罩在行业大部分阴影背后的回声。
2026年,做AI面对的不仅仅是关于技术伦理的讨论,而是关于人的躯体和尊严是否能在暴力的夹缝中继续坚守下去的拷问。火,已经在某些人的脑中点燃了。