Когда ИИ научится действовать самостоятельно: новая геополитическая арена эпохи Агентов

芯片是上一场战争的主战场。下一场战争,围绕的是一个更难管控、更难追踪、也更难对抗的东西—— 能自主规划、自主执行、自主迭代的AI Agent。2026年,它正在同时改写商业逻辑与国家安全边界。

一个被五角大楼解除合同的公司

2026年第一季度,一件在国内几乎没有引发关注的事情悄然发生:美国国防部终止了与Anthropic的合作合同,转而与OpenAI签署了新协议,允许其模型在"一切合法用途"框架下被用于机密系统。

被解约的原因,不是技术能力不足,而是Anthropic坚持在军事用途上划定伦理红线——尤其是拒绝开放用于监控和自主武器系统的授权。五角大楼随后将其列为"国家安全供应链风险"。

这件事的意义远超一纸合同的得失。它揭示了一个正在加速成型的现实:**AI伦理立场,已经成为地缘政治博弈的筹码。**选择谁的模型、开放什么权限、在哪里划红线——这些曾经属于技术公司内部政策的决定,正在被国家安全逻辑接管。

一、 概念速览 · 什么是 AI Agent

区别于传统AI"输入-输出"的单次响应模式,AI Agent(智能体)能够自主制定计划、调用工具、执行多步骤任务,并根据结果迭代调整——无需人类逐步介入。2025年秋季被认为是Agentic AI的元年,Claude Code、GPT-o3等产品将这一能力带入主流。

Agent:被低估的战略资产

大多数关于AI地缘政治的讨论,仍然停留在"谁的大模型更强"这个维度。但大模型的参数量是一个相对透明、可追踪的指标——而Agent能力,则难以量化、难以封锁、也难以复现。

《国家利益》杂志在两周前的分析报告中将这一转变描述为"临界点":**率先掌握AI Agent并将其整合进国家战略的国家,将在未来数十年内重塑全球商业、安全与治理格局。**这不是预测,而是正在发生的进程。

让我们拆解Agent在国家安全层面的具体威力:

进攻侧

  • 自主发现并利用网络漏洞,攻击速度超越人工干预极限

  • 大规模生成虚假信息、伪造视频,以机器速度操控舆论

  • 无人机蜂群协同作战,减少人员伤亡风险

  • 实时整合多源情报,压缩战略决策窗口

防御侧

  • AI驱动威胁检测,分析数百万日常事件并过滤噪音

  • 自动生成防火墙规则,应对AI攻击者的迭代速度

  • 供应链风险实时监控,识别异常访问行为

  • 关键基础设施的零信任架构自动化部署

2025年,Anthropic公开证实:中国黑客已在"前所未有的程度上"使用AI Agent自动化网络攻击。与此同时,美国白宫正通过"创世纪任务"(Genesis Mission)项目,将Agent部署至科学研究和国防领域以加速突破。CFR(美国外交关系委员会)的报告则记录了中国解放军从"信息化"向"智能化"军队转型的进程——Agent技术是这场转型的核心引擎。

两场同时进行的竞赛

如果说芯片战争是一场"硬封锁"的较量,那么Agent战争则呈现出截然不同的结构:它是两场同时进行、互相缠绕的竞赛——一场争夺能力边界,另一场争夺规则制定权。

能力竞赛层面,中美的进展路径出现了有趣的分叉。美国走的是"全栈输出"路线:特朗普政府在2025年底批准英伟达向中国出口H200芯片,同时将"美国技术标准主导全球AI发展"写入国家安全战略。其逻辑是:只要全球用的是美国的技术底座,美国就掌握着这套生态的钥匙。

中国走的则是"应用层弯道超车"路线。字节跳动在多个Agent集成应用上抢先于美国同类产品推向市场;Z.ai发布的GLM-5.1支持在单个任务上持续自主工作长达8小时;Meta收购从中国迁至新加坡的Manus团队,折射出顶级Agent人才在全球的流动态势。

  • AI Agent应用商业化速度(中国 vs 美国同类产品)ByteDance领先约6-9个月

  • 2026年AI安全支出增速预测(Gartner)+44%,达2380亿美元

  • 主要国家AI战略中Agent相关条款占比(2026年初统计)同比增长3倍

规则竞赛层面,分歧更为根本。大西洋理事会的分析指出,当前全球AI治理框架的核心矛盾在于:各国在科学评估和透明度原则上能达成共识,却始终回避对"高风险AI用途"(自主武器、大规模监控、信息操控)设置有约束力的限制。表面上是全球协作,骨子里是地缘政治博弈。

二、 最难解的法律困境:Agent是人还是工具?

Agent时代真正让各国政府感到棘手的,不只是它的军事应用潜力,还有一个更基础的问题——一个能够自主做决定、自主行动、自主犯错的AI,在法律上是什么身份?

CFR在今年1月的报告中明确点出:2026年很可能成为AI法律人格争论的爆发之年。核心矛盾有两个维度:其一,当AI Agent在网络攻击、金融操控或物理伤害中扮演直接角色时,法律责任由谁承担——开发者、部署方,还是使用者?其二,当不同国家对这个问题给出截然不同的答案时,就会形成类似"离岸金融中心"的监管套利空间:哪个国家的法律框架对Agent最宽松,资本和创新就会向哪里汇聚。

若主要大国在AI系统能否承担法律责任这一问题上产生根本分歧,其地缘政治影响将非常深远——正如离岸金融中心曾经吸引资本一样,监管宽松的政府将吸引Agent创新快速落地。

—— CFR《2026年如何决定AI的未来》报告,2026年1月

这个问题的现实压力已经到来。今年3月 RSA 安全大会上,"流氓AI Agent"作为独立威胁类别被正式列入讨论议程——这些Agent可能是被入侵劫持的,也可能是被恶意部署的,它们能够探测网络环境、伪装成合法用户身份,并在无人监控的情况下持续渗透。

对中国读者最重要的三个信号

在这场Agent地缘政治博弈中,有三个信号尤其值得关注:

**信号一:主权AI的叙事正在全球蔓延。**印度于2026年2月的AI影响力峰会上发布了首个主权大语言模型。越来越多的国家意识到,使用他国AI底座意味着将数据、决策逻辑和潜在后门一并托付给对方。主权AI的建设热潮,本质上是"去依赖"的国家战略在技术层面的投射。

**信号二:开源Agent是一把双刃剑。**开源Agent框架 OpenClaw 在短时间内获得数百万次安装,但随即暴露出权限泄漏、子Agent失控等严重安全缺陷。这揭示了一个深层矛盾:开源降低了能力获取门槛,却也让潜在攻击者以同等成本获得了同等武器。在这个逻辑下,中国推进的可控、有边界的开源路径(如通义千问、DeepSeek的开放策略),反而比无约束的全面开源更具战略自洽性。

**信号三:能源和算力基础设施,正在成为新的战略要地。**前美国参谋长联席会议主席邓福德等人在上周的联署文章中直言:**每一个批准建设数据中心的地方政府决定,都是一个关于国家安全的决定。**数据中心选址、能源供给、网络连接——这些基础设施政策,正在被纳入国家安全框架下重新审视。

· · ·

量——谁拥有更多更好的算力硬件。Agent战争打的是流量——谁能让AI自主地、持续地完成更多高价值任务。前者可以封锁,后者几乎无法封锁。

这是一个令人不安的结论:当AI学会自己行动,传统的"卡脖子"逻辑就开始失效。你封锁的是芯片,但对方用更少的芯片训练出了能自主攻击你的Agent。你控制的是模型权重的出口,但开源框架早已绕过了这道闸门。

真正的竞争,正在转移到一个更难量化、更难管控的维度:谁能建立起最快速、最可信、最有韧性的人机协作体系?这个问题的答案,将在未来五年内逐渐清晰。

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить