Gate 广场|2/27 今日话题: #BTC能否重返7万美元?
🎁 带话题发帖,抽取 5 位锦鲤送出价值 2500 美元的仓位体验券!
Jane Street 被起诉后,持续多日的“10 点砸盘”疑似消失。比特币目前在 67,000 美元附近震荡,这波反弹能否顺势冲回 70,000 美元?
💬 本期热议:
1️⃣ 你认为诉讼与“10 点抛压”消失有关吗?市场操纵阻力是否减弱?
2️⃣ 冲击 $70K 的关键压力区在哪?
3️⃣ 你会在当前价位分批布局,还是等待放量突破再进场?
分享观点,瓜分好礼 👉️ https://www.gate.com/post
📅 2/27 16:00 - 3/1 12:00 ( UTC+8 )
五角大楼对抗威胁到Anthropic AI的安全措施和$200 百万防御合同
领先人工智能实验室与美国国防机构之间日益紧张的局势已升级为一场关于人类中心AI和战场使用的高风险冲突。
人类中心坚持反对五角大楼压力
人类中心拒绝了美国国防部要求从其系统中移除关键AI安全限制的要求,尽管其2亿美元的合同现在岌岌可危。该公司明确表示不会在其与国防部关于其先进模型在军事网络中的部署方式的争议中退让。
这家创业公司的竞争对手OpenAI、谷歌和xAI在2023年获得了类似的高达2亿美元的国防部奖励。然而,这些公司同意让五角大楼在其非机密环境中使用其系统,以执行所有合法任务,从而赋予政府更广泛的操作灵活性。
相比之下,人类中心在7月与国防部签署了自己的2亿美元合同,成为首个将其模型直接嵌入机密网络中的任务流程的AI实验室。此外,其工具还被整合到敏感的国防行动中,使公司成为美国国家安全AI建设的核心。
与五角大楼官员的谈判在近几周变得日益紧张。一位熟悉谈判的人士表示,摩擦“可以追溯到几个月前”,远在公开披露Claude被用于与委内瑞拉总统尼古拉斯·马杜罗的扣押行动相关的美国行动之前。
关于监控和自主武器的争议
冲突的核心在于军事当局能在多大程度上推动强大的AI模型用于监控和自主。人类中心寻求具有约束力的保证,确保其技术不会被用于完全自主的武器或大规模国内监控美国人,而国防部则希望避免这些限制。
但这不仅仅是狭隘的商业分歧,而是涉及未来战场自动化的高调AI安全争端。五角大楼坚持最大法律自由度,而人类中心则认为目前的系统尚不能在大规模的生命攸关决策中被信任。
在一份详细声明中,CEO达里奥·阿莫迪警告称,在“有限的情况下”人工智能可能“破坏而非捍卫民主价值观”。他强调,一些应用“完全超出当今技术能够安全可靠完成的范围”,并指出在复杂军事行动中滥用的风险。
关于监控的担忧,阿莫迪辩称,强大的系统现在可以“将这些零散、个别无害的数据自动整合成任何人的生活全景,规模巨大。”此外,他警告说,如果这种能力被用来内部监控,可能会从根本上改变公民与国家之间的关系。
阿莫迪重申,人类中心支持将AI用于合法的对外情报收集,但他补充说,“将这些系统用于大规模国内监控与民主价值观不符”,在海外情报和美国内部监控之间划出了一条严格的伦理界线。
威胁、截止日期与法律压力
在星期二于五角大楼举行的会议中,阿莫迪与国防部长皮特·赫格斯特就加剧了力量的角逐。赫格斯特威胁将人类中心标记为“供应链风险”或援引《国防生产法》以强制执行。星期三晚上,国防部提出了所谓的“最后和最终的提议”,给公司直到星期五东部时间下午5:01作出回应。
人类中心发言人承认星期三收到了修订的合同条款,但表示这“几乎没有任何进展”。据她说,作为折衷的措辞被配以法律措辞,实际上允许关键安全措施“随意忽视”,削弱了既定的保护措施。
面对日益增长的压力,阿莫迪表示:“战争部已声明只与同意‘任何合法用途’并移除上述安全措施的AI公司签约。”他补充说,官员们威胁如果拒绝,将切断人类中心的系统接入,并将其列为“供应链风险”;然而,他坚持认为,“我们凭良心不能同意他们的请求。”
对五角大楼而言,问题的表述则不同。发言人肖恩·帕内尔在星期四表示,国防部“无意”将人类中心的系统用于完全自主武器或对美国人进行大规模监控,指出此类做法是非法的。相反,他认为该部门只是希望公司允许其技术用于“所有合法目的”,并将此描述为“简单、常识性的请求”。
人身攻击与公众支持
争端在高层也变得个人化。星期四晚上,美国国防部副部长埃米尔·迈克尔在X平台攻击阿莫迪,声称这位高管“除了试图个人控制美国军方之外一无所求”。迈克尔还进一步写道:“令人遗憾的是,达里奥·阿莫迪是个骗子,具有神格情节。”
然而,人类中心得到了科技界部分的强力支持。在一封公开信中,来自谷歌和OpenAI的200多名员工公开支持该公司的立场。此外,一位前国防部官员告诉BBC,赫格斯特用“供应链风险”标签的理由“极其牵强”,引发对五角大楼论据稳健性的质疑。
这场对抗也成为更广泛关于AI伦理和军事政策辩论的焦点。AI研究人员和民权倡导者密切关注,将此案视为考验防务机构在多大程度上可以推动私营实验室放宽对先进系统的内置限制的早期试金石。
美国国防AI的战略利益
尽管言辞激烈,阿莫迪强调他“深刻认识到利用AI捍卫美国的生存至关重要”。他将此问题定位为负责任的部署问题,而非反对国家防御,认为美国AI能力的长期信誉取决于维护民主规范。
人类中心的代表表示,该组织仍“准备继续对话,并致力于确保国防部和美国战士的运营连续性”。然而,随着五角大楼截止期限的临近和供应链风险威胁仍在桌面上,双方都面临在不破坏关键创新的情况下解决僵局的压力。
最终,人类中心与五角大楼在安全、监控和自主方面的冲突已成为军事AI治理的早期标志。其结果可能会影响未来人类中心AI模型和竞争系统在美国国防行动中的合同、限制和部署方式。