我刚刚注意到一件相当令人担忧的事情。在过去几年里,高级管理人员的安全问题已经变得不可忽视了。自去年底发生在 UnitedHealthcare 董事长身上的事件以来,对大型公司高管的袭击次数同比飙升了225%。今年的平均安全支出约为130,000 美元,比前一年增长了20%。



在 AI 行业,这一趋势更加明显。2024 年,顶级 AI 公司 CEO 的安全支出合计超过 4500 万美元。Google 的桑达尔·皮查伊(Sundar Pichai)支出超过 800 万美元,增长了 22%;NVIDIA 的 CEO 则花到 350 万美元,增长了 59%——最近如此。

OpenAI 的 CEO 山姆·奥特曼(Sam Altman)也没能逃过这种局面。他的住所在4月的4天内遭到两次袭击:第一次是纵火攻击,第二次是枪击。在第一起案件的嫌疑人社交媒体发文中,他表示自己担心“AGI 的存在风险”,而这一概念也正是 OpenAI 一直在公共沟通中强调的重点。

有趣的是,正是在这里,矛盾变得十分清晰。公开场合,奥特曼谈到 AI 是“最大的机遇”,但与此同时,他在2016年于怀俄明州建造了地下掩体,配备了足够的武器和食物,能够支撑一支部队。这是一种双向下注:一方面公开押注 AI 将会成功;另一方面又暗中准备,万一它失去控制,就能应对。

这两次袭击发生在 OpenAI 与美国国防部签署合同之后,合同内容是让 ChatGPT 在国家安全防务的秘密网络中运行。回报则是大型城市中的反 AI 示威活动上演,并且仅在一天之内,ChatGPT 的卸载安装量增加了295%。

他所谓的“叙事”——关于 AI 存在风险的说法——确实有助于募集资金和推动监管层面的谈判;但最终,这个工具却反过来撞上了他的门。他所传播的恐惧,反而成了推动某些人起来反对他的动力。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论