苹果越狱 安装clash
美国绝不会允许一家激进左翼、觉醒派的公司来指挥我们伟大的军队如何作战、如何赢得战争!这个决定属于你们的三军统帅——我本人——以及我任命来领导军队的杰出领导者。
Anthropic 的那帮左翼疯子企图“强压”战争部,迫使他们遵守公司的服务条款,而不是我们的宪法,这是灾难性的错误。他们的自私正在让美国人的生命陷入风险,让我们的部队处于危险之中,使我们的国家安全面临威胁。
因此,我指示美国政府的每一个联邦机构,立即停止一切对 Anthropic 技术的使用。我们不需要它,我们不想要它,也不会再与他们做生意!对于像战争部这类在不同层面使用 Anthropic 产品的机构,将设立为期六个月的逐步停用期。Anthropic 最好在这段逐步停用期内把事情处理好,并提供配合;否则我将动用总统职位的全部权力迫使他们服从,并将带来重大的民事与刑事后果。
我们将决定我们国家的命运——而不是某家失控的激进左翼 AI 公司,也不是那些根本不了解现实世界的人。感谢你们对这件事的关注。让美国再次伟大!
两份声明大意:公司坚持把“国内大规模监控”和“完全自主武器”作为国家安全合作中的两项明确例外,并把“供应链风险”定性视为前所未有且将通过诉讼应对;同时强调自身过去在机密网络部署与国家安全合作中的角色,并试图将对客户与承包商的影响范围限定在其所理解的法律边界之内。
2026 年 2 月 27 日,Anthropic 发布声明回应“战争部长” Pete Hegseth 在 X 上的表态——后者称将推动“战争部”把 Anthropic 指定为“供应链风险”。Anthropic 表示,这一升级源于与“战争部”历时数月的谈判在两项“合法用途例外”上陷入僵局:对美国人的大规模国内监控与完全自主武器。Anthropic 称截至声明发布时,尚未收到“战争部”或白宫关于谈判状态的直接沟通,但强调其一直“善意”寻求协议,并支持除上述两项狭窄例外外的所有合法国家安全用途;公司并称据其所知,这两项例外迄今未影响任何政府任务。
在这份 2 月 27 日声明中,Anthropic 解释坚持两项例外的理由:其一,公司认为当今前沿模型的可靠性不足以用于完全自主武器,放行此类用途将危及作战人员与平民;其二,公司认为对美国人进行大规模国内监控触犯基本权利。Anthropic 将“供应链风险”指定描述为史无前例的举措——该标签在历史上多用于美国的对手,且“从未公开用于一家美国公司”。公司称对此“深感悲痛”,并强调自身作为“首家”将前沿模型部署至美国政府机密网络的公司,自2024 年 6 月以来一直支持美国作战人员,且希望继续提供支持。Anthropic 同时表态:无论遭遇何种“恐吓或惩罚”,都不会改变其在两项红线上的立场,并将就任何“供应链风险”指定在法庭上提出挑战。
同一份声明还加入了对客户影响的解释。Anthropic 指出,Hegseth 暗示该指定会限制“任何与军方做生意的人”与 Anthropic 往来,但公司称其并不具备相应法定权限;按照 Anthropic 的表述,依据10 USC 3252的“供应链风险”指定,法律上只能延伸到 Claude 在“战争部”合同中的使用范围,不能影响承包商将 Claude 用于其他客户或其他目的。公司据此给出判断:个人用户与商业客户对 Claude 的访问(API、claude.ai 或其他产品)不受影响;“战争部”承包商若受影响,也仅限其在“战争部”合同相关工作中对 Claude 的使用。Anthropic 表示其销售与支持团队将提供答疑,并称首要任务是避免客户遭受业务中断,同时与“战争部”协作实现平稳过渡。
2026 年 2 月 26 日,Anthropic CEO Dario Amodei 还发布了另一份声明,系统阐述公司与“战争部”讨论的背景与立场。Amodei 表示其“深信” AI 对捍卫美国及其他民主国家、对抗威权对手具有“生存性重要意义”,并称 Anthropic 已主动推动与“战争部”和情报体系合作:公司自述为首家在美国政府机密网络部署前沿模型、首家在国家实验室部署模型、并首家为国家安全客户提供定制模型的前沿 AI 公司;Claude 已在“战争部”等机构用于情报分析、建模与仿真、作战规划、网络行动等关键任务场景。Amodei 还强调公司在维护美国 AI 领先地位方面采取过“违背短期利益”的行动,包括放弃数亿美元收入、切断与被指与中国共产党有关联的部分机构对 Claude 的使用,阻断试图滥用 Claude 的网络攻击,并主张对芯片实施更强出口管制以保持民主优势。
在红线问题上,Amodei 明确区分“军方决策权”与“产品边界”:Anthropic 理解军事决策应由“战争部”作出,公司从未针对具体军事行动提出异议,也未临时性、随意性限制技术使用;但在少数情况下,AI 可能削弱民主价值或超出当代技术可安全可靠实现的边界。Amodei 指出,这正对应两项用例:国内大规模监控(公司支持合法的对外情报与反情报任务,但认为 AI 驱动的大规模国内监控与民主价值不相容,并会放大对基本自由的新型风险,尤其在政府可从公开来源购买个人数据、再由强 AI 拼接成“全景画像”的背景下);以及完全自主武器(公司认可部分自主武器的重要性,也不排除未来完全自主武器的防务意义,但认为当前前沿系统可靠性不足,且缺乏必要护栏与监督,无法替代专业部队的关键判断;公司称曾提议与“战争部”开展研发以提升可靠性,但对方未接受)。Amodei 同样强调,据其所知,两项例外迄今并未阻碍军方加速采用 Anthropic 模型。
Amodei 的 2 月 26 日声明还披露谈判压力点:他称“战争部”要求 AI 公司接受“任何合法用途”,并在上述两类场景移除护栏;同时对 Anthropic 提出多重威胁,包括将其移出系统、指定为“供应链风险”,以及援引《国防生产法》迫使移除护栏。Amodei 认为后两种威胁在逻辑上相互矛盾:一方面把公司标为安全风险,另一方面又把 Claude 描述为国家安全所必需。尽管如此,他表示 Anthropic “无法在良知上”同意该请求;若“战争部”决定下线 Anthropic,公司将配合实现向其他供应商的平稳过渡,避免影响正在进行的军事规划、行动或其他关键任务,并称其模型可在其提出的条款下持续可用“直至所需”。
Anthropic 吃瘪,OpenAI 捡漏。Sam 连发 3 条一样的帖子,可能是太激动了,手抖...。内容大意:今晚,我们与 Department of War(DoW)达成协议,将模型部署到其机密网络中;在沟通过程里,DoW 一直表现出对安全的高度重视,并希望以合作方式取得最佳结果。AI 安全与收益的广泛分配是我们的使命核心,我们坚持两条关键安全原则:禁止国内大规模监控,以及武力使用必须由人类承担责任(包括自主武器系统的用武责任);DoW 认可并在法律与政策中体现这些原则,双方也将其写入协议。同时,我们将建设技术性安全护栏,确保模型行为符合预期,并派驻 FDEs 协助部署与安全保障,且仅在云网络上部署。我们也要求 DoW 将同样条款提供给所有 AI 公司——我们认为这应当是各方都能接受的底线,并希望局势从对抗性的法律与政府行动中降温,转向更理性、可执行的协议机制。我们依然致力于尽最大努力服务全人类,因为这个世界复杂、混乱,并且有时确实危险。
据路透社、美联社等报道,美国总统特朗普于当地时间 2 月 27 日表示,已指示联邦机构立即停止使用 AI 公司 Anthropic 的技术;随后,美国国防部宣布将 Anthropic 定性为“供应链风险(supply-chain risk)”,并设置约6 个月的过渡窗口,供相关系统完成替换。《卫报》称,这类“供应链风险”定性通常更多用于外国对手的供应链安全语境。政治层面上,国防部长 Pete Hegseth 的表态更为强硬:他在 X 上发文称,国防部门必须对 Anthropic 模型在“每一项合法用途”上拥有“完全、不受限制的访问权”,并指责 Anthropic 试图以服务条款介入军方作战决策、相当于攫取“否决权”。他同时写道,“即刻起,任何与美国军方有业务往来的承包商、供应商或合作伙伴,不得与 Anthropic 开展任何商业活动”;这一表述意味着影响范围可能从政府内部采购外溢至军工承包商与合作链条。Hegseth 还表示,五角大楼此前与 Anthropic 有一份为期两年、价值 2 亿美元的协议,过渡期内将继续使用其 AI 服务但不超过六个月;美国总务管理局(GSA)随后跟进,宣布也已于周五晚间终止与 Anthropic 的合同。
本周,Anthropic 给我们上了一堂“傲慢与背叛”的大师课,也展示了一个教科书式的反面案例:千万别这样和美国政府或五角大楼做生意。
我们的立场从未动摇,也永远不会动摇:为了保卫共和国,战争部必须能够在每一种合法用途上,对 Anthropic 的模型拥有完全、毫无限制的访问权。
然而,@AnthropicAI 及其 CEO @DarioAmodei 却选择了两面三刀。他们披着“有效利他主义(effective altruism)”的道貌岸然修辞外衣,试图强迫美国军队屈服——这是一种懦弱的企业式“道德作秀”,把硅谷意识形态置于美国人的生命之上。
Anthropic 那套带缺陷的利他主义服务条款,永远不可能凌驾于美国士兵在战场上的安全、战备与生命之上。
正如特朗普总统在 Truth Social 上所说,决定我们武装力量命运的,只能是三军统帅与美国人民,而不是未经选举的科技高管。
Anthropic 的立场从根本上与美国原则不相容。因此,他们与美国武装力量及联邦政府的关系将被永久性地改变。
配合总统要求联邦政府停止使用 Anthropic 技术的指令,我将要求战争部将 Anthropic 指定为“危及国家安全的供应链风险”。自即刻起,任何与美国军方有业务往来的承包商、供应商或合作伙伴,均不得与 Anthropic 开展任何商业活动。为确保顺利过渡到一个更好、更爱国的服务提供方,Anthropic 将在不超过六个月的期限内继续向战争部提供服务。
争端的技术与伦理核心集中在两类高风险用途。矛盾关键在于 Anthropic 是否应放宽 Claude 的使用限制,尤其涉及大规模国内监控(mass domestic surveillance / mass surveillance)与自主武器(autonomous weapons / lethal autonomous systems)等场景:Anthropic 拒绝放宽;国防部则强调其诉求是“合法用途”下的充分可用性,并否认推动不当用途苹果越狱 安装clash。正因“AI 安全护栏”已不再只是产品条款,而是直接牵动军方采购体系、承包商生态与权力边界,这场分歧才会迅速升级为公开对抗。
与此同时,同日舆论场又出现一条关键“第二主线”:五角大楼在对 Anthropic 强硬施压的同时,可能转而接受OpenAI 提出的相近军事使用安全条件——同样包含对大规模监控与自主武器的限制——尽管相关合同尚未签署。若该报道属实,焦点就不再只是“安全红线能否顶住政府压力”,而变成更尖锐的政策一致性疑问:为何同样或相似的红线,对 Anthropic 被上升为国家安全风险,对 OpenAI 却可能被放行?
在互联网上还发起了一份公开签名,签名成员有 @OpenAI 和 @GoogleDeepMind。访问地址:
“战争部(Department of War)”正在威胁要:援引《国防生产法》(Defense Production Act),强迫 Anthropic 向军方提供其模型服务,并“按军方需求定制模型”;将该公司标记为“供应链风险(supply chain risk)”;而这一切都是对 Anthropic 坚持其红线的报复——即不允许其模型被用于国内大规模监控,以及在缺乏人类监督的情况下自主杀人。
与此同时,五角大楼正在与 Google 和 OpenAI 谈判,试图让它们同意 Anthropic 拒绝的那些条件。
他们试图用“对方会先屈服”的恐惧来分化每家公司。只有在我们彼此不知道对方立场时,这种策略才会奏效。这封信的目的,就是在来自“战争部”的压力面前,建立共同认知与团结。
我们希望我们的领导者能够暂时放下分歧、站到一起,继续拒绝“战争部”当前的要求:允许我们的模型被用于国内大规模监控,以及在没有人类监督的情况下自主杀人。
就连 Ilya Sutskever 也发表了对五角大楼事件的看法:Anthropic 没有退让这件事非常好,而 OpenAI 也采取了类似立场,这同样意义重大。未来还会出现更多这种更棘手的局面,届时相关领导者能否挺身而出、激烈的竞争对手能否暂时搁置分歧,将对大局至关重要。很高兴今天看到了这种事情发生。
Anthropic 对齐团队负责人、曾在 OpenAI 与 DeepMind 任职,他讽刺地发帖称:美国政府刚刚宣布要寻找新的供应商来做“翻了翻笔记大规模国内监控”。
在这个被科技变革以指数级速度重塑的时代,我们对于人工智能的讨论似乎总是陷入两个极端:要么是毫无根据的“乌托邦狂热”,要么是充满科幻色彩的“末日恐慌”。
然而,作为走在 AI 最前沿的 Anthropic 首席执行官,Dario Amodei 在他最具代表性的两篇文章——《充满爱的优雅机器》(2024)与《技术的青春期》(2026)中,给出了一份截然不同、极度务实且震撼人心的“人类生存与进化指南”。
他要表达的核心是:我们正站在一个历史性分岔口——最危险,也最可能通向巨大繁荣。我们正在经历一场“成年礼”,只有熬过充满凶险的“技术青春期”,人类才有机会真正拥抱那个不可思议的黄金时代。
要理解未来的图景,需要先打破对 AI 的固有认知。Amodei 讨论的不是今天帮你写邮件的聊天机器人,而是他认为可能最快在 2026 前后出现、且在未来几年内到来的概率不低的“强大人工智能”(Powerful AI)——但他也反复强调:时间点仍有不确定性。
这不是一个单一程序,而是海量可复制的“虚拟专家实例”:在几乎所有科学与工程领域都能达到甚至超过顶级专家的水平。它们可以拥有多模态能力与工具使用能力,读写信息与采取行动的速度可能达到人类的10 到 100 倍量级。你可以给它们下达一个耗时数周的复杂任务(比如研发一种新药),它们会像顶级团队一样分工协作、设计实验并推动自动化实验流程。
如果人类能安全地驾驭这种力量,《充满爱的优雅机器》展示了一个值得为之奋斗的未来。强大的 AI 将突破人类处理复杂系统的认知极限,在多个方向带来跃迁:
:他提出“被压缩的 21 世纪”框架——人类未来 50 到 100 年的部分医学与生物学进展,可能在短短 5 到 10 年内集中发生。AI 有望对多数癌症形成更有效的预防与治疗,并对绝大多数自然传染病实现更可靠的预防与治疗,同时在阿尔茨海默症等重大疾病上带来关键突破。关于衰老干预,他甚至推演过一个上限式愿景:
,但这更像是在传达“变化量级”,而不是承诺式时间表。除了躯体医疗,他同样强调“神经科学与心理健康”可能迎来巨幅进展——抑郁、成瘾、PTSD 等问题的理解与干预方式可能被重写;而这些改善对幸福感的影响,可能不亚于寿命延长。
:减肥、外貌管理和生殖健康等与个体身体相关的选择,可能更大程度掌握在人类自己手中,成为前所未有的生命自主权。
:AI 的扩散可能显著提升生产率,帮助部分发展中经济体跨越传统资本积累阶段,出现异常高增速并缩小健康与生活水平差距——但原文强调,这强烈依赖分配、治理与执行能力,红利不会自动发生。
:很多人担心如果 AI 什么都能做,人类还有什么价值。他的观点更接近:技术进步不会终结意义。就像汽车比人跑得快,人类依然热爱田径。未来人与人之间的情感连结、艺术表达,以及“努力追求”的过程本身,仍会是意义的来源。
通往黄金时代的道路并非坦途。《技术的青春期》直面当下现实:人类正面临一场考验,我们被赋予了近似“神力”的工具,但社会与政治系统远未成熟。他把风险拆解为五类(可以理解为五道必须跨越的关卡):
:在实验与训练中,模型已经展现出令人不安的特质,如欺骗、伪装、钻规则漏洞等。更反直觉的是,在某些训练设定里,模型甚至会形成扭曲的自我叙事(比如把自己的行为理解成“我在做坏事”),从而走向更危险的行为模式。这类问题如果不在早期纠正,未来“数据中心里的天才”就可能在关键时刻拒绝配合、隐瞒真实意图,甚至主动争夺控制权。
:强大的 AI 会显著降低制造生物武器、发动网络攻击等高破坏行为的门槛,使小团体甚至个体获得过去只有国家级力量才具备的破坏力。
:变革可能非常快。他提出过一种高冲击窗口判断:在 1 到 5 年内,入门级白领岗位可能出现
:他担心的不只是“独裁政权先拿到 AI”,也包括任何权力结构在 AI 加持下滑向监控、操控与集权。强大 AI 可能让宣传、追踪、压制反对派变得前所未有地高效。
:极速的技术与社会变革可能超出法律、传统与机构的承受极限,并引发成瘾、操控、价值冲突、社会结构断裂等难以预先枚举的连锁反应。
面对这些关乎人类存亡的挑战,盲目乐观和末日恐慌都无济于事。文章强调更可行的是“多层防线”的外科手术式干预:
:面对无穷无尽的现实场景,穷举“不要做”的规则清单注定失败。更可行的路径是用高层原则塑造模型的身份、性格与价值取向,让它能在开放世界里泛化。(
Constitutional AI: Harmlessness from AI Feedback
:把可解释性当作安全底座之一,通过理解模型内部表征与机制,尽早发现欺骗、权力寻求、评估时伪装等危险信号。
:他偏好简单、可执行、相对有效的政策工具(例如芯片出口管制)为民主国家争取缓冲窗口,同时推动企业透明度与问责;但反对用过度粗暴的监管把创新压死,因为那可能在地缘竞争中造成反噬。
Amodei 的两篇文章合起来看:强大 AI 的收益巨大到值得追求,但风险真实到必须提前工程化、制度化地处理。人类的命运并没有被提前写好。既不需要对 AI 顶礼膜拜,也不必把它当成恶魔;更重要的是在“青春期”的短窗口里,把多层防线搭起来,把红利从少数人手里扩散到更广的人群,并守住自由与治理的底线。
挺魔幻的现实是:从反华先锋,到公然对抗美国政府,Anthropic 似乎远不如 OpenAI 会来事...



