快訊

    【財經一點通】五角大廈嚴厲施壓 Anthropic扛得住?一舉定義往後數十年的AI紅線

    2026-02-23 14:55 / 作者 Fomo研究院
    面對五角大廈的強硬態度,Anthropic如何因應,將為往後AI倫理立下界限。路透社
    Anthropic竟然和美國國防部吵起來了?

    Anthropic的底層邏輯,從它脫離OpenAI的那一天起,就刻著兩個字:安全。

    但當這份對安全的堅持,遇上了五角大廈對「絕對勝率」的追求時,一場關於AI靈魂的博弈正式拉開了序幕。

    實驗室裡的「憲法」,戰場上的「束縛」

    這場紛爭的導火線,是Anthropic與美國國防部那份價值2億美元的合約。

    但對於Anthropic來說,他們引以為傲的是「憲法AI」(Constitutional AI),給模型一套不可逾越的價值觀。

    他們堅持兩條紅線:第一,不能用於對美國公民的大規模監控;第二,不能用於開發「無人干預」的全自動殺傷性武器。

    但在五角大廈眼中,這叫「自縛手腳」。國防部長Pete Hegseth的邏輯非常直接:在戰爭中,法律是唯一的邊界。

    只要是「合法用途」(All lawful purposes),AI就應該像子彈或導彈一樣,聽從指揮官的調度,而不是在關鍵時刻跳出一個視窗說:「對不起,這違反了我的使用政策。」

    委內瑞拉行動:當「理論」遇見「實戰」

    雙方的矛盾在2026年1月的「Maduro抓捕行動」中徹底爆發。

    據報導,美軍在該行動中透過Palantir的系統調用了Claude進行情報分析與決策輔助。行動結束後,Anthropic的員工竟然去詢問合作夥伴Palantir:「你們是不是把Claude用在了這次任務中?」

    這個舉動徹底激怒了軍方。在五角大廈看來,這簡直是「後院失火」。我付錢買了你的技術,難道每次行動還要向你的審查員匯報?這種「意識形態」的干預,被軍方視為對國家安全的潛在威脅。

    「供應鏈風險」:最嚴厲的政治制裁

    隨著談判陷入僵局,五角大廈的耐心正迅速消磨。國防部長Pete Hegseth領導下的鷹派官員,已經發出了迄今為止最嚴厲的威脅:考慮將Anthropic列為「供應鏈風險」。

    這是一個極其沉重的標籤。通常,這個名單是留給華為或TikTok這種「敵對勢力」的。一旦坐實,意味著所有國防承包商(包括Palantir、Amazon等)都必須證明自己的系統中沒有使用Claude。

    對於估值超過3800億美元、年營收達140億美元的Anthropic來說,2億美元的合約損失只是毛毛雨,但「供應鏈風險」的標籤會產生連鎖反應,動搖其在政商界的信任根基。

    一場價值觀的代理人戰爭

    在Trump政府強勢回歸、力主為AI鬆綁的政治氛圍下,Anthropic的堅持被部分人貼上了「覺醒派」(woke)的標籤,視為不切實際的理想主義。

    這場衝突,已演變成矽谷自由派價值觀與華盛頓鷹派國家安全觀的正面碰撞。

    Anthropic的抉擇,正被整個AI行業密切注視。據報導,與其競爭的OpenAI、Google等公司,在面對五角大廈的要求時,態度更為靈活。

    如果Anthropic最終被迫屈服或被逐出局,將為整個行業立下一個殘酷的先例:在國家安全面前,企業的道德原則不堪一擊。

    這場爭議也暴露了AI倫理在實踐中的巨大挑戰。即便Anthropic堅持其原則,但在高度機密的軍事環境中,技術上如何有效監督和執行這些「紅線」,本身就是一個巨大的難題。

    目前,這場高風險的博弈仍在繼續。Anthropic重申其支持美國國家安全的承諾,但同時也堅守其「硬性限制」。這不僅是Anthropic一家的戰鬥,更是整個AI產業在踏入權力核心地帶時,必須面對的第一次成年禮。

    最終的結果,將深刻定義未來數十年科技、權力與倫理之間的關係。

    ​本文由臉書粉專「Fomo研究院」授權提供

    Fomo研究院 收藏文章

    本網站使用Cookie以便為您提供更優質的使用體驗,若您點擊下方“同意”或繼續瀏覽本網站,即表示您同意我們的Cookie政策,欲瞭解更多資訊請見