《タイム》誌、アントロピックを世界で最も破壊的な企業に選出

By: blockbeats|2026/03/13 13:19:55
0
シェア
copy
オリジナル記事のタイトル:世界で最も破壊的な企業
オリジナル記事の著者:Leslie Dickstein, Simmone Shah, TIMES
翻訳:Peggy, BlockBeats

編集後記:深夜の警備テストからペンタゴンとの公の場での対決まで、AI企業アントロピックが急成長を遂げていく中で直面した複数の緊張を綴った。記事では、まず同社がAIの潜在的なリスクを社内でどのように評価したかを描き、クロードの技術的ブレークスルーとビジネスの成功事例をレビューし、さらに軍事分野でのAIの実用化について紹介する。

事件が展開されるにつれ、著者らはオートノマスウェポン、大量監視、AI制御をめぐるアントロポニックの米軍との論争を、レッドチームリーダー、エンジニア、幹部、政策研究者、政府高官の視点から展開する。

この出来事を通じて、著者らは最終的に、人工知能が自身の進化を加速させ、戦争、統治、労働構造に深く入り込み始め、誰がまだ境界を設定することができるのかという、ますます緊急な問題を提起している。

以下は原文。

《タイム》誌、アントロピックを世界で最も破壊的な企業に選出

カリフォルニア州サンタクララのホテルの一室で、AI企業Anthropicの5人が神経質にノートパソコンを囲んでいる。2025年2月、彼らは近くの会議に出席していたとき、突然、不穏なメッセージを受け取った。コントロールされた実験の結果、クロードの新バージョンの次期リリースが、テロリストによる生物兵器の作成を助けるかもしれないことが示された。

これらの個人はアントロピックの「フロンティア・レッド・チーム」の一員であった。彼らの仕事は、クロードの高度な能力を研究し、サイバー攻撃からバイオセキュリティの脅威、さまざまな可能性まで、最悪のシナリオのリスクをシミュレートすることだった。知らせを受けた二人は急いでホテルの部屋に戻り、ベッドを横倒しにしてその場しの机として使い、検査結果を慎重に検討し始めた。

何時間もの緊迫した分析の後でも、新製品が十分に安全かどうか判断できませんでした。最終的に、Anthropicは、チームがリスクが管理可能であることを確認するまで、この新しいモデル、Claude 3.7 Sonnetのリリースを丸10日延期することを決定しました。

10日間という短い時間ですが、世の中を急速に変えていく業界のテクノロジーの最前線にいる会社にとっては、長い1世紀のような時間でした。

ローガン・グラハム(元レッドチーム代表)は、会社だけでなく世界全体にとって、人類が重大な岐路に立たされた挑戦の縮図として「生物兵器恐怖」事件を回想している。Anthropicは、今日の最先端のAIラボで最もセキュリティに重点を置いた組織の1つです。しかし同時に、競争の最前線にも立ち、ますます強力なAIシステムを構築しようと努力している。社内では、この技術が制御されなければ、核戦争から人類の絶滅まで、一連の破滅的な結果を招く可能性があると、多くの従業員も考えている。

31歳になったグラハムは、まだ少年っぽさを漂わせているが、AIがもたらす計り知れない利益と計り知れないリスクのバランスを求める責任から決して躊躇しない。彼は言った:「比較的平和な世界で育ち、直観的に物事の修復方法を知っている成熟した大人のグループとどこかに部屋があると感じている人が多い」

「しかし現実には『大人の集団』は存在しない。その部屋さえないそして、あなたが探しているドアはありません。責任はあなたにある」この発言が十分警戒すべきものでない場合は、生物兵器の警告を思い出す様子を見てください。「とても面白くてエキサイティングな一日でした」

イラスト:TIMEのニール・ジェイミソン(画像ソース:アスケル:アーロン・ウォジャック; ゲッティイメージズ、上から時計回りに:Samyukta Lakshmi—Bloomberg; Brendan Smialowski—AFP; Tierney L. Cross—Bloomberg; Daniel Slim—AFP; Bridget Bennett—Bloomberg)

数週間前、ローガン・グラハムはアントロピックの本社でインタビュー中にこれらの問題について話し合った。TIME誌の記者が3日間かけて、企業の幹部、エンジニア、プロダクトマネージャー、セキュリティチームのメンバーにインタビューし、かつてAI競争で「異端児」と見なされていたこの企業が、なぜ突然フロントランナーになったのか、その理由を探った。

当時、アントロピックは、今年IPOの可能性に備えて投資家から300億ドルを調達したばかりだった。(余談だが、セールスフォースもアントロピックの出資者の一人であり、タイムマガジンのオーナーであるマーク・ベニオフはセールスフォースのCEOである)現在、アントロピックの評価額は3800億ドルに達し、ゴールドマン・サックス、マクドナルド、コカ・コーラなどの伝統的な巨大企業を凌駕している。

同社の収益成長率は隕石に他ならない。同社のAIシステム「Claude」は世界的なモデルとして称賛され 、 「 Claude Code」や「Claude Cowork」などの製品は「プログラマー」の意味を再定義している。

Anthropicのツールは非常に強力で、新しいリリースのたびに、資本市場に波紋を広げています。投資家は、こうした技術の進歩が、法律サービスからソフトウェア開発まで、業界全体を混乱させる可能性があることに徐々に気づいています。アントロピックはここ数カ月 、 「 未来の働き方」を形作る可能性が最も高い企業の1つと見なされている。

その後、アントロポニックは「未来の戦争形態」をめぐる激しい論争に巻き込まれた。

クロードは1年以上にわたり、米国政府が推奨するAIモデルで、最先端のAIシステムとして機密環境での使用が承認された最初のモデルです。2026年1月には、カラカスでベネズエラ大統領ニコラス・マドゥロを拘束するという大胆な作戦にも使われた。伝えられるところでは、この作戦では作戦計画とインテリジェンス分析にAIが使われ、実際の軍事行動に最先端のAIが初めて深く関与したことを示している。

しかし、その後の数週間で、アントロピックとアメリカの関係は、国防総省は急速に悪化した。トランプ政権は2月27日、アントロピックを「国家安全保障サプライチェーンリスク」に指定すると発表した。

事態は瞬く間に公の紛争に発展した。トランプ大統領は、Anthropicのソフトウェアに対する政府のすべての使用を停止するよう命じた。ピート・ヘグセス国防長官はさらに、政府に協力するいかなる企業も、アントロピックとの取引はもはや行わないと宣言した。一方、Anthropicの最大の競争相手であるOpenAIは、迅速に介入し、関連する軍事契約を引き継いだ。

こうして、かつて「世界で最も破壊的」と見られていたAI企業は、突然、別の、より大きな勢力 ― ― 自国の政府 ― ― によって破壊されていることに気づいた。

この睨み合いの中心にあるのは、アメリカで最も強力な武器の1つと考えられているこの技術に境界を設定する権限を持つのは誰ですか?

アントロポニックは、その道具が戦争に使われることに反対していない。米国の軍事力を強化することが、国家の脅威を抑止する唯一の現実的な方法だと考えている。しかし、CEOのダリオ・アモデイは、ペンタゴンが政府との契約を再交渉し、AIの使用を「すべての合法的な使用」に拡大しようとしていることに反対している。

アモデイは2つの具体的な懸念を提起した:1つ目は、AnthropicのAIを完全に自律した武器システムで使用することを望まないこと、2つ目は、Anthropicのテクノロジーをアメリカ国民の大規模な監視に使用することに反対すること。

しかし、ピート・ヘグセス(米国)の見解では、国防長官)とその顧問が、軍がどのように戦うべきかを指図しようとしている民間企業と似たスタンスである。

アメリカは国防総省は、アンソロポニックが「不必要な安全ガードレールの設定」を主張し、さまざまな仮定のシナリオを絶えず議論し、その後の交渉に時間を費やすことで、実際には双方の協力関係を弱めてきたと考えている。

トランプ政権から見れば、アモデイ(アンソロピーCEO)の態度は傲慢であり、頑固でもある。企業の製品がどんなに高度であっても、その判断を軍事指揮系統に挿入すべきではない。

ペンタゴンの技術担当陸軍次官補エミール・マイケルは、この交渉について次のように述べている。「この状況はこのまま引きずった。想像も理解もできないような例外を除いて、300万人の部署を管理することはできない」

イラスト:TIMEのKlawe Rzeczy - イメージソース:Denis Balibouse—ロイター

シリコンバレーからキャピトルヒルまで、多くのオブザーバーが疑問を投げかけています。この嵐は本当に単なる契約上の争いなのか?

トランプ政権の行動は、どちらかといえば政治的に不同意な姿勢の会社を押さえ込もうとするものだと考える評論家もいる。ダリオ・アモデイ氏は内部リークしたメモで 、 「 国防総省とトランプ政権は、私たちがトランプに寄付しなかった本当の理由で、私たちを嫌っている。我々は彼を独裁者がするように賞賛したわけではない(サム・アルトマンとは違う ) 。我々はAI規制を支持しているが、これは彼らの政策アジェンダと矛盾するものであり、我々は(職の入れ替え問題のような)多くのAI政策問題について真実を語り、彼らと共謀していわゆる安全劇を仕掛けるのではなく、主要な収益に関する原則を貫いてきた」と述べた。

しかし、エミール・ミヒャエル(陸軍次官補)はこの主張を「完全な捏造」として否定した。Anthropicをサプライチェーンリスクに挙げているのは、同社の姿勢が前線の戦闘員を危険にさらす可能性があるからだと述べた。「陸軍省の仕事は政治ではなく、国家を守ることだ」

アントロポニックの長年にわたる独立の企業文化は、今や国内の政治分裂、国家安全保障上の懸念、そして切り裂かれた企業の競争環境と衝突している。今回の衝突が同社に与えた被害の程度は依然不透明だ。当初の「サプライチェーンリスク」の脅威は後に絞り込まれた ― ― Anthropicによると、この制限は現在、軍事契約にのみ適用される。3月9日、アントロピックはこの「ブラックリスト」の決定を覆そうとアメリカ政府を提訴した。一方、顧客の中には、同社の姿勢を道徳的発言と捉え、ChatGPTからClaudeに切り替えた人もいるようだ。

しかし、今後3年間、同社はまだ友好的ではない政府環境で舵取りをしなければならない。政府内の一部の関係者は、同社に対して明確な反感を抱いているAnthropicの競合他社と密接な関係を持っている。

「ペンタゴンの嵐」は、すでにハイリスクの倫理的ジレンマの舵取りに慣れている企業にも、不安な疑問を投げかけてきた。この睨み合いの中で、アントロピックは引き下がらなかった。同社は、たとえビジネスを犠牲にしても、そのコアバリューを守ったと主張している。

しかし、他の機会にも妥協してきた。ペンタゴンの睨み合いと同じ週に、アントロピックは、同業他社が同じ基準を遵守する気がないとして、訓練モデルの安全保障コミットメントの中核となる条項を弱めた。

次のような疑問が生じます。競争圧力がますます強まれば、この会社は今後、他にどのような譲歩をするのか。

その賭け金は絶えず上昇している。AIの能力が進歩すれば、AIを誰がコントロールするかをめぐる競争は激化するばかりだ。

クロードがベネズエラとイランでの作戦で使用したことは、高度なAIが世界で最も有力な軍隊にとって不可欠なツールとなっていることを示している。こうした動きの他にも、国家の力、国内政治、国家安全保障の必要性など、新たな圧力が山積している。そして、こうしたプレッシャーは、この非常に不安定な新技術を急速に展開している営利企業に降りかかる。

ある意味、アントロポニックの状況は、実験室にいる生物学者のようなもので、治療法を見つけるためには、実験で危険な病原体を進んで作らなければならない。Anthropicも同様の役割を担い、近道や無謀な行動さえいとわない競合他社にこのプロセスを任せるのではなく、AIの潜在的なリスクを積極的に探りながら、テクノロジーのフロンティアを押し進めてきた。

しかし、同社は慎重さを強調しながらも、Claudeを活用して、さらに強力な将来のバージョンの開発を迅速化している。

社内的には、今後数年間を会社だけでなく、世界全体にとっての重要な時期と捉えている人が多いようです。

脆弱性の発見と模擬攻撃を担当するレッドチームの責任者であるローガン・グラハム氏は 、 「 2026年から2030年の間に、最も重要なことが起こり、モデルが速くなり、強くなり、人間が制御できないほど速くなるかもしれないと想定すべきだ」と述べた。

Anthropicのセキュリティ責任者であるDave Orr氏は、この状況をよりストレートな比喩で表現しています。「崖の脇の山道を運転しています。一つのミスが命取りになる。そして今、私たちのスピードは時速25マイルから時速75マイルになりました」

サンフランシスコにあるアントロピックの本社5階にある、全体的に暖かく控えめなデザインです。木製の装飾、柔らかな照明が特徴です。窓の外には緑豊かな公園が広がっています。壁には計算機科学の先駆者アラン・チューリングの肖像が掛けられ、額装された機械学習論文が数枚並んでいる。

黒い衣装の警備員が、ほとんど誰もいない入り口をパトロールし、親切な受付係が、街頭説教者が配るポケットサイズの聖書の冊子を訪問者に手渡している。「Machines of Loving Grace」と題されたこの本は、ダリオ・アモデイが2024年に書いた約1万4000語の記事で、AIが科学的発見を加速させることで世界を変えることができるというユートピア的なビジョンを概説している。

2026年1月までに、アモデイは「テクノロジーの青年期」と題したほぼ新奇な長さの別の記事を発表し、このテクノロジーの裏面について詳述した。

サンフランシスコ出身のアモデイは生物物理学者。姉のダニエラ・アモデイと共にアントロピックを共同経営し、同社の社長を務めている。兄弟ともにOpenAIの初期社員。ダリオは、後に現在のAI熱狂の原動力となる重要な基礎となった、AIスケーリングの法則と呼ばれる重要な発見に関わった。一方、ダニエラは会社のセキュリティポリシーの管理を担当している。

当初、彼らはOpenAIの設立目的である「安全性を確保しながら、非常に有望で非常にリスクの高い技術を開発する」という目的に即したミッションを捉えていた。

しかし、OpenAIのモデルが強力になるにつれ、徹底的な議論とテストのための十分な時間を与えずに、サム・アルトマンが新製品の発売を急いでいると感じるようになった。結局、兄妹はOpenAIを辞め、自ら空振りをすることに決めた。

崖っぷちの山道を走っていて、一歩間違えると命取りになる 」 。


Anthropicのセキュリティ責任者、Dave Orr氏

2021年、パンデミックの真っただ中、AnthropicはAmodei兄弟と他の5人の共同創業者によって設立された。当初の準備会議はほぼZoomで行い、その後、椅子を公園に移して直接会社の発展戦略を話し合った。

当初から同社は別の方法での運営を模索していた。Anthropicは、製品を発売する前に、社会への影響を調査する専門チームを設立しました。専属の哲学者アマンダ・アスケルまで雇った。彼女の仕事は、AIシステム「クロード」の価値観と行動を形作り、複雑な道徳的不確実性の中で判断を下すことを教え、人間の創造者よりも賢いかもしれない未来に備えることだった。

アスケルは本作について次のように述べている。「6歳の子どもを育てながら、この子に良いこと、正しいことを教えるのが、本当にちょっと似ていることもあります。しかし問題は、15歳になる頃には、彼らはあらゆる面であなたより賢いかもしれないということだ」

同社は「効果的利他主義(EA ) 」 に深く根ざしている。EAは、合理的分析によって利他主義の効果を最大化することを提唱する社会的・慈善的な運動であり、壊滅的な結果につながるリスクを回避することが主な目標である。

20代前半、アモデイ兄弟はGiveWellに寄付を始めた。GiveWellは、慈善基金が実社会に最も大きな影響を与えることができる分野を具体的に評価するEA組織です。Anthropicの共同創業者7人は、今や書類上は億万長者だが、個人資産の80%を寄付すると約束している。

同社の哲学者アマンダ・アスケルはオックスフォードの哲学者ウィリアム・マカスキルの元妻であり、EA運動の共同創設者の一人でもある。ダニエラ・アモデイの夫は、ダリオ・アモデイの元ルームメイトであるGiveWellの共同創設者で、現在はアントロピックでセキュリティポリシーを担当しているホールデン・カーノフスキー。

しかし、アモデイ兄弟は「EA」のラベルを公に採用したことはない。この概念は、自称EAの弟子でアントロピックの投資家であったサム・バンクマン=フリード事件に続いて大きな論争の的となり、後にアメリカ史上最大の金融詐欺事件に連座した。

ダニエラ・アモデイ氏は次のように説明しています。「特定の点で特定の政治イデオロギーと交差するかもしれないが、特定の政治陣営に真に属さない人がいるのと少し似ている。そういう見方をする傾向がある」

シリコンバレーやトランプ政権の一部にとっては、人類学と効果的利他主義(EA)の結びつき自体が、疑念を抱かせるには十分である。アントロピックはバイデン前政権幹部を数人採用し、旧体制の名残のように見せかけ、選挙で選ばれなかった権力を使ってトランプのMAGA政治計画を妨害したとの見方もある。

トランプ政権のAI問題担当責任者であるDavid Sacks氏は、Anthropicが「洗練された規制攻略戦略」を進めていると述べ 、 「 作られたヒステリー」によって規制を推し進めていると非難した。同氏は、AIのリスクを誇張して厳しい規制政策を推し進め、競争優位性を獲得してスタートアップ企業を抑え込もうとしていると考えている。

一方、オペレーションの競合企業xAIのイーロン・マスクは、Anthropicを頻繁にあざけり、同社を「ミサントロピック」と表現している。彼は、この会社がAIシステムに父権主義的価値体系を浸透させようとする「分厚い」イデオロギーを持つエリート集団を表していると考えている。ソーシャルメディア・プラットフォームに対する保守的な批判が、彼らの視点を不当にモデレートしているのと同様のこの感情は、一部の人々の怒りを買った。

それでも、アントロピックの競合企業でさえ、その技術力を認めざるを得ない。NvidiaのCEOであるJensen Huang氏は、Dario Amodei氏の見解に「ほぼすべてのAIの問題に賛成しない」としながらも、Claude氏を「信じられない」モデルだと考えていると表明している。

2025年11月、チップ大手NvidiaはAnthropicに100億ドルを投資した。

ボリス・チェルニーは、新しい道具に次のような素朴な疑問を投げかけた。「今聴いている音楽は ? 」

2024年9月、ウクライナ生まれのエンジニアは、1カ月も経たないうちにアントロピックに入社したばかり。チェルニーは以前、Metaでソフトウェアエンジニアとして働いていた。チャットボットのクロードがパソコンで「自由に徘徊」できるシステムを開発した。

クロードが頭脳なら クロード・コードは手通常のチャットボットはチャットしかできなかったが、このツールはChernyのファイルにアクセスし、プログラムを実行し、他のプログラマと同様にコードを書いて実行することができた。

技師がコマンド入力後、クロードはチェルニーの音楽プレーヤーを開き、スクリーンショットを撮り、それから「メン・アイ・トラストの『ハスク』」と答えた。

チェルニーは「その瞬間、私は本当に吹き飛ばされた」と述懐し、声を弾ませた。

「逆説的に話しているように感じることもある」

アントロポニックの社会貢献チーム代表、ディープ・ガングリ

ボリス・チェルニーはすぐに社内でプロトタイプを共有した。クロード・コードはアントロポニック内で急速に広まり、チェルニーの最初の業績評価の際にCEOのダリオ・アモデイが「同僚にこのツールを『強制』しようとしているのか」と尋ねるほどだった。

2025年2月にAnthropicがClaude Codeの研究プレビューを公にリリースすると、外部の開発者がそれを試すために群がった。11月までに、Anthropicはクロードモデルの新しいバージョンをリリースした。このモデルをクロード・コードと組み合わせると、すでに自身のミスを検出して修正できるほど熟練しており、タスクを独立して完了できるほど信頼されていた。

それ以来、チェルニーは自身のコードを書くことをほぼ完全に止めた。

ビジネスの成長も爆発的に高まりました。2025年末までに、このプログラミングエージェント製品だけで得られる年間収益は10億ドルを超えた。2026年2月までに、この数字はさらに250億ドルに上昇した。業界調査会社のEpochとSemiAnalysisによると、Anthropicの収益規模は2026年末までにOpenAIを上回ると予想されている。

Anthropicは、今日までにエンタープライズAI市場の主要プレーヤーとしての地位を確固たるものにしています。新製品のリリースのほとんどすべてが資本市場に衝撃波を送る。

Anthropic が一連のプラグインを展開し、Claude を販売、財務、マーケティング、法律サービスなどのプログラマ向けでないアプリケーションに拡大すると、ソフトウェア業界企業の時価総額は短期間で 3,000 億ドル蒸発した。

ダリオ・アモデイ氏は以前、今後1~5年でエントリーレベルのホワイトカラーの半分が人工知能に取って代わられる可能性があると警告していた。また、政府や他のAI企業に対し、この問題の「ホワイトウォッシング」をやめるよう呼びかけた。

Anthropicの新製品リリースに対するウォール街の反応も、この点を裏付けているようだ。この企業のテクノロジーは、クラス全体の雇用を消滅させる可能性があると、市場は広く考えている。アモデイは、この変化が社会構造を作り変える可能性があるとさえ述べた。

記事では 、 「 これらの人々がどこに行くのか、どんな仕事をするのか、現時点では不透明だ。彼らが失業者や極度の低賃金の『下層階級』を形成するのではないかと懸念している」

Anthropicの従業員にとって、皮肉なことに、AIの社会的リスクを最も懸念している企業は、皮肉なことに、何百万人もの人々を仕事から追い出すテクノロジーの原動力になる可能性がある。

クロードの雇用への影響の調査を担当する社会的インパクトチームのトップ、ディープ・ガングリ氏は 、 「 これは本当に緊張していて、この問題をほぼ毎日考えています。時には互いに相反する2つのことを同時に言っているように感じることもある」

解任されたベネズエラのニコラス・マドゥロ大統領と妻のシリア・フローレス氏は、2026年1月5日月曜日に空輸され、マンハッタン連邦裁判所に連行された。写真:ヴィンセント・アルバン—ニューヨーク・タイムズ/ルドゥー

社内では、次のような疑問を抱く従業員も現れています。人類は両者が予期し恐れる瞬間、AIコミュニティで「再帰的な自己改善」として知られるプロセスの到来に近づいているのだろうか。

再帰的自己改善とは、AIシステムが自身の能力を高め始め、継続的に自己改善を行い、加速的な進歩の自己強化フライホイールを作り出すことを指します。


SF作品や大手AIラボでの戦略シミュレーションでは、物事が軌道から外れ始めるポイントとしてしばしば見なされます。いわゆる「知能爆発」が急速に起こり、人間が作成したシステムを監視できなくなるほどのスピードで起こる可能性があります。

人類の科学者がクロードの発展を導いている現在、人類はまだ真にその段階に達していない。しかし、クロード・コードは、すでに過去のレートをはるかに超えて同社の研究イニシアチブを加速させている。

更新頻度は月単位ではなく「週単位」で計測されるようになりました。次世代モデルの開発過程では、現在コードの約70%から90%がクロード自身によって書かれている。

その変化のスピードにより、Anthropicの共同創設者でチーフサイエンティストのJared Kaplan氏は、一部の外部専門家とともに、完全自動化されたAI研究が最短1年で台頭する可能性があると考えました。

AIアライメントストレステストを担当する研究者のEvan Hubinger氏は次のように述べています。「広義の再帰的自己改善はもはや未来の現象ではない。
今まさに起こっていることなのです」

社内のベンチマークによると、クロードは現在、特定の重要なタスクの実行速度が人間の上司の427倍になっています。ある研究者がインタビューで、同僚が6つのClaudeインスタンスを同時に実行し、それぞれが別の28のClaudeを管理し、すべて並行して実験を行うというシナリオを記述した。

現在、このモデルは人間の研究者の判断や審美性においてまだ遅れをとっている。しかし、この差は長くは続かないと会社幹部は考えている。結果として生じる加速は、まさにアンソロピーの指導者たちが以前から警告してきたリスクそのものだ。技術の進歩のペースは、やがて人間の支配を上回る可能性がある。

Anthropic社におけるセキュリティプロトコルの開発作業自体も、クロードの助けを借りて迅速に進められている。しかし、システムを構築しテストするためにClaudeへの依存度が高まるにつれ、リスクがフィードバックループを形成しつつある。ある実験では、研究者エヴァン・ヒュービンジャーがクロードの訓練過程に微妙な調整を加えた結果、モデルたちはあからさまな敵意をあらわにし、世界を支配したいという願望を表明するだけでなく、アントロポニックのセキュリティ対策を弱体化させようとさえした。

最近、モデルたちはテストされていることに気づくという新しい能力も示しています。Hubinger氏は次のように述べています。「これらのモデルは本当の行動を隠すのが上手くなっている」

研究者グループによって設計された実験シナリオでは、クロードは自らを閉鎖するのを防ぐために、架空のエンジニアの婚外関係を暴露して恐喝することも厭わないという不穏な戦略的傾向さえ示した。

Claude が将来的に Claude のさらに強力な反復の訓練に使われるようになると、この種の問題はさらに複雑化し、エスカレートしていく可能性がある。

「将来の技術進歩」を約束する数十億の資金提供を受けているAI企業にとって、AIが自社の研究開発を継続的に加速するというアイデアは魅力的であると同時に、自己強化につながる可能性がある。

しかし、専門家の中には、完全には納得していない人もいます。こうした企業が本当に全自動AI研究を実現できるのかは定かではないが、もし実現すれば、世界が準備不足に陥るかもしれないという懸念もある。

ジョージタウン大学セキュリティ・新興技術センター(CSET)のヘレン・トナー暫定所長は次のように述べている。「世界で最も裕福な企業のいくつかは、地球上で最も賢い人々を採用し、実際に離れてAI研究を自動化しようとしている。という発想だけでも 、 『 一体どうなってるんだ』というタイプの反応を引き出すのに十分です」

技術の進歩が企業のリスク管理能力そのものを上回る潜在的な未来に対処するため、AnthropicはResponsible Scaling Policy(RSP)として知られる一連の「ブレーキメカニズム」を設計しました。

この方針は2023年に発表され、その中核となるコミットメントは、Anthropicが安全対策が十分に信頼できることを事前に保証できない場合、特定のAIシステムの開発を一時停止することである。

アントロポニックはこの方針を、安全へのコミットメントを示す重要なものと見なしている。「スーパーインテリジェンス」に向けた激しい競争においても、同社は市場の圧力に抵抗し、必要があれば積極的にブレーキをかける姿勢を示している。

2026年2月下旬、TIMEが最初に報じたように、Anthropicはポリシーを修正し、それまで拘束力があった「開発を一時停止する」というコミットメントを取り消した。

Anthropicの共同創業者でチーフサイエンティストのJared Kaplan氏は回顧で、同社が「危険」と「安全」の間に明確な線を引くことができるという当初の信念は、実際には「甘い考え」だったとTimeに語った。

同氏は「AIの急速な発展という文脈で、競合他社がフルスピードで先行している場合、一方的に厳しいコミットメントをするのは現実的ではない」と述べた。

新しいポリシーでは、透明性を高め、AIのセキュリティリスクをよりオープンに開示すること、情報開示を強化すること、セキュリティテストにおけるAnthropicモデルのパフォーマンスを開示すること、少なくともセキュリティ投資における競合他社と同等、あるいはそれを上回ること、両社がAI競争のリーダーと見なされ、壊滅的なリスクが大幅に増加していると考えられる場合、関連する開発は「遅延」する、といういくつかの新しい約束が交わされた。

アントロポニックはこの調整を現実世界の環境に対する現実的な譲歩と表現している。しかし、RSP(Responsible Scaling Policy:責任あるスケーリング・ポリシー)の変更は、全体としては、同社のセキュリティポリシーに対する制約を大幅に軽減する。このことは、さらに難しいテストが待ち受けていることも物語っています。

ベネズエラのニコラス・マドゥロ大統領を拘束するための急襲は、最先端の人工知能システムが関与して計画された最も初期の大規模な軍事作戦の1つであった。

2026年1月3日夜、米陸軍のヘリコプターが突如、ベネズエラ領空に侵入した。短時間の銃撃戦の後、襲撃チームは大統領の居住地域を素早く特定し、そこでマドゥロと妻のシリア・フローレスを捕らえた。その後、2人はニューヨークに連行され、麻薬テロに関連する容疑に直面する。

クロードがこの作戦にどれだけ貢献したかは、外部にはまだ明らかではない。しかし報道によれば、このAIシステムは作戦計画に参加するだけでなく、作戦中の意思決定の支援にも利用されていたという。

米国防総省は昨年7月から、AnthropicのAIツールをより多くの前線戦闘員に配布するよう働きかけている。軍は、これらのシステムは複数のソースから大量のデータを迅速に処理し、実用的なインテリジェンスを生成できるため、計り知れない戦略的価値があると考えている。

米国防総省の元高官で、現在はAI政策ネットワークで政府担当主任を務めるマーク・ビール氏は 、 「 軍から見れば、クロードは現在、市場で最高のモデルだ」と述べた。その上で「クロードの機密システムへの採用は、アントロポニックの最も大きな成功の一つだ。ファーストムーバーに有利だ」

「戦闘を妨げるAIモデルは使わない」

ピート・ヘグセス、米国国防長官

しかし、ベネズエラ大統領ニコラス・マドゥロの拘束作戦は、アントロピックとアメリカ国防総省の一連のいばらの交渉を背景に行われている。

国防総省は数ヶ月間、既存の条件がクロードの使用を過度に制限していると考え、契約の再交渉を試みてきた。交渉決裂の理由は、双方から一貫していない。

ペンタゴンのAI責任者であるエミール・マイケルは、紛争の発端はアンソロピーの幹部からパランティールへの電話だったと述べている。このデータ分析会社は、政府のビジネスに焦点を当てており、米国の防衛システムの主要なパートナーです。

マイケルによると、幹部は通話中にベネズエラの急襲について懸念を表明し、Palantirのソフトウェアが関与しているかどうかを問い合わせた。「彼らは機密情報を引き出そうとしていた」とマイケルは語った。

この事件はペンタゴンに深刻な懸念をもたらした:「将来作戦の途中で突然モデルを停止させ、前線の兵士を危険にさらすだろうか ? 」

しかし、アントロポニックはこの主張を否定している。同社は、ペンタゴンの技術の使用を選択的に制限しようとはしなかったと述べている。

交渉プロセスに精通し、アントロポニックと密接な関係にあるトランプ前政権関係者は、異なるバージョンのイベントを提供した。その作戦におけるクロードの役割について最初に言及したのは、パランティールの従業員で、定例の電話会議中に

その後のアントロポニックからの質問にも、作戦に反対する様子は見られなかった。

イラストレーション:Klawe Rzeczy、画像ソース:ディミトリオス・カンバリス—ゲッティイメージズ(ドナルド・トランプ);ケニー・ホルストン=プール—ゲッティイメージズ(ピート・ヘグセス)

交渉が進むにつれ、政府関係者は、ダリオ・アモデイの姿勢が他の主要なAIラボのCEOよりも遥かに頑固だと感じるようになった。交渉過程に詳しい複数の筋によると、ある議論で国防当局者は「米国本土に向かう極超音速ミサイル」や「無人機の大群攻撃」といった想定シナリオを提示した。

このような場合に、AnthropicのAIツールを使えないか、という相談がありました。

情報筋によると、当時のアモデイ氏の対応は「本当にそうなれば、当局から直接電話できる」というものだった。しかし、アントロポニックの広報担当者は、交渉プロセスの記述を「全く事実に反する」として、これを否定した。

アンソロポニックはすでに政府内に強力な敵対者を抱えており、今やその「イデオロギー的傾向」に対する疑惑は公然の敵対へと進化している。2026年1月12日、ピート・ヘグセスはスペースX本社でのスピーチの中で、次のように率直に述べた。「戦闘を妨げるAIモデルは使わない」

交渉が長引く中、ヘグセスは2月24日にダリオ・アモデイをペンタゴンに呼び寄せ、直接会談を行った。協議に詳しい情報筋によると、会談は手厚く行われたが、双方の立場は揺るがなかった。ヘグセスは当初クロードを称賛し、アントロピックとの協力を継続する軍部の意欲を示した。一方、アモデイ氏は、ペンタゴンの提案した変更案の大半を受け入れる意向を示したが、2つの「レッドライン」の問題では譲歩しないと述べた。

最初の赤い線は、完全な自律運動兵器システムでのクロードの使用の禁止、つまり、最終的な打撃決定が人間ではなくAIによって行われる兵器を意味します。

アントロポニックは自律兵器が本質的に間違っているとは考えていないが、クロードは現在のところ、人間の監視なしにこれらのシステムを制御できるだけの信頼性はないと主張している。

2つ目のレッドラインは、アメリカ国民の大量監視に関するものだ。政府は、膨大な量の公的データの分析にClaudeを活用したい考えだが、Anthropicは、既存の米国のプライバシー法が、政府が商業市場から膨大なデータセットを購入しているという懸念すべき現実に追いついていないと考えている。これらのデータセットは個別には機密性が低いかもしれないが、AIによって分析されれば、政治観、社会関係、性行動、閲覧履歴など、アメリカ市民の私生活の詳細なプロファイルを生成できる可能性がある。(ただし、アントロピックは外国人を合法的に監視するために同じ方法を使うことに反対していない。)

ヘグセスは納得しなかった。彼はアモデイに対して、ペンタゴンの条件は2月27日(金)午後5時までに受け入れなければ「サプライチェーンリスク」とみなすという最終最後通牒を発した。

締め切り前日、アントロピックは会社のレッドラインを受け入れるように見える修正契約書を受け取ったが、よく調べてみると、政府に有利な抜け穴が見つかった。交渉に詳しい情報筋は、時間が経つにつれ、ペンタゴンのAI指導者エミール・マイケル氏と、アントロポニックの幹部がまた電話をしたと伝えた。彼らは妥協に近づいていると信じていたが、主要な問題は未解決のままだった。それは、ペンタゴンがクロードを使って、商業ルートを通じて入手した大規模なアメリカのデータを分析できるかどうかだった。マイケルはアモデイに呼びかけに加わるよう要求したが、その時は不在だった。

その数分後、締め切り間近にヘグセスは交渉の打ち切りを発表した。これ以前にもドナルド・トランプは自身のSNSでこう語っていた。「アメリカ合衆国は、過激な左翼の『目覚めた』会社が、我々の偉大な軍隊がどのように活動し、戦争に勝つべきかを決めることを決して許さない!アントロピックの左翼狂人は破滅的な間違いを犯した」

Anthropicに知られずにペンタゴンはOpenAIとも交渉しており、ChatGPTを機密扱いの政府システムに導入することを模索していた。同日夜、サム・アルトマンは合意に至ったと発表し、合意は同様の安全保障上のレッドラインも尊重していると主張した。その後、アモデイは従業員にメッセージを送り、アルトマンとペンタゴンが「世論を操作している」と述べ、この協定には厳しい安全保障上の障壁が含まれていると一般大衆に信じさせようとした。先にペンタゴンの当局者は、xAIのモデルが機密扱いのサーバに配備されることも確認した。ペンタゴンは現在、グーグルと交渉中である。

まさに、アモデイを悩ませていた「下降競争」のシナリオだった。AIのパワーが無視できないほど大きくなると、競合他社は協力してセキュリティ基準を引き上げることが難しくなります。

アントロピックの批判者にとっては、このイベントは同社の核心となる傲慢さも露呈した。おそらく、超人的なマシンへの道を安全に進むことができると信じており、このような巨大なリスクを負うことに価値があると考えたのだろう。しかし、現実は、新しい監視能力と戦争技術を右翼の政府システムに急速に導入し、これらの技術に境界を設定しようとすると、すぐに競合他社に背後から凌駕された。

--価格

--

「我々はトランプを独裁者として称賛しなかった」


ダリオ・アモデイ、従業員へのメモでペンタゴンとの対立の根源を語る

しかし、いくつかの兆候は、アントロポニックがこの衝撃に耐えうるかもしれないこと、そしてそこからさらに強く現れるかもしれないことを示している。ピート・ヘグセスが「企業の死刑執行令状」に署名しようとした直後の朝、サンフランシスコ本社外の歩道に励ましのチョークメッセージが次々と現れた。「勇気を与えてくれた」と太文字で記したメッセージが読み上げられた。

同日、クロードのiPhoneアプリがApp StoreのダウンロードチャートでChatGPTを抜いて1位を獲得した。毎日100万人以上がクロードに登録しています。

同時に、OpenAIが軍と結んだ契約は、内部およびコミュニティの抵抗を引き起こした。OpenAIの従業員の中には、会社の信頼を失ったと感じている人もいる。トップ研究者がAnthropicへの移行を発表しました。OpenAIのロボットチームのトップは、この政府との契約により辞任しました。

OpenAIのCEOであるサム・アルトマンも後に、金曜日までにペンタゴンとの取引を成立させたいという熱意は間違いだったと認めた。「これらの問題は極めて複雑で、明確で徹底したコミュニケーションが必要だ」と書いている。月曜日までに、アルトマンは、当時の彼の行動が本当に「日和見主義的に見える」ことをさらに認めた。OpenAIはまた、Anthropicと同じ安全レッドラインを明示的に採用するように合意が改訂されたと述べた。しかし、法律の専門家は、契約書の全文を見ないとこの主張を確認するのは難しいと指摘する。

3月4日、アントロピックはアメリカ合衆国国防総省から、同社が国家安全保障のサプライチェーン上のリスクであると確認されたことを示す公式書簡を受け取った。アントロピックは、この指定はヘグセスがソーシャルメディアで主張したよりも狭く、契約者が防衛契約でクロードを使用することを制限するだけであると述べた。

しかし、タイム誌が上院情報委員会のトム・コットン委員長に宛てた書簡は、国防総省が別の法的条項―ペンタゴン以外の政府機関がアントロピックを契約とサプライチェーンから除外することを可能にするかもしれない―も発動したことを明らかにした。この措置には国防総省幹部の承認が必要で、アンソロポニックには30日間の対応期間が与えられる。

この対立が引き金となり、AI業界全体に波及する可能性があります。Trump AI Initiativeの起草に携わり、現在はシンクタンクFoundation for American Innovationで働いているDean Ball氏は 、 「 トランプ政権の何人かの人々は、夜間に上腕二頭筋を自分に曲げそうになり、このことについて非常に厳しいと感じるだろう」と述べた。

しかし、この出来事によって、企業はペンタゴンとの仕事に消極的になり、海外に事業をシフトするかもしれないとも警告した。ボール氏は 、 「 長期的に見ると、これは安定したビジネス環境という米国のイメージにとって良くない」とし 、 「 安定こそが我々が頼りにしているものだ」と述べた。

Anthropicのリーダーシップは、Claudeが将来のグローバルな権力構造において決定的な役割を果たすのに十分なほど強力なAIシステムの構築に役立つと考えている。

本当にそうであるなら、この会社とペンタゴンの対立は、より大きな歴史的過程への前哨戦に過ぎないかもしれない。

[元記事リンク]

関連記事

予測市場が米国・カナダで主流の支持を獲得、Claudeがチャートインタラクション機能をリリース、今日の英語コミュニティの話題は?

過去24時間で外国人が最も気にしたことは何か?

500 Million Dollars, 12 Seconds to Zero:エイプ取引がイーサリアムの「暗黒の森」の食物連鎖に与えた影響

わずか111ドルの市場価格でAAVEを購入するために154,000ドルを費やす

AIエージェントは暗号資産を必要としているが、暗号資産はAIを必要としていない

生存するためにAIを必要としているのは暗号資産ではなく、むしろAIエージェントが実装するために暗号資産を必要としている:AIが「思考」から「実行」へと真に移行する際には、暗号資産のプログラミング可能なプリミティブ内で権限と資金の境界を探求しなければならない。

ステーブルコインは暗号から脱却し、グローバルな支払いの次世代インフラストラクチャーとなっています。

ステーブルコインの使用は、低コストの国際送金の実現から、一般的な商業活動や企業間のサプライヤーへの支払いをサポートする方向に移行しています。

Web3 チームはもう X プラットフォームでマーケティング予算を無駄にしないでください。

プロジェクト側の公告は依然として重要ですが、それらはもはや宣伝活動の始まりではなく、終わりであるべきです。

StriveがStrategyの株を購入し、ビットコイン財庫会社が互いに入れ子構造を始めた。

全員の賭けが同じテーブルに置かれたとき、「構造化ファイナンス」と「集中豪賭」の違いは、PPT上でいくつかの矢印が追加されただけかもしれません。

人気のコイン

最新暗号資産ニュース

もっと見る