【人物相関図】OpenAIを辞めた人たちがAnthropicを作った——1枚の図で読む業界地図

Anthropicの創業者であるダリオ・アモデイ (AI研究者) とダニエラ・アモデイ (AI研究者) は、かつてOpenAIに所属していました。彼らの経歴が示すように、AI業界の主要プレイヤーたちが新たな企業を立ち上げ、どのような関係を築いているかは理解する価値があります。特に、Claude Code (Anthropic 社の AI コーディングツール) の開発者がOpenAI出身である背景は、AI技術の進化と競争の激しさを象徴しています。
OpenAIを辞めた彼らがAnthropicを立ち上げた背景には、AI技術の方向性に対する異なるビジョンがありました。具体的には、AnthropicはAIの安全性と倫理を重視する姿勢を打ち出しています。これは、AIの進化が急速に進む中で、技術者たちが技術の影響力をどのように捉えているかを示す一例です。さらに、Anthropicの評価額が2026年4月時点で8000億ドルに達したことも、彼らのビジョンが市場で評価されていることを示しています。

AnthropicはOpenAI出身者によって設立されたが、彼らのビジョンは異なる方向に進んでいる。
このような企業間の人材移動や新たなビジョンの形成は、AI業界全体に大きな影響を与えています。例えば、AnthropicのClaude Codeは、AIコードアシスタント市場で急速に支持を集めています。2026年初頭には、ClaudeのWebブラウザ月間アクティブユーザー数が1,890万人に達したと報じられています。これは、AI技術がどのようにユーザーに受け入れられ、日常生活に溶け込んでいるかを示す一例です。
とはいえ、Claude Codeの開発者が具体的に誰であるかについては、公式には明らかになっていません。この点については、今後の取材で明らかになることが期待されます。OpenAIからAnthropicへの人材移動は、AI技術の発展とともに、企業間の競争が激化していることを示しています。つまり、次のセクションでは、彼らがなぜOpenAIを離れたのか、その背景にある思想の断絶について掘り下げます。
「AIは危険かもしれない」——OpenAI内部で起きた思想の断絶と、Anthropicが選んだ道

AI開発における安全性とスピードのバランスは、企業の設計思想に深く結びついています。
AIの開発現場では、OpenAIとAnthropicの間でAGI (Artificial General Intelligence: 汎用人工知能) の安全性に関する考え方の違いが浮き彫りとなっています。OpenAIを離れた人物たちが設立したAnthropicは、AIの安全性を重視する姿勢を明確にしています。Anthropicの評価額は2026年4月時点で8000億ドルに達しました。これは、OpenAIの8520億ドルと競り合う規模に成長しています。
この背景には、AI開発における設計思想の違いが大きく影響しています。たとえば、Anthropicのアプローチは、AIに対する「ルールブックを先に作る」という考え方に基づいています。AIに事前に安全性の基準を設定し、それに従って学習を進めるのです。一方、OpenAIは「採点しながら覚えさせる」手法、すなわちRLHF(Reinforcement Learning from Human Feedback: 人間のフィードバックによる強化学習)を重視しています。これにより、AIは実際の使用状況からフィードバックを受け取りながら進化します。

Anthropicの「憲法的AI」は、AIが自己判断で危険な行動を避けるように設計されています。AIの設計思想は、単なる技術の選択ではなく、企業の倫理観と直結しています。このような設計思想の違いは、企業の成長戦略にも影響を与えています。Anthropicは、AIの安全性を重視する投資家からの支持を得て、急速に評価額を伸ばしています。2026年4月には、評価額が3800億ドルから8000億ドルに急騰しました。これにより、OpenAIを追い越す勢いを見せています。
この成長は、AI開発における安全性の重要性を再確認させるものです。しかし、AnthropicとOpenAIのAGIに対する具体的な公式声明は未確認です。両社のAGI観の詳細な違いについては今後の調査が待たれます。それでも、Anthropicの設立とその後の資金調達の規模から、彼らが安全性を重視したAI開発を進めていることは明らかです。要するに、この思想の違いは、今後のAI業界全体の方向性にも大きな影響を与えるでしょう。
このように、AI開発における安全性とスピードのバランスは、企業の設計思想に深く結びついています。次に、この思想が具体的にどのように機能に反映されているかを見ていきます。
/goalコマンドは何が新しいのか——『完了条件を自分で決める』設計に宿る思想

Anthropic (アンソロピック) が2026年に公式追加した /goal コマンドは、AI (人工知能) と人間の役割分担を再定義する革新的な機能です。AIが自律的に動くのではなく、人間が完了条件を指定することで AI の自動継続が始まる設計思想が背後にあります。このアプローチは、前セクションで触れた Anthropic の AGI (汎用人工知能) 安全観とも密接に関連しています。具体的には、/goal コマンドを使用すると、AI は「no」の間に次のターンを自動で開始し、「yes」で終了します。
推進派は、この /goal コマンドが正式な機能としてターン渡り作業を自動化できる実用的な仕組みだと評価しています。公式ドキュメントによれば、1 セッションにアクティブな goal は 1 つだけです。ユーザーが完了条件を渡すと、AI が自動的に作業を続けます。たとえば、特定のタスクを完了するまで AI が作業を続けることが可能になります。しかし、開発者コミュニティでは、まだ実用レベルに達していないという懐疑的な意見もあります。Claude Code の /goal コマンドの実用性については、さらなる議論が必要です。

/goal コマンドは、AI が自律的に動くのではなく、人間が完了条件を指定することで自動継続が始まります。
この機能の登場により、AI に対する漠然とした不安が具体的な問いに変わる可能性があります。『AI に仕事を任せる』という不安は、『どこまでが人間の指示でどこからが AI 判断か』という明確な問いに変わります。Anthropic 幹部のマイク・クリーガー氏も、「1 日あたり 100 万人以上の新規ユーザーが Claude に登録している」と述べています。このことは、この機能が多くのユーザーに受け入れられていることを示しています。つまり、/goal コマンドは AI の利用方法に新たな視点をもたらしています。
次に、実際に Claude Code を動かすための 5 ステップへと進みます。
非エンジニアが/goalコマンドを初めて動かす5ステップ——思想を体で理解する

非エンジニアでも簡単に /goal コマンドを活用できます。
AIツールへの肯定的感情が2025年に60%に低下したというデータがあります。慣れない時期に丁寧に試す意義は大きいです。ここでは、非エンジニアが Claude Code (Anthropic 社の AI コーディングツール) の /goal コマンドを初めて動かすための5ステップを紹介します。
まず、Claude.ai にアクセスします。これは Claude Code を使用するための最初のステップです。次に、Claude Code が正常に起動していることを確認します。これにより、後のステップでスムーズな操作が期待できます。

次に、シンプルな goal 文の書き方を学びます。例えば、「この文章を3つの箇条書きにまとめ終わったら教えて」という指示を試してください。これが /goal コマンドの基本的な使い方を理解する助けとなります。
その後、自動継続中の画面の見方を把握します。公式ドキュメントによれば、/goal コマンドは1セッションにアクティブな goal が1つだけ存在します。no の間は Claude が次のターンを自動で始め、yes なら終了します。
最後に、yes で終了する確認を行います。このステップを完了することで、/goal コマンドの一連の流れを理解できます。つまり、正しい手順を踏むことで、非エンジニアでも簡単に /goal コマンドを活用できます。
Stack Overflow の調査によれば、AIツールへの肯定的感情は2023〜2024年の70%超から2025年には60%に低下しました。
『こじつけでは?』を含む4つの疑問に答える——この記事自身への反論

この記事では、分からないことはまだ分からないと正直に伝えることが重要です。
この記事を読んで疑問を持つことは自然です。特に、非エンジニアの読者にとって、AI (人工知能) や AGI (汎用人工知能) の話題は難解に感じられるかもしれません。ここでは、この記事に対する4つの反論に、事実と未確認事項を交えてお答えします。
まず、創業者の経歴と製品仕様の結びつきはこじつけではないかという疑問についてです。Anthropicの創業者であるダリオ・アモデイとダニエラ・アモデイは、OpenAIでの経験を活かして新たなAI企業を立ち上げました。彼らの経歴は、Anthropicの製品仕様に直接影響を与えています。例えば、AIの倫理や安全性に対する異なる見解が、彼らの開発方針に反映されています。しかし、Claude Code (Anthropic 社の AI コーディングツール) の生みの親が具体的に誰かは未確認です。

次に、非エンジニアに AGI 論は難しすぎるのではないかという点です。確かに、AGI は高度な概念ですが、この記事では基礎から順を追って解説しています。また、AIツールの市場は急速に成長しており、AIコードアシスタント市場は 2034 年までに 473 億ドルに達する見込みです。この成長は、非エンジニアにも AI 技術が普及しつつあることを示しています。AIツールへの肯定的感情は 2025 年に 60% に低下すると予測されていますが、普及は明確です。
三つ目の疑問は、/goal はまだ実用レベルではないのではないかというものです。推進派は、/goal コマンドが 2026 年に公式追加された正式機能であり、実用的な仕組みであると主張しています。しかし、懐疑派はまだ実用レベルに達していないと反論しています。この点については、開発者コミュニティの評価が取材スニペット内で未確認であるため、断定は避けます。
最後に、Anthropic は OpenAI に勝てるのかという疑問です。Anthropic は評価額約 9000 億ドルでの資金調達交渉を進めており、OpenAI の評価額 8520 億ドルを超える可能性があります。また、Anthropic の Claude 有料会員数は 2026 年に入り、半年前の 2 倍以上に増加していると報じられています。これらの事実は、Anthropic が市場での競争力を高めていることを示していますが、最終的な成否はまだ未公表です。
つまり、この記事では、信頼性のある情報を提供しつつ、現時点での不確実性についても正直に伝えています。


