OpenAI、Sora動画プラットフォームを公開から数か月で終了へ

OpenAI、Sora動画プラットフォームを公開から数か月で終了へ

本記事は、The Wall Street Journal(2026年3月25日)の “OpenAI Pulls Plug On Video Platform” を参考にしつつ、私自身の視点で再構成したものです。

🔗OpenAI Scraps Sora Video Platform Months After Launch(The Wall Street Journal)

OpenAI、Sora動画プラットフォームを公開から数か月で終了へ。

ソーシャルネットワーク化も期待された同アプリは、ユーザーが自分自身をさまざまなポップカルチャーの名場面に挿入できる仕組みを備えていた。

これだけだと儲からないと判断したから終了したのか対応できる人材不足が原因なのか疑問を残すところです。表面的な発表には真実はないから。

AIというとOpenAIやGoogle Geminiが真っ先に挙げられますが、今回の米国とイスラエルのイラン攻撃に使用された『Anthropic』も利用者が拡大しているAIです。

先ずは記事の要約から始まって、OpenAIの直近の状況や『Anthropic』との思想の違いにも触れていきたいと思います。

要約版

OpenAI は、昨年大きな注目を集めて登場した動画生成アプリ Sora を含む、同社の動画関連プロダクトをすべて終了する方針を明らかにした。背景には、今年後半にも見込まれる IPO(新規株式公開) を前に、事業の焦点を「ビジネス用途」「コーディング支援」「生産性ツール」へと再集中させる戦略転換がある。

CEO サム・アルトマンは社内向けメッセージで、動画モデルを使う製品群を段階的に終了すると説明。一般向けアプリだけでなく、開発者向け Sora や ChatGPT 内の動画機能も停止される。

OpenAI は現在、ChatGPT デスクトップアプリ、コード生成ツール Codex、ブラウザ機能を統合した 「スーパーアプリ」 の開発を進めており、社内リソースを一つの方向へ束ねる狙いがある。

Sora は TikTok のような AI 動画共有フィードを目指して昨年9月に登場したが、著作権保護の不備から短期間で論争を招き、後にガードレールが追加された。また、ディズニーは OpenAI に 10 億ドルを投資し、200以上のキャラクターを Sora で利用可能にする計画だったが、今回の方針転換により 投資は中止 となった。

Sora チームは今後、ロボティクスなど長期的な研究領域に注力するという。
OpenAI は、企業向け AI やコーディング支援で先行する Anthropic に追いつくため、より 自律的にタスクを実行する「エージェント型」機能 の強化を急いでいる。

動画生成に必要な主要AI技術とOpenAI の弱点

動画生成において重要なAI技術は、マルチモーダル理解・時間軸制御・視覚言語モデル・エージェント協調など多岐にわたります。中でも「解釈可能性」は、生成された映像の信頼性・安全性・編集可能性を担保するために不可欠な技術領域です。

技術領域役割代表技術・モデル
マルチモーダルモデルテキスト・画像・音声・動作などを統合GPT-4V, Flamingo, Sora
時間軸制御(Temporal Modeling)動画内の動き・因果関係を理解・生成3D ConvNets, Transformer-based video models
視覚言語モデル(VLM)映像とテキストの対応付け・説明生成BLIP-2, Video-LLaVA
エージェント協調(Multi-agent AI)複数の専門AIが役割分担して動画を構築PaperTalker, AutoCast
解釈可能性(Interpretability)生成過程の透明性・安全性・編集可能性Attention Map可視化、因果推論、Constitutional AI

解釈可能性が動画生成に果たす役割

Anthropic が重視する「Constitutional AI」や「AI Safety Level(ASL)」は、こうした解釈可能性を動画生成にも応用可能な枠組みとして注目されている。動画生成は、単なる「美しい映像を作る技術」ではなく、「時間・空間・意味・倫理」を同時に扱う、最も複雑なAI領域の一つ。その中で「解釈可能性」は、静かに、しかし確実にその中核技術になりつつある。

  • 安全性の担保:生成された映像が意図通りか、誤解や偏見を含まないかを検証できる。
  • 編集性の向上:どの要素がどのプロンプトに対応しているかを明示できれば、部分修正が容易。
  • 著作権・倫理対応:生成物の構成要素がどこから来たかを追跡できることで、権利処理が可能。
  • 企業導入の信頼性:特に教育・医療・法務分野では、ブラックボックスな生成は導入障壁になる。

OpenAI の弱点

動画生成は、単に「画像を連続で作る」技術ではなく、時間・空間・物理・意味・倫理 がすべて絡む、AIの中でも最も複雑な領域。その中で、OpenAI が弱いと考えられるのは次の3つ。

解釈可能性(Interpretability)

動画は「何が、なぜ、どう動くのか」を説明できないと、安全性、著作権、編集性、企業導入のすべてで問題が起きる。

OpenAI は 解釈可能性研究者が極端に少ない。全体の5%未満と推定される、一方、Anthropic は 30%以上 がこの分野。

【影響】

  1. 動画の内部構造がブラックボックス
  2. 企業が求める「説明責任」を満たせない
  3. 著作権・倫理ガードレールが後付けになる
  4. Sora が短命に終わった根本原因のひとつ

因果推論・物理シミュレーション(World Modeling)

動画は「時間の中で物体がどう動くか」を扱うため、物理法則・因果関係の理解 が不可欠。

Sora 2 チーム(Bill Peebles ら)は世界モデルを研究していたが、社内リソースの再配置と動画事業の終了、研究者の流出により、継続的な強化が難しくなった。

【影響】

  1. 動きの破綻
  2. 物体の不自然な相互作用
  3. 長尺動画の整合性が保てない

著作権・倫理ガードレールの設計

動画は画像よりも著作権リスクが高い。(キャラクター・背景・音声・動きのすべてが権利対象)

Sora 初期版は著作権保護が不十分、後からガードレール追加、米ウォルト・ディズニーにはコンテンツの使用不許可を通告されていた。

【影響】

  1. 企業導入が進まない
  2. 法務リスクが高い
  3. IPO前の事業整理で真っ先に切られた

ディズニーとの提携も中止
という経緯がある。米ウォルト・ディズニー

OpenAIの直近の動向

人材面の動向から調べていきます。サマーズ元財務長官を除いて7名の主要メンバーが退職しています。そして名前からして一般的な米国人ではなく中国系米国人がほとんどだという事実。いつか中国本土へ帰国して中国共産党のために働きますなんてなると非常に危険です。

日本の学力低下は国力低下でもあるので、もっと教育を重点項目に入れて幼い頃からしっかり勉強させないと完全に中国に負けて這い上がれません。ここで文部科学省について議論するつもりはありません。

2025年6月〜12月に退職した主要研究者

転職先がMeta Superintelligence Labでここで記載されていない他の転職者は『Anthropic』に流出していると言われております。

役職/担当:Perception チームリーダー(画像・音声・センサー入力など LLM の「感覚」部分を担当)

退職時期:2025年6月末

行き先:Meta Superintelligence Lab

役職/担当:マルチモーダル・強化学習研究者

退職時期:2025年6月

行き先:Meta Superintelligence Lab

役職/担当:GPT‑4o の主要貢献者

退職時期:2025年夏

行き先:Meta Superintelligence Lab

役職/担当:o1/Deep Research モデルの研究者

退職時期:2025年7月

行き先:Meta Superintelligence Lab

役職/担当:研究科学者

退職時期:2025年7月

行き先:Meta Superintelligence Lab

役職/担当:研究科学者

退職時期:2025年7月

行き先:Meta Superintelligence Lab

役職/担当:ChatGPT/GPT‑4 の共同開発者

退職時期:2025年7月

行き先:Meta Superintelligence Lab の Chief Scientist

現在の OpenAI 幹部構造

名前役職主な担当領域
Sam AltmanCEO全社戦略・IPO・製品方向性
Greg BrockmanPresident製品・エンジニアリング統括
Mira MuratiCTO研究・安全性・マルチモーダル
Brad LightcapCOO事業運営・商用化
Jason KwonCSO長期戦略・組織再編
Anna MakanjuVP Global Affairs政府・規制対応
Fidji SimoHead of ApplicationsChatGPT / スーパーアプリ統合
Bill PeeblesSora リード研究者動画モデル・世界シミュレーション

人材構造の特徴

  • 幹部の多くが「製品」「事業」「スケール」に強い
  • 研究者よりも プロダクト責任者 が意思決定の中心
  • Stargate(5,000億ドル級の計算インフラ)など、巨大投資を前提とした構造
  • 製品化のスピードを最優先
  • 安全性チームの弱体化(2024〜2025 の離職)

Anthropic:研究者と安全性を中心に据えた構造

名前役職主な担当領域
Dario AmodeiCEO研究、安全性方針(RSP)
Daniela AmodeiPresident組織運営、安全性文化
Jared KaplanChief Scientistモデル研究、Constitutional AI
Tom BrownEngineering LeadClaude モデル開発
Long-Term Benefit Trust取締役会の過半数を支配公益目的の担保

人材構造の特徴

  • 研究者主導
  • 安全性と解釈可能性を最優先
  • Constitutional AI による体系的な安全性
  • 取締役会の過半数を公益 Trust が握るという異例のガバナンス

OpenAIとAnthropicの顧客構造

両社の顧客構造は “真逆” に近い。OpenAI は「消費者向けアプリ」を最優先してきたため、ChatGPT の爆発的成功とSora も TikTok 的な動画SNSを狙っていた。そしてスーパーアプリ構想(ブラウザ+コード生成+ChatGPT)やIPO を見据えた “大衆向けの数字” が重要であった。 個人ユーザーの規模がそのまま企業価値に直結するという数字的に立証しやすくして資本調達を有利にしたかった。

一方、Anthropic は「安全性 × 企業導入」を最優先してきた。Constitutional AIやAI Safety Level(ASL)、公益トラストが取締役会の過半数を握るガバナンス、金融・医療・法務など “高リスク領域” に強いすなわち企業が求める透明性・安全性に特化した構造であることを重視してきた。

OpenAI:個人消費者(B2C)中心の巨大プラットフォーム

  • ChatGPT の MAU 8億人
  • モバイルアプリ、デスクトップアプリ、スーパーアプリ構想
  • 個人課金(Plus / Pro)が収益の柱
  • 企業向けもあるが、導入の主役は「個人ユーザー」
  • Apple や Google に近い “大衆向けプロダクト企業” の構造

Anthropic:法人(B2B)中心のエンタープライズAI

  • Claude は 初回導入企業の70% を獲得
  • セキュリティ・コンプライアンス・ガバナンスを重視
  • 企業向け API が主戦場
  • 個人向けアプリはあるが、収益の中心ではない
  • Salesforce や Snowflake に近い “企業向けAIインフラ企業” の構造
読書が面倒な人へ
TOP