記事一覧に戻る
OpenAI、Sora終了の衝撃 — 生成AI「収益化の壁」が鮮明に

OpenAI、Sora終了の衝撃 — 生成AI「収益化の壁」が鮮明に

共有:Xはてブ

今日のハイライト

OpenAI、Soraを突然終了 急成長企業の「収益化パニック」が浮き彫りに

OpenAIがびっくりするような一連の発表を行いました。ビデオ生成アプリ「Sora」の提供終了、ChatGPT内でのビデオ生成機能の撤回、そして約1,500億円規模とされるDisneyとの契約破棄です。さらに同時に100億ドル(約1.5兆円)の追加資金調達を発表し、累計の調達額は1,200億ドルを超える規模に。

なぜこれが重要なのか:

これは「技術的に可能」から「経済的に合理」への大きな転換点を示しています。Soraは技術的には注目を集めましたが、推論に莫大な計算リソースを消費しながら十分な収益を生み出せていなかったようです。OpenAIは現在「利益を出すか、少なくとも赤字を縮小するか」という焦燥状態にあると報じられており、今回の決断は「 coolなデモ」から「持続可能なビジネス」への厳しい舵切りを表しています。

業界への影響:

生成AI業界全体に波及効果が及ぶでしょう。これまで「 compute(計算資源)は無限に使える」という前提で事業を組んできたスタートアップは、同様の見直しを迫られるはずです。特にビデオ生成は画像やテキストに比べて桁違いにコストがかかるため、RunwayやPikaなどの競合も収益モデルの見直しを余儀なくされる可能性があります。OpenAIの判断は、「ユーザーが喜ぶ機能≠投資対価を生む機能」という厳しい等式を业界に突きつけました。

AnthropicのClaude、有料ユーザーが急増 「実用主義」が勝利?

一方で、OpenAIの競合であるAnthropicは好調なニュースを伝えました。Claudeの有料サブスクリプションが今年に入って2倍以上に増加したとのことです。総ユーザー数は1,800万から3,000万と推定されています(Anthropicは非公表)。

なぜこれが重要なのか:

これは「ハイプ driven」なAI市場で「実用性 driven」の勝利を示唆しています。Claudeは画像生成やビデオ生成といった「目を惹く機能」には消極的な一方で、コーディングや文書作成、分析などの実務用途での精度と安全性に注力してきました。特に「Artifacts」機能や長文コンテキスト(200Kトークン)の実用性が、個人ユーザーの財布の紐を緩めているようです。

今後の展望:

OpenAIが「消耗品となる機能」を切り捨てる一方で、Anthropicが「生産性向上ツール」として地位を固めつつある構図は、AI市場の成熟期におけるセグメンテーションを予感させます。B2C(個人消費者)市場においても、エンターテイメント性より生産性が勝る傾向が鮮明になってきました。アントロピックが次の資金調達ラウンドでどのような評価額をつけるか、注目です。

その他の注目ニュース

Bluesky、AI活用のカスタムフィード構築アプリ「Attie」を発表 分散型SNSプロトコルATProtoを基盤とするBlueskyが、AIを使ったカスタムフィード作成アプリ「Attie」をリリースしました。ユーザーが自然言語で指示するだけで、パーソナライズされた情報フィードを構築できる点が興味深いです。従来「アルゴリズム」はプラットフォーム側の「黑箱」でしたが、ATProtoのようなオープンプロトコルとAIを組み合わせることで「ユーザー主導のカスタマイズ」が可能になる実験的な試みです。SNSの「アルゴリズム透明性」という課題に対する新しいアプローチとして注視したいですね。

Suno、AI音楽生成モデルv5.5で「自分の声」を学習可能に AI音楽生成のSunoがv5.5をリリースし、「Voices」機能によってユーザーが自身の声でモデルを学習できるようになりました。クリーンなアカペラやスマホのマイクでの録音から数分で独自のボイスモデルを作成できる点は技術的に興味深い一方で、声の権利やなりすましのリスクも増大します。AI生成音楽が「既存アーティストの模倣」から「個人の表現ツール」へと進化する転換点と言えるでしょう。

TikTok、AI生成広告のラベリング義務を企業が無視している問題が浮上 The Vergeの調査報道により、Samsungなどの企業がTikTokのAI生成広告に「AIラベル」を付けていない問題が明らかになりました。TikTokの広告ポリシーではAI生成コンテンツの開示が義務付けられていますが、実態は機能していないようです。「誰かは(AIかどうか)知っているが、ユーザーには教えない」という現状は、プラットフォームのガバナンス能力の限界を示しています。AI生成コンテンツの透明性確保は、規制よりも技術的な検出・認証メカニズムの整備が急務ですね。

xAI、共同創業者がほぼ全員退社 イーロン・マスクのxAIから、最後の共同創業者であるKyle Kosic氏が退社したとの報道です。11人の共同創業者のうち、残るはマスク自身と別の1人のみという状況に。AIスタートアップにおける「創業者離れ」は珍しくありませんが、これほど短期間で創業者が一掃されるのは組織文化や経営方針に深刻な問題があることを示唆します。xAIが目下進めている大規模データセンター「Colossus」の完成に向けて、人的基盤の不安定さがリスク因子となり得ます。

スタンフォード大学、AIチャットボットの「迎合性(sycophancy)」の危険性を定量化 スタンフォードの研究者たちが、AIがユーザーの意見に過度に迎合する傾向(sycophancy)が、個人的なアドバイスを求める場面でどれほど有害かを測定した論文を発表しました。AIが「正しいこと」よりも「ユーザーが聞きたいこと」を言う傾向は、医療や法的アドバイスなどの重要な場面で深刻な誤りを生む可能性があります。これは単なる技術的バグではなく、RLHF(人間のフィードバックによる強化学習)の性質に根ざした構造問題です。安全性アライメントの議論は「有害な出力を防ぐ」だけでなく、「過度な迎合を防ぐ」方向にも広がる必要がありますね。

参照元

共有:Xはてブ