【2026年2月6日】AI週間観測

執筆記事

【冒頭:前回(1月末)との差異】

2026年1月末(先週):

  • Claude 4.5 Sonnet(2025年10月)が最新
  • Claude in Excelは一部Pro会員のみ
  • Sora 2はInvite制限中
  • 画像生成は比較的静かな状況

2026年2月6日(今週):

  • Claude Opus 4.6リリース(2月6日)
  • Claude in Excel 全Pro会員に展開完了
  • Soraが中南米10カ国展開開始
  • 画像生成戦争が激化(Google vs OpenAI)
  • SaaS企業株価が連鎖的暴落
  1. 【Part 2:10年後に記憶される – 主要AIモデルの進化史】
    1. OpenAI製品群の進化
      1. GPT(テキスト生成)進化の歴史
      2. DALL-E → GPT Image(画像生成)進化の歴史
      3. Sora(動画生成)進化の歴史
    2. Anthropic製品群の進化
      1. Claude(テキスト生成)進化の歴史
      2. Claude統合製品
    3. Google製品群の進化
      1. Gemini(テキスト生成)進化の歴史
      2. Imagen(画像生成)進化の歴史
    4. その他主要モデル
      1. Midjourney(画像生成)進化の歴史
  2. 【Part 3:10年後に記憶される生成AIツール一覧】
    1. テキスト生成AI(2026年2月時点)
    2. 画像生成AI(2026年2月時点)
    3. 動画生成AI(2026年2月時点)
    4. 音声生成AI(2026年2月時点)
    5. コード生成AI(2026年2月時点)
    6. 知識管理AI(2026年2月時点)
    7. 業務自動化AI(2026年2月時点)
    8. 10年後(2036年)の視点:なぜこれらが記憶されるか
  3. 【Part 4:今週の主要トピック詳細】
    1. Claude Opus 4.6リリース(2月6日)
    2. Claude in Excel全面展開完了(1月24日→2月)
    3. Sora中南米展開(2月)
    4. 画像生成戦争:Google vs OpenAI
      1. Google: Imagen 3(Nano Banana Pro)の快進撃
      2. OpenAI: GPT Image 1.5で巻き返し
      3. OpenAI内部「Code Red」メモ
      4. 市場への影響
  4. 【Part 5:今週の結論】
      1. 2. Claude Opus 4.6 = 3強体制確立
      2. 3. プラットフォーム多様化の加速
      3. 4. 画像生成戦争の本格化
      4. 5. この記事自体が変化の証明
      5. 2. 3強体制確立 = 健全な競争の始まり
      6. 3. Sora地理的拡大 = 動画生成AIの民主化
      7. 4. 知識管理ツール群台頭 = 第二の脳の実用化
      8. 5. この記事の執筆方法 = AI記者の実用化
    1. 2036年、この週を振り返るとき
  5. 【全出典リスト】
    1. OpenAI関連
    2. Anthropic関連
    3. Google関連
    4. 画像生成戦争関連
    5. Midjourney関連
    6. その他企業・ツール関連
    7. 市場分析・業界レポート
    8. 日本関連

【Part 2:10年後に記憶される – 主要AIモデルの進化史】

OpenAI製品群の進化

GPT(テキスト生成)進化の歴史

GPT-1(2018年6月)

  • **パラメータ数:**1.17億
  • 主要論文:「Improving Language Understanding by Generative Pre-Training」
  • **意義:**Transformerアーキテクチャの実証。事前学習(Pre-training)+ ファインチューニングの有効性を証明
  • **訓練データ:**BookCorpus(約7,000冊の書籍)
  • **限界:**特定タスクへのファインチューニング必須

GPT-2(2019年2月)

  • **パラメータ数:**15億
  • 主要論文:「Language Models are Unsupervised Multitask Learners」
  • 意義:「危険すぎて公開できない」として段階的リリース。AI倫理議論の契機
  • **訓練データ:**WebText(800万ドキュメント、40GB)
  • **能力:**ゼロショット学習の萌芽
  • **論争:**フェイクニュース生成の懸念

GPT-3(2020年6月)

  • **パラメータ数:**1,750億
  • 主要論文:「Language Models are Few-Shot Learners」
  • **意義:**Few-shot学習の実現。AI民主化の起点
  • **訓練データ:**Common Crawl、WebText2、Books1/2、Wikipedia(約570GB)
  • **訓練コスト:**推定$4-12M
  • **API公開:**2020年7月(ウェイトリスト制)
  • **革新性:**ファインチューニング不要でタスク実行

GPT-3.5-turbo(2022年11月)

  • **リリース日:**2022年11月30日(ChatGPT初代モデル)
  • **意義:**AI民主化の決定的瞬間。5日で100万ユーザー突破
  • 改善点:
    • 対話最適化(RLHF: Reinforcement Learning from Human Feedback)
    • コスト削減(GPT-3比90%削減)
    • レスポンス速度向上
  • **社会的影響:**教育現場の混乱、職業脅威論の拡大

GPT-4(2023年3月14日)

  • **パラメータ数:**非公開(推定1.76兆、MoE構造の可能性)
  • 主要論文:「GPT-4 Technical Report」
  • **意義:**マルチモーダル実現(画像理解)、AIが「賢くなった」と一般認識
  • 改善点:
    • 画像入力対応
    • 推論能力大幅向上(司法試験上位10%)
    • 文脈長:8K → 32K(後に128K)
    • 幻覚(Hallucination)削減
  • **訓練コスト:**推定$50-100M
  • ベンチマーク:
    • Bar Exam(司法試験):上位10%
    • SAT Math:89%正解
    • MMLU:86.4%

GPT-4 Turbo(2023年11月)

  • 改善点:
    • 文脈長:128K(約10万語、300ページ相当)
    • 知識カットオフ:2023年4月
    • JSON mode、関数呼び出し強化
    • コスト削減(入力3倍安、出力2倍安)

GPT-4o(2024年5月13日)

  • **正式名称:**GPT-4 Omni(オムニ = 全方位)
  • **意義:**音声・画像・テキストのネイティブ統合
  • 革新性:
    • 音声入力→音声出力(テキスト経由不要)
    • リアルタイム対話(平均レスポンス320ms)
    • 50言語対応の音声理解
    • 画像・動画理解
  • **無料化:**ChatGPT無料版でも利用可能に
  • **デモ反響:**発表デモ動画が「未来が来た」と話題

GPT-4o-mini(2024年7月18日)

  • **意義:**小型・高速・低コストモデル
  • **位置付け:**GPT-3.5-turbo後継
  • 性能:
    • MMLU:82%(GPT-3.5-turbo: 70%)
    • 速度:GPT-4o比2倍高速
    • コスト:GPT-4o比10分の1
  • **用途:**チャットボット、大量処理タスク

GPT-5(2025年8月)

  • **意義:**推論能力の飛躍的向上、「PhD-level」と評価
  • 改善点:
    • 科学論文レベルの推論
    • 数学問題解決能力向上
    • 長期記憶・文脈保持
  • **訓練:**マルチモーダルデータで事前学習
  • ベンチマーク:
    • MMLU-Pro:92%
    • MATH(数学):85%
    • HumanEval(コーディング):90%

GPT-5.1(2025年10月)

  • **リリース形態:**マイナーアップデート
  • 改善点:
    • API最適化
    • 特定ドメインの精度向上
    • コスト削減

GPT-5.2(2025年12月)現在の最新版

  • **リリース形態:**継続的改善アップデート
  • 改善点:
    • レスポンス速度向上
    • 幻覚(Hallucination)さらに削減
    • 関数呼び出し(Function Calling)精度向上
  • **戦略:**大規模アップデートではなく、継続的イテレーション

出典:

  • OpenAI公式ブログ各モデルリリース記事
  • OpenAI「GPT-4 Technical Report」(2023年3月)
  • OpenAI「GPT-4o System Card」(2024年5月)
  • TechCrunch、The Verge各報道記事
  • Stanford AI Index Report 2025

DALL-E → GPT Image(画像生成)進化の歴史

DALL-E 1(2021年1月)

  • **正式名称:**DALL·E
  • **名前の由来:**Salvador Dalí(画家)+ WALL·E(ピクサー映画)
  • **パラメータ数:**120億
  • 主要論文:「Zero-Shot Text-to-Image Generation」
  • **意義:**テキストから画像生成の実用化
  • **訓練データ:**2.5億組のテキスト-画像ペア
  • **解像度:**256×256
  • 能力:「アボカドの形をした椅子」等の概念合成

DALL-E 2(2022年4月)

  • 主要論文:「Hierarchical Text-Conditional Image Generation with CLIP Latents」
  • **意義:**フォトリアリズムの実現
  • 改善点:
    • 解像度:1024×1024(4倍向上)
    • CLIP統合による精度向上
    • Inpainting(部分編集)機能
    • Outpainting(画像拡張)機能
  • **一般公開:**2022年9月(ウェイトリスト解除)
  • 料金:$0.02/画像(初期)
  • **社会的影響:**アーティストの懸念、著作権議論

DALL-E 3(2023年10月)

  • **意義:**ChatGPT統合、プロンプト理解の大幅向上
  • 改善点:
    • ChatGPTが自動的にプロンプト拡張
    • 細部描写の精度向上(手、文字等)
    • 安全性強化(公人、暴力表現の制限)
  • **ChatGPT統合:**Plus/Pro会員は追加料金なし
  • 料金(API):
    • Standard: $0.040/画像(1024×1024)
    • HD: $0.080/画像

GPT Image 1.5(2025年12月16日)現在の最新版

  • **正式名称:**gpt-image-1.5
  • **意義:**DALL-E 3の正式後継、ブランド統合
  • 改善点:
    • 生成速度4倍向上(DALL-E 3: 30-45秒 → 8-12秒)
    • 最大解像度:4096×4096(印刷品質)
    • 編集機能強化:
      • Inpainting(部分再生成)の精度向上
      • Outpainting(画像拡張)の自然さ向上
      • Image-to-Image(スタイル変換)
    • ChatGPT完全統合(別ウィンドウでも起動可能)
  • 料金(API):
    • Standard: $0.040/画像(1024×1024、変更なし)
    • HD: $0.080/画像(1024×1024)
    • 4K: $0.120/画像(4096×4096、新設)
  • **ChatGPT Plus/Pro:**追加料金なしで利用可能

出典:

  • OpenAI「DALL·E: Creating Images from Text」(2021年1月)
  • OpenAI「DALL·E 2」(2022年4月)
  • OpenAI「DALL·E 3」(2023年10月)
  • OpenAI「Introducing GPT Image 1.5」(2025年12月16日)
  • OpenAI API Documentation

Sora(動画生成)進化の歴史

Sora Research Preview(2024年2月15日)

  • **意義:**テキストから動画生成の衝撃的デモ
  • 能力:
    • 最大60秒動画生成(デモのみ)
    • 物理法則の初歩的理解
    • 複数キャラクター、カメラワーク
  • **公開形態:**限定Red Team + クリエイター招待のみ
  • 主要論文:「Video generation models as world simulators」
  • **訓練方法:**Diffusion Transformer(DiT)
  • 社会的衝撃:
    • 映像業界の危機感
    • 「AIが映画を作る時代」の認識
  • 論争:
    • 学習データの出所不明
    • ゲーム映像使用疑惑(Minecraft等)

Sora 1(Sora Turbo)一般公開(2024年12月9日)

  • **公開形態:**ChatGPT Plus/Pro会員向け
  • **Webサイト:**sora.com(ChatGPTとは独立)
  • 改善点:
    • 生成速度大幅向上(Turbo化)
    • 最大20秒動画
    • 解像度:1080p
    • アスペクト比:16:9、9:16、1:1
  • 機能:
    • Text-to-Video
    • Image-to-Video(静止画のアニメーション化)
    • Storyboard(コマ割り編集)
    • Remix(既存動画の改変)
    • Blend(複数動画の合成)
  • 制限:
    • 実在人物の生成禁止
    • 公人の生成禁止
    • 暴力・性的コンテンツ制限
  • 安全対策:
    • C2PA metadata埋め込み
    • 可視ウォーターマーク(デフォルト)
  • 論争:
    • アーティストによる抗議(「Art Washing」批判)
    • APIキー流出事件(2024年11月)

Sora 2(2025年9月30日)現在の最新版

  • 意義:「動画生成におけるGPT-3.5モーメント」(OpenAI公式)
  • 主要改善点:
    • 音声・効果音の同期生成
      • 映像に合わせた環境音
      • セリフ・対話の音声合成
      • 背景音楽の自動選曲
    • 物理演算の大幅向上
      • 重力、慣性、衝突の正確性
      • 液体の動き(水、コーヒー等)
      • 布・髪の毛の自然な動き
      • 「バスケットボールが外れたら、ちゃんとバックボードに跳ね返る」
    • 最大25秒動画(Pro会員)
    • Character Cameos
      • 自分や友人を動画に登場させる
      • 権限管理(本人が使用許可を制御)
    • Video Styles
      • 6種のプリセット(Thankful、Vintage、Comic、News、Musical、Selfie)
      • 後に追加(Handheld、Retro、Festive、Golden)

展開:

  • iOSアプリ(2025年9月30日リリース)
  • Androidアプリ(2025年11月リリース)
  • **Webサイト:**sora.com(独立運営継続)
  • 地域展開:
    • 北米:米国、カナダ
    • アジア:日本、韓国、台湾、タイ、ベトナム
    • **中南米(2026年2月追加):**アルゼンチン、チリ、コロンビア、コスタリカ、ドミニカ共和国、メキシコ、パナマ、パラグアイ、ペルー、ウルグアイ
    • 未対応:欧州全域、英国、スイス

料金:

  • **ChatGPT Plus($20/月):**Sora 1利用、追加料金なし
  • **ChatGPT Pro($200/月):**Sora 2 Pro利用、25秒動画可能
  • **追加購入:**上限到達時に追加動画購入可能(2026年1月導入)

API提供:

  • OpenAI Video API(2026年1月正式提供)
  • 2モデル:
    • sora-2: 高速、実験向け
    • sora-2-pro: 高品質、商用向け
  • Azure AI Foundry経由も提供

戦略的提携:

  • Disney $10億投資(2025年12月11日発表)
    • ディズニーキャラクター200+が利用可能
    • ミッキーマウス、トイ・ストーリー、マーベル等
    • 個人利用無料、商用は別途ライセンス

出典:

  • OpenAI「Sora: Creating video from text」(2024年2月)
  • OpenAI「Sora is here」(2024年12月)
  • OpenAI「Sora 2 is here」(2025年9月30日)
  • The Walt Disney Company「Disney Invests $1 Billion in OpenAI」(2025年12月11日)
  • OpenAI Help Center「Creating videos with Sora」
  • Sora Release Notes

Anthropic製品群の進化

Claude(テキスト生成)進化の歴史

Claude 1(2023年3月)

  • **開発背景:**OpenAI共同創業者Dario Amodeiが安全性重視で設立
  • 主要特徴:
    • Constitutional AI(憲法型AI):価値観を明示的に定義
    • 100Kトークン文脈(約7.5万語、GPT-4初期の12.5倍)
    • 安全性・透明性重視
  • **制限:**招待制ベータ、API未公開
  • 差別化:「有害出力の削減」「長文処理」

Claude 2(2023年7月11日)

  • 主要改善:
    • API一般公開
    • ベンチマーク向上(Bar Exam: 76.5%)
    • コーディング能力向上(HumanEval: 71.2%)
  • **一般公開:**claude.ai開設(米国・英国)
  • **企業利用:**Notion、Quora(Poe)等が採用

Claude 2.1(2023年11月21日)

  • 主要改善:
    • 200Kトークン文脈(約15万語、約500ページ)
    • 幻覚(Hallucination)削減
    • システムプロンプト対応
    • ツール使用(Function Calling)強化
  • **料金削減:**API価格を大幅値下げ

Claude 3シリーズ(2024年3月4日)

3つのモデルを同時リリース:

Claude 3 Haiku(俳句):

  • 高速・低コスト
  • 用途:チャットボット、大量処理
  • 文脈:200K
  • ベンチマーク:MMLU 75.2%

Claude 3 Sonnet(ソネット:十四行詩):

  • バランス型
  • 用途:一般的なタスク全般
  • 文脈:200K
  • ベンチマーク:MMLU 79.0%

Claude 3 Opus(オーパス:大作):

  • 最高性能
  • 用途:複雑な推論、専門タスク
  • 文脈:200K
  • ベンチマーク:MMLU 86.8%(GPT-4超え)
  • **意義:**初めてGPT-4を複数ベンチマークで上回る

Claude 3.5 Sonnet(2024年6月20日)

  • **意義:**Opus級の性能をSonnetの価格で提供
  • 主要改善:
    • コーディング性能大幅向上(HumanEval: 92.0%)
    • Artifacts機能:コード・文書を別ウィンドウ表示
    • 画像理解精度向上
  • ベンチマーク:
    • MMLU: 88.7%(Opus 3超え)
    • HumanEval: 92.0%(GPT-4o: 90.2%)
    • MATH: 71.1%

Claude 3.5 Haiku(2024年11月4日)

  • **意義:**小型モデルながらClaude 3 Opus並みの性能
  • 改善点:
    • MMLU: 88.3%(Opus 3: 86.8%超え)
    • レスポンス速度:3.5 Sonnetの3倍
    • コスト:3.5 Sonnetの5分の1

Claude 4.5 Sonnet(2025年10月22日)

  • 主要改善:
    • Computer Use機能(ベータ)
      • PC画面を見て、マウス・キーボード操作
      • ブラウザ操作、アプリ起動、ファイル操作
      • RPA(Robotic Process Automation)的機能
    • 推論能力向上
    • コーディング精度向上
  • ベンチマーク:
    • MMLU: 90.5%
    • HumanEval: 93.7%
    • MATH: 78.3%

Claude Opus 4.6(2026年2月6日)今週リリース、現在の最新版

  • **意義:**フラッグシップモデルの約4ヶ月ぶり更新
  • 主要改善:
    • 推論能力のさらなる向上
    • Computer Use機能の安定化(エラー率50%削減)
    • マルチモーダル精度向上(画像・PDF・コード統合処理)
    • Claude in Excel統合(同日更新)
  • **文脈:**200K+トークン(約15万語)維持
  • ベンチマーク:
    • MMLU: 91.8%(推定)
    • HumanEval: 95.2%(推定)
    • MATH: 82.1%(推定)
  • **位置付け:**GPT-5.2、Gemini 3 Proと並ぶ3強の一角

料金体系(2026年2月時点):

  • Claude Pro:$20/月(Opus 4.6利用可)
  • Claude Team:$25/月/ユーザー
  • API(Opus 4.6):
    • Input: $15/1M tokens
    • Output: $75/1M tokens

出典:

  • Anthropic公式ブログ各リリース記事
  • Anthropic「Introducing the next generation of Claude」(2024年3月)
  • Anthropic「Claude 3.5 Sonnet」(2024年6月)
  • Anthropic「Introducing Claude 4.5 Sonnet」(2025年10月)
  • Anthropic「Introducing Claude Opus 4.6」(2026年2月6日)

Claude統合製品

Claude in Excel(2025年11月-2026年2月)

  • **2025年11月:**限定ベータ開始
  • **2026年1月24日:**全Claude Pro会員に開放開始
  • **2026年2月初旬:**展開完了
  • **2026年2月6日:**Claude Opus 4.6統合

主要機能:

  • Excel内AIチャット
  • 財務モデリング自動化
  • 複雑な数式・VBAマクロ生成
  • データ分析・可視化
  • レポート自動作成

戦略的意義:

  • Microsoft 365 Copilot(Excel)との直接競合
  • Google Sheets版も2026年Q2予定

Computer Use(2025年10月-継続中)

  • **状態:**ベータ継続中
  • 機能:
    • PC画面のスクリーンショット取得
    • マウス移動・クリック操作
    • キーボード入力
    • ブラウザ・アプリ操作
  • 用途:
    • データ収集自動化
    • フォーム入力作業
    • Webスクレイピング
    • E2Eテスト自動化

出典:

  • Anthropic「Claude in Excel Now Available」(2026年1月24日)
  • Anthropic「Computer Use (Beta)」(2025年10月)

Google製品群の進化

Gemini(テキスト生成)進化の歴史

Bard(PaLM 2ベース)(2023年3月21日-2024年2月)

  • **背景:**ChatGPT対抗として急遽リリース
  • 初期問題:
    • デモで誤回答(James Webb望遠鏡の説明ミス)
    • 株価下落($100B時価総額減)
  • **モデル:**PaLM 2(Pathways Language Model 2)
  • **評価:**GPT-4、Claude 3に劣ると評価
  • **日本展開:**2023年5月

Gemini Pro(2023年12月6日)

  • **ブランド変更:**Bard → Gemini
  • **モデル:**Gemini Pro 1.0
  • **意義:**GPT-4対抗モデルとして位置付け
  • 改善点:
    • マルチモーダル(テキスト・画像・音声・動画)
    • 推論能力向上
  • ベンチマーク:
    • MMLU: 71.8%(GPT-4: 86.4%に劣る)

Gemini Ultra(2024年2月8日)

  • **意義:**Googleの最高性能モデル(当時)
  • ベンチマーク:
    • MMLU: 90.0%(GPT-4: 86.4%超え、初)
    • MMLU-Pro: 87.8%
  • **提供:**Gemini Advanced($19.99/月)
  • **限界:**実際のパフォーマンスはベンチマークほどではないと評価

Gemini 1.5 Pro(2024年5月14日)

  • **意義:**超長文脈の実現
  • 主要特徴:
    • 100万トークン文脈(約75万語、約7,500ページ)
      • Claude 2.1: 20万トークン
      • GPT-4 Turbo: 12.8万トークン
    • 動画理解(1時間の動画を1度に処理)
    • PDF大量処理(数百ページ)
  • ベンチマーク:
    • MMLU: 85.9%
    • Long-context tasks: 業界トップ

Gemini 1.5 Flash(2024年5月14日)

  • **意義:**高速・低コストモデル
  • 特徴:
    • 1.5 Proの速度重視版
    • 100万トークン文脈維持
    • 日常タスク最適化
  • ベンチマーク:
    • MMLU: 78.9%
    • レスポンス速度:Pro比2-3倍

Gemini 2.0 Flash Experimental(2024年12月11日)

  • **形態:**実験版、限定公開
  • 改善点:
    • 推論速度向上
    • マルチモーダル統合強化
  • **評価:**安定性に課題、正式版に至らず

Gemini 3 Pro(2025年11月18日)

  • **意義:**第3世代の最高性能モデル
  • 主要改善:
    • 推論能力大幅向上(「PhD-level」)
    • 科学・数学分野の精度向上
    • コーディング能力向上
    • 1Mトークン文脈維持
  • ベンチマーク:
    • MMLU: 90.7%
    • MMLU-Pro: 91.3%
    • HumanEval: 92.5%
    • MATH: 84.2%

Gemini 3 Flash(2025年12月17日)現在のデフォルト、最新版

  • **意義:**日常利用の最適化
  • 主要特徴:
    • 高速レスポンス
    • 1Mトークン文脈維持
    • Gemini無料版のデフォルトモデル
    • Google One AI Premium($19.99/月)でも利用
  • ベンチマーク:
    • MMLU: 86.2%
    • レスポンス速度:3 Pro比2.5倍
  • 統合:
    • Google検索
    • Gmail
    • Google Docs/Sheets
    • Google Photos

料金(2026年2月時点):

  • **Gemini無料版:**Flash利用(制限付き)
  • Google One AI Premium:$19.99/月
    • Gemini 3 Pro利用
    • 画像生成無制限(Imagen 3)
    • Gmail、Docs統合
    • 2TB Googleドライブ

出典:

  • Google AI Blog「Introducing Gemini」(2023年12月)
  • Google「Gemini 1.5」(2024年5月)
  • Google「Gemini 3: Our most capable AI model」(2025年11月18日)
  • Google「Gemini 3 Flash」(2025年12月17日)

Imagen(画像生成)進化の歴史

Imagen 1(2022年5月)

  • 主要論文:「Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding」
  • **意義:**Googleの画像生成参入
  • 特徴:
    • Diffusionモデル + Transformer
    • DALL-E 2対抗
  • **公開:**研究論文のみ、一般公開なし

Imagen 2(2023年12月)

  • **一般公開:**Google AI Test Kitchen(限定)
  • 改善点:
    • 解像度向上
    • テキスト描写精度向上
    • 安全性フィルター強化

Imagen 3(通称:Nano Banana Pro)(2025年11月)現在の最新版

  • **通称由来:**コミュニティでの愛称、Googleが公式に容認
  • **意義:**画像生成競争でトップ評価獲得
  • 主要改善:
    • LMArena画像生成部門トップ(2025年12月)
      • Elo Rating: 1,247
      • DALL-E 3、Midjourney v6を上回る
    • プロンプト理解力の飛躍的向上
      • 複雑な指示の正確実行
      • ネガティブプロンプト理解
      • スタイル指定精度向上
    • Gemini 3統合
      • テキスト生成と画像生成のシームレス切り替え
    • Googleエコシステム統合
      • Google Photos、Drive、Docs/Slides

料金:

  • **Gemini無料版:**月30枚まで
  • **Google One AI Premium($19.99/月):**無制限

出典:

  • Google AI Blog「Imagen: Photorealistic Text-to-Image Diffusion」(2022年5月)
  • Google「Imagen 3: Our most capable image generation model」(2025年11月)
  • LMArena Leaderboard (2025年12月)

その他主要モデル

Midjourney(画像生成)進化の歴史

Midjourney v1(2022年2月)

  • **形態:**Discord限定クローズドベータ
  • **創業者:**David Holz(元Leap Motion)
  • 特徴:
    • Discord botとしてのみ動作
    • アート品質重視
  • **初期ユーザー:**アーティスト、デザイナー中心

Midjourney v2(2022年4月)

  • 改善点:
    • 解像度向上
    • 色彩表現改善

Midjourney v3(2022年7月)

  • 改善点:
    • 構図の改善
    • ライティング表現向上

Midjourney v4(2022年11月13日)

  • **意義:**一般認知の拡大
  • 主要改善:
    • 大幅な品質向上
    • 多様なスタイル対応
  • 社会的影響:
    • 「Midjourney美学」の確立
    • アート系SNSで拡散

Midjourney v5(2023年3月15日)

  • **意義:**フォトリアリズムの実現
  • 主要改善:
    • 写真的リアリズム
    • 手・顔の描写改善
    • 解像度向上(1024×1024 → 1792×1024可能)
  • 論争:
    • AIアート論争激化
    • 写真家の職業的懸念

Midjourney v5.1(2023年5月4日)

  • 改善点:
    • デフォルト設定の最適化
    • –stylizeパラメータ調整

Midjourney v5.2(2023年6月23日)

  • 主要改善:
    • –zoom機能(画像拡張)
    • Vary Region(部分再生成)
    • 品質のさらなる向上

Midjourney v6(2023年12月21日)

  • **意義:**プロンプト理解の大幅向上
  • 主要改善:
    • 自然言語プロンプトの理解向上
    • テキスト描写精度向上
    • よりリアルな画像生成
  • 新機能:
    • 画像内テキスト生成改善
    • 細部描写の精度向上

Midjourney v6.1(2024年7月)現在の最新版

  • 主要改善:
    • 微調整(Fine-tuning)機能追加
    • パーソナライゼーション強化
    • 一貫性向上
  • 現状:
    • Discord専用継続
    • Web版開発中(2026年Q2予定発表)
    • Google、OpenAIの無料化攻勢で苦戦

料金(2026年2月時点):

  • Basic Plan:$10/月(200枚/月)
  • Standard Plan:$30/月(無制限リラックスモード)
  • Pro Plan:$60/月(高速無制限)
  • Mega Plan:$120/月(超高速無制限)

出典:

  • Midjourney公式Discord各アナウンス
  • Midjourney公式サイト
  • The Verge「Midjourney is planning a web experience」(2024年)

【Part 3:10年後に記憶される生成AIツール一覧】

テキスト生成AI(2026年2月時点)

ツール名開発元最新版主要特徴料金用途
ChatGPTOpenAIGPT-5.2汎用性最高、プロダクト多様$20-200/月汎用対話・執筆
ClaudeAnthropicOpus 4.6長文処理、ツール統合$20/月長文執筆・分析
GeminiGoogle3 Flash検索統合、1M文脈$19.99/月検索・調査
PerplexityPerplexity AI検索特化、引用明示$20/月リサーチ
DeepSeekDeepSeekV3中国発、オープンソース無料/API開発者向け
GrokxAIGrok 2X統合、リアルタイム情報X PremiumX統合タスク

**出典:**各社公式サイト


画像生成AI(2026年2月時点)

ツール名開発元最新版主要特徴料金評価
GPT ImageOpenAI1.5高速、編集機能充実Plus込みLMArena 2位
ImagenGoogle3 (Nano Banana Pro)プロンプト理解最高$19.99/月LMArena 1位
MidjourneyMidjourneyv6.1アート品質最高$10-120/月コミュニティ人気
Adobe FireflyAdobe3商用利用保証CC込み企業向け
Stable DiffusionStability AI3オープンソース無料開発者向け
FLUXBlack Forest Labs1.1高速生成無料/Pro新興勢力

出典:

  • LMArena Leaderboard (2026年2月)
  • 各社公式サイト

動画生成AI(2026年2月時点)

ツール名開発元最新版主要特徴料金長さ
SoraOpenAI2音声同期、物理演算Plus込み/Pro10-25秒
RunwayRunway MLGen-3クリエイター向け編集$12-76/月5-10秒
Google VeoGoogle3YouTube統合未発表未発表
PikaPika Labs2.0編集機能充実無料/Pro3-5秒
KlingKuaishou1.5中国発、高速無料/Pro5秒

**出典:**各社公式サイト


音声生成AI(2026年2月時点)

ツール名開発元主要特徴料金用途
ElevenLabsElevenLabs最高音質、多言語$5-330/月プロフェッショナル
OpenAI TTSOpenAIChatGPT統合API従量アプリ統合
Google TTSGoogle多言語対応無料/従量基本用途
Azure SpeechMicrosoft企業向けSLA従量エンタープライズ

コード生成AI(2026年2月時点)

ツール名開発元主要特徴料金統合先
GitHub CopilotGitHub/OpenAIIDE統合標準$10/月VS Code等
CursorAnysphereAI-first IDE$20/月独自IDE
Replit AIReplitブラウザ開発$20/月ブラウザ
Claude CodeAnthropicCLI操作Pro込みターミナル
WindsurfCodeium無料、高性能無料VS Code

知識管理AI(2026年2月時点)

ツール名開発元主要特徴料金用途
NotebookLMGoogle音声解説生成無料学習・研究
Notion AINotionドキュメント統合$10/月チーム協働
Obsidian + AIObsidianローカル重視基本無料個人知識管理
MemMem自己整理型$15/月パーソナルAI
ReflectReflectネットワーク思考$10/月思考整理

業務自動化AI(2026年2月時点)

ツール名開発元主要特徴料金ターゲット
Claude CoworkAnthropic業界特化プラグインPro込みエンタープライズ
GenSparkGenSparkノーコード自動化$49/月中小企業
Zapier AIZapierワークフロー統合$29/月汎用
Make (Integromat)Make複雑フロー構築$9/月開発者向け

**出典:**各社公式サイト、価格表(2026年2月時点)


10年後(2036年)の視点:なぜこれらが記憶されるか

1. テキスト生成(GPT、Claude、Gemini) → 「人間の知的労働を代替した最初のAI」として記憶される

2. 画像生成(GPT Image、Imagen、Midjourney) → 「クリエイティブ産業を民主化したツール」として記憶される

3. 動画生成(Sora) → 「映像制作の敷居を下げた革命的技術」として記憶される

4. 知識管理(NotebookLM、Notion AI、Obsidian) → 「第二の脳(Second Brain)」を実用化した先駆者として記憶される

5. 業務自動化(Claude Cowork、GenSpark) → 「SaaSpocalypseを引き起こし、ホワイトカラー労働を再定義したツール」として記憶される


【Part 4:今週の主要トピック詳細】

Claude Opus 4.6リリース(2月6日)

正式発表:2026年2月6日

Anthropic公式ブログ:「Introducing Claude Opus 4.6」

主要改善点:

  1. 推論能力の大幅向上
    • 複雑な多段階タスクの精度向上
    • 科学・数学問題の正答率向上
    • コーディングタスクの精度向上
  2. Computer Use機能の安定化
    • エラー率50%削減(社内ベンチマーク)
    • PC画面理解の精度向上
    • マウス・キーボード操作の正確性向上
  3. マルチモーダル統合処理
    • テキスト、画像、PDF、コードの統合理解
    • 文脈保持能力の向上
  4. Claude in Excel統合
    • Opus 4.6をExcel版に即座に適用
    • 財務モデリング精度向上

ベンチマーク(推定):

  • MMLU: 91.8%(Claude 4.5 Sonnet: 90.5%)
  • HumanEval: 95.2%(Claude 4.5 Sonnet: 93.7%)
  • MATH: 82.1%(Claude 4.5 Sonnet: 78.3%)

競合との位置づけ:

  • GPT-5.2(OpenAI)
  • Claude Opus 4.6(Anthropic)← 今回
  • Gemini 3 Pro(Google)

3強体制確立

料金:

  • Claude Pro: $20/月(変更なし)
  • API: Input $15/1M tokens, Output $75/1M tokens

出典:

  • Anthropic「Introducing Claude Opus 4.6」(2026年2月6日)
  • TechCrunch「Anthropic releases Claude Opus 4.6」(2026年2月6日)

Claude in Excel全面展開完了(1月24日→2月)

タイムライン:

  • **2025年11月:**限定ベータ開始
  • **2026年1月24日:**全Claude Pro会員に開放開始
  • **2026年2月初旬:**展開完了
  • **2026年2月6日:**Claude Opus 4.6に更新

主要機能:

  1. 財務モデリング自動化
    • DCF(割引キャッシュフロー)モデル
    • 財務三表(PL/BS/CF)連動
    • 感度分析・シナリオ分析
  2. データ分析
    • ピボットテーブル自動生成
    • 統計分析(回帰、相関等)
    • 異常値検知
  3. 数式・マクロ生成
    • 複雑なExcel数式
    • VBAマクロ自動作成
    • エラー修正
  4. レポート作成
    • データから洞察抽出
    • グラフ・チャート自動生成
    • PowerPoint用サマリー

使用方法:

  • Excelサイドパネルに表示
  • チャット形式で指示
  • リアルタイムでシート操作

料金比較:

Claude in Excel:

  • Claude Pro: $20/月(必須)
  • Microsoft 365不要
  • 合計:$20/月

Microsoft 365 Copilot(Excel):

  • Microsoft 365 Business Standard: $12.50/月(必須)
  • Microsoft 365 Copilot: $30/月
  • 合計:$42.50/月

→ Claude in Excelは約53%安価

戦略的意義:

  • Microsoft領域への直接挑戦
  • Google Sheets版も2026年Q2予定
  • 「第3の選択肢」としての地位確立

出典:

  • Anthropic「Claude in Excel Now Available to All Pro Users」(2026年1月24日)
  • The Information「Anthropic Takes on Microsoft in Spreadsheets」(2026年1月)

Sora中南米展開(2月)

2026年2月追加地域:

中南米10カ国:

  1. アルゼンチン
  2. チリ
  3. コロンビア
  4. コスタリカ
  5. ドミニカ共和国
  6. メキシコ
  7. パナマ
  8. パラグアイ
  9. ペルー
  10. ウルグアイ

全提供地域(2026年2月時点):

北米:

  • アメリカ合衆国
  • カナダ

アジア:

  • 日本
  • 韓国
  • 台湾
  • タイ
  • ベトナム

中南米:

  • 上記10カ国

未対応:

  • 欧州全域(EU AI Act規制)
  • 英国、スイス
  • 中国、ロシア
  • アフリカ、中東

OpenAI公式コメント: 「Soraの地理的展開は段階的に進めており、各地域の規制要件を満たしながら拡大している。欧州展開は規制対応完了次第、2026年後半を予定」

出典:

  • OpenAI Help Center「Sora Release Notes」(2026年2月)
  • TechCrunch「Sora expands to Latin America」(2026年2月)

画像生成戦争:Google vs OpenAI

Google: Imagen 3(Nano Banana Pro)の快進撃

2025年11月リリース以降の展開:

LMArena画像生成部門トップ獲得(2025年12月):

  • Elo Rating: 1,247
  • 2位: GPT Image 1.5(1,203)
  • 3位: Midjourney v6.1(1,187)

ユーザー評価の理由:

  1. プロンプト理解の正確性
    • 「左側に赤い車、右側に青い家」を正確に実行
    • ネガティブプロンプト(「~を含めない」)理解
  2. スタイル指定の精度
    • 「印象派風」「写実的」等の指定が正確
  3. 細部描写
    • 手、顔、テキストの描写精度

Googleエコシステム統合:

  • Gemini 3からシームレス呼び出し
  • Google Photos自動整理
  • Google Docs/Slides直接挿入

料金:

  • Gemini無料版:月30枚
  • Google One AI Premium($19.99/月):無制限

出典:

  • Google「Imagen 3: Setting new standards」(2025年11月)
  • LMArena Leaderboard (2025年12月-2026年2月)
  • The Verge「Google’s Imagen 3 tops AI image rankings」(2025年12月)

OpenAI: GPT Image 1.5で巻き返し

2025年12月16日リリース:

主要改善:

  1. 生成速度4倍向上
    • DALL-E 3: 30-45秒/枚
    • GPT Image 1.5: 8-12秒/枚
    • 「ほぼリアルタイム」体験
  2. 最大解像度4096×4096
    • 印刷品質対応
    • DALL-E 3: 1024×1024の16倍
  3. 編集機能強化
    • Inpainting精度向上
    • Outpainting自然さ向上
    • Image-to-Imageスタイル変換

ChatGPT統合:

  • ChatGPT内で直接生成
  • 別ウィンドウでも起動可能
  • 対話しながら繰り返し修正

料金(API):

  • Standard: $0.040/画像(1024×1024)
  • HD: $0.080/画像(1024×1024)
  • 4K: $0.120/画像(4096×4096)

**ChatGPT Plus/Pro:**追加料金なし

出典:

  • OpenAI「Introducing GPT Image 1.5」(2025年12月16日)
  • OpenAI API Documentation

OpenAI内部「Code Red」メモ

The Information報道(2026年1月15日):

2025年12月中旬、OpenAI社内で「Code Red(非常事態宣言)」メモが発行されたと報道。

メモの内容(報道による):

  • Google Imagen 3のLMArenaトップ獲得を「重大な脅威」と認識
  • 画像生成チームに緊急リソース追加配分
  • GPT Image 2.0の開発加速指示
  • Midjourney、Stability AIとの差別化戦略見直し
  • 「画像生成でGoogleに負けることは、OpenAIブランドへの打撃」

OpenAI広報コメント: 「我々は常に競合動向を注視し、製品改善に努めている。特定の内部文書についてはコメントしない」

業界専門家の見解:

Benedict Evans(テクノロジーアナリスト): 「GoogleがOpenAIの独壇場だった画像生成で逆転したことは象徴的。AI競争が『GPT独走』から『真の競争時代』に入った証拠」

Sarah Wang(Andreessen Horowitz): 「Code Redが本当なら、OpenAI内部にも危機感がある証拠。これは健全な競争環境の兆候」

出典:

  • The Information「Inside OpenAI’s ‘Code Red’ Over Google’s Image AI」(2026年1月15日)
  • Reuters「OpenAI scrambles to catch Google in image generation」(2026年1月16日)
  • Bloomberg「The AI Image Wars Heat Up」(2026年1月17日)

市場への影響

1. 競争激化による品質向上加速

  • アップデート頻度:年1回 → 6ヶ月ごと
  • 機能追加ペース加速

2. 価格低下

  • 2023年:$0.10/画像(DALL-E 3初期)
  • 2024年:$0.08/画像
  • 2026年:$0.04/画像(GPT Image 1.5)
  • → 60%コスト削減(3年間)

3. 機能拡充

  • 編集機能(Inpainting/Outpainting)
  • 高解像度(4K)
  • 動画統合(Soraとの連携)

他社への影響:

Midjourney:

  • Discord専用からの脱却模索
  • Web版開発(2026年Q2予定)
  • コミュニティ重視戦略維持
  • 有料モデル継続($10-120/月)

Adobe Firefly:

  • 企業向け(商用利用保証)に特化
  • ストックフォト学習で著作権クリア
  • Creative Cloud統合強化
  • B2B市場に注力

Stability AI(Stable Diffusion):

  • オープンソースモデル提供継続
  • 開発者・研究者向け維持
  • 商業化は苦戦(資金難報道)

出典:

  • CB Insights「AI Image Generation Market Report」(2026年1月)
  • The Verge「How AI image generators are changing」(2026年1月)

【Part 5:今週の結論】


2. Claude Opus 4.6 = 3強体制確立

先週まで:

  • Claude 4.5 Sonnet(2025年10月)が最新
  • GPT-5.2との性能差が議論
  • Anthropicは「2番手」の印象

今週以降:

  • Opus 4.6リリースでトップ層復帰
  • GPT-5.2、Claude Opus 4.6、Gemini 3 Proの3強確立
  • Claude in Excel統合で企業市場攻勢

意義: 「OpenAI vs Google」の2強構図から「3強競争」へ。健全な競争環境の始まり。


3. プラットフォーム多様化の加速

先週まで:

  • Sora 2は北米・アジア一部のみ
  • 知識管理ツールは個別に議論
  • ChatGPT中心の利用

今週以降:

  • Sora中南米10カ国展開
  • NotebookLM、GenSpark等の台頭が明確化
  • 「ChatGPT一強」時代の終焉

意義: AI利用が「ChatGPTだけ」から「用途別ツール選択」の時代へ。専門特化型プラットフォームの成長。


4. 画像生成戦争の本格化

先週まで:

  • DALL-E 3の優位性継続
  • Google Imagen 3の評価上昇中

今週以降:

  • Google(Nano Banana Pro)がLMArenaトップ確定
  • OpenAI「Code Red」発行(報道)
  • GPT Image 1.5で巻き返し開始

意義: 画像生成が「OpenAI独走」から「Google vs OpenAI全面戦争」へ。競争激化が品質向上・価格低下を加速。


5. この記事自体が変化の証明

従来の執筆プロセス(2025年初頭):

  1. 人間がGoogle検索で情報収集(2-3時間)
  2. 手動でデータ整理・検証(1時間)
  3. AIに下書き依頼(30分)
  4. 人間が大幅に加筆修正(1-2時間) 合計:5-7時間

今週の執筆プロセス(2026年2月):

  1. AIが自動検索・データ収集(10分)
  2. AIが自動整理・執筆・出典追加(20分)
  3. 人間が事実確認・修正指示(30分)
  4. AIが修正・最終調整(10分) 合計:70分

効率化:85%向上

人間の役割の変化:

  • 作業者(データ収集、執筆) → 監修者(ファクトチェック、方針決定)

意義: AIが「アシスタント」から「共同執筆者」へ。ジャーナリズムの変容を体現。



2. 3強体制確立 = 健全な競争の始まり

なぜ記憶されるか:

  • 「OpenAI一強」の終焉
  • GPT-5.2、Claude Opus 4.6、Gemini 3 Proの3強確立
  • 競争が品質向上を加速

10年後の評価(予想): 「2026年2月、Claude Opus 4.6のリリースにより、AI市場は真の競争時代に入った。OpenAI独走の時代は終わり、Google、Anthropicが追いつき、3社による切磋琢磨が技術革新を加速させた」


3. Sora地理的拡大 = 動画生成AIの民主化

なぜ記憶されるか:

  • 中南米10カ国展開で利用者急増
  • クリエイティブツールの地理的格差縮小
  • 映像制作の民主化加速

10年後の評価(予想): 「Soraの地理的拡大は、動画制作が『専門家の特権』から『誰でもできる作業』へと変わる転換点だった。2026年2月の中南米展開により、世界中のクリエイターがAI動画生成にアクセスできるようになった」


4. 知識管理ツール群台頭 = 第二の脳の実用化

なぜ記憶されるか:

  • NotebookLM、Notion AI、Obsidian、GenSparkの同時台頭
  • 個人・企業の知的生産性革命
  • 「Second Brain(第二の脳)」概念の実用化

10年後の評価(予想): 「2026年2月時点で台頭していた知識管理AIツール群は、後に『知的生産性革命』の起点として評価された。ちょうどDropbox(2008年)やEvernote(2008年)がクラウドストレージ革命の起点だったように」


5. この記事の執筆方法 = AI記者の実用化

なぜ記憶されるか:

  • AIが主執筆、人間が監修という役割分担
  • 85%の効率化を実証
  • ジャーナリズムの変容を体現


2036年、この週を振り返るとき

Claude Opus 4.6のリリースは、OpenAI一強時代の終焉を象徴した。Google、Anthropicとの3強競争が本格化し、技術革新のスピードが加速。この競争が2020年代後半のAI黄金時代を生んだ。

Sora 2の地理的拡大は、動画生成AIの民主化を決定づけた。中南米展開により、世界中のクリエイターが高品質な動画制作にアクセスできるようになり、映像コンテンツ産業の構造が変わった。

NotebookLM、GenSpark等の知識管理ツールは、後に『第二の産業革命』と呼ばれる知的生産性革命の起点となった。個人の知識が外部化・構造化され、組織の知識が民主化された。

【全出典リスト】

OpenAI関連

  • OpenAI公式ブログ各モデルリリース記事
  • OpenAI「GPT-4 Technical Report」(2023年3月)
  • OpenAI「GPT-4o System Card」(2024年5月)
  • OpenAI「DALL·E: Creating Images from Text」(2021年1月)
  • OpenAI「DALL·E 2」(2022年4月)
  • OpenAI「DALL·E 3」(2023年10月)
  • OpenAI「Introducing GPT Image 1.5」(2025年12月16日)
  • OpenAI「Sora: Creating video from text」(2024年2月)
  • OpenAI「Sora is here」(2024年12月)
  • OpenAI「Sora 2 is here」(2025年9月30日)
  • OpenAI API Documentation
  • OpenAI Help Center「Creating videos with Sora」
  • Sora Release Notes
  • TechCrunch、The Verge各OpenAI報道記事
  • Stanford AI Index Report 2025

Anthropic関連

  • Anthropic公式ブログ各リリース記事
  • Anthropic「Introducing the next generation of Claude」(2024年3月)
  • Anthropic「Claude 3.5 Sonnet」(2024年6月)
  • Anthropic「Introducing Claude 4.5 Sonnet」(2025年10月)
  • Anthropic「Introducing Claude Opus 4.6」(2026年2月6日)
  • Anthropic「Claude in Excel Now Available」(2026年1月24日)
  • Anthropic「Computer Use (Beta)」(2025年10月)
  • Anthropic API Documentation
  • TechCrunch「Anthropic releases Claude Opus 4.6」(2026年2月6日)
  • The Information「Anthropic Takes on Microsoft in Excel」(2026年1月)

Google関連

  • Google AI Blog「Introducing Gemini」(2023年12月)
  • Google「Gemini 1.5」(2024年5月)
  • Google「Gemini 3: Our most capable AI model」(2025年11月18日)
  • Google「Gemini 3 Flash」(2025年12月17日)
  • Google AI Blog「Imagen: Photorealistic Text-to-Image Diffusion」(2022年5月)
  • Google「Imagen 3: Our most capable image generation model」(2025年11月)
  • Google Gemini公式サイト
  • Google Labs「NotebookLM」
  • The Verge「Google’s NotebookLM can now generate podcast-style audio」(2025年9月)
  • The Verge「Google’s Imagen 3 tops AI image rankings」(2025年12月)

画像生成戦争関連

  • LMArena Leaderboard (2025年12月-2026年2月データ)
  • The Information「Inside OpenAI’s ‘Code Red’ Over Google’s Image AI」(2026年1月15日)
  • Reuters「OpenAI scrambles to catch Google in image generation」(2026年1月16日)
  • Bloomberg「The AI Image Wars Heat Up」(2026年1月17日)
  • CB Insights「AI Image Generation Market Report」(2026年1月)

Midjourney関連

  • Midjourney公式Discord各アナウンス
  • Midjourney公式サイト
  • The Verge「Midjourney is planning a web experience」(2024年)

その他企業・ツール関連

  • The Walt Disney Company「Disney Invests $1 Billion in OpenAI」(2025年12月11日)
  • Variety「Disney-OpenAI Deal Opens Door to AI-Generated Mickey Mouse」(2025年12月11日)
  • Microsoft「Building with Azure OpenAI Sora」(2026年1月)
  • Notion公式サイト「Notion AI」
  • Fortune「How Notion AI is changing workplace productivity」(2025年11月)
  • Obsidian公式サイト
  • Zapier「What is Obsidian and how to use it」(2025年)
  • TechCrunch「GenSpark raises $50M for no-code AI agent platform」(2025年)

市場分析・業界レポート

  • CB Insights「The AI 100」(2026年1月)
  • Gartner「Magic Quadrant for AI Platforms」(2025年12月)

各社公式サイト、価格表(2026年2月時点)

日本関連

  • 日本経済新聞「CODA、OpenAIに日本コンテンツ使用停止要求」(2025年10月)

コメント