このページは、foundation-model/ 配下にある各モデルの歴史的背景を、できるだけやさしい言葉で整理するためのノートです。../history.md と同じく、細かな年表の厳密さより、研究の流れと考え方の移り変わりをつかむことを優先しています。
事前学習とは、特定の業務タスクの前に、広いデータで一度大きく学習する段階です。下流タスクとは、そのあとで行う具体的な業務向けの調整や利用、という意味で使われることが多いです。
全体の流れ(ざっくり)
基盤モデル領域の流れは、次のように重なります。① タスク専用モデルから、再利用可能な土台へ重心が移る。② 事前学習とファインチューニングで適応する。③ 指示や対話、安全性の要求が強まる(アライメント)。④ 言語以外のモダリティや生成へ拡張する。⑤ コスト・権利・監査など、運用とガバナンスが主題になる、という流れです。
各モデル章の見出し(事前学習〜運用とガバナンス)は、対応する foundation-model/ 配下の索引(index.md)へリンクしています。
1〜5 と各章の対応
- ① 再利用可能な土台へ → 「基盤モデルへの移行(詳細)」
- ② 事前学習と適応 → 「事前学習とファインチューニングの展開」
- ③ 指示と安全性 → 「指示・対話とアライメントの展開」
- ④ マルチモーダルと生成 → 「マルチモーダルと生成の展開」
- ⑤ 運用とガバナンス → 「運用・コスト・ガバナンスの展開」
① は本ページ内の節のみです。
基盤モデルへの移行(詳細)
ざっくりいうと:会社ごとの仕事のたびにゼロから別モデルを育てるのではなく、一度つくった巨大な土台を何度も使う設計が主流になった、という流れです。
何が変わったか:深層学習で性能が上がるほど、学習コストが重くなりました。そこで、広いデータで一般性を学び、個別業務では軽い手続きで適応する、という分業が強まりました。
用語メモ:2021 年ごろに Stanford を中心とする研究グループが整理した foundation models という呼び方も、この流れを名前にしたものです。
注意点:「基盤」が万能ではなく、用途によっては古典手法やルール、検索と組み合わせる方が安全で安い場合があります。
事前学習とファインチューニングの展開
ざっくりいうと:BERT のような双方向の文脈モデルや、GPT のような自己回帰モデルなど、事前学習の目的関数は様々ですが、共通して「広いコーパスで言語や世界の規則性を押さえる」点があります。
目安の年代:2018 年以降、NLP を中心に実務利用が拡大しました。
何をしたかったか:タスクごとのデータが少なくても、まず強い出発点を作りたい、という動機です。
どこでつまずいたか:事前学習データの偏りが、そのままモデルの偏りになります。ファインチューニングでも、データ漏えいや評価のすり抜けに注意が必要です。
指示・対話とアライメントの展開
ざっくりいうと:「正しい答え」だけでなく、望ましい振る舞い(拒否、注意書き、ポリシー遵守)を合わせる努力が前面に出ます。
目安の年代:2020 年代に強まり、製品化とセットで語られるようになりました。
何をしたかったか:有用性と安全性の両立、悪用耐性、ブランド方針への整合などです。
どこでつまずいたか:評価が難しく、環境が変わると挙動が変わりやすいです。説明責任や監査の要求も重くなります。
マルチモーダルと生成の展開
ざっくりいうと:文章だけでなく、画像・音声・動画など、複数モダリティを扱うモデルや、生成を主目的とするモデルが拡張されました。
目安の年代:2020 年代に実務と文化の両面で影響が大きくなりました。
何をしたかったか:一つの土台で、入力や出力の形が違う仕事もまとめて扱いたい、という狙いです。
どこでつまずいたか:著作権、肖像、真偽、生成物の責任所在など、社会実装の論点が増えます。
運用・コスト・ガバナンスの展開
ざっくりいうと:推論コスト(答えを出す費用)、レイテンシ、個人情報、ログと監査、権限管理など、システムとしての設計が主役になります。
目安の年代:基盤モデルが製品に載るほど、継続的に論点化しています。
何をしたかったか:精度だけでなく、止まらない運用、事故時の切り分け、コンプライアンスを満たすことです。
どこでつまずいたか:モデル単体の性能評価だけでは足りず、データ管轄や第三者 API 依存も含めた設計が必要になります。
いまの見方(エージェントとハイブリッドとの接続)
基盤モデルは、単体で完結するより、検索・データベース・ツールと組み合わせる設計が増えています。次の時代のノート(agent-hybrid-model/)と自然につながります。