このページは、AI の「やり方」が時代とともにどう変わってきたかを、できるだけやさしい言葉でなぞるための読み物です。専門用語が出たら、その場で短く意味を足します。年号や人名はおおまかな目安で、学術の細かい年表より 全体のイメージ をつかむことを優先しています。
推論とは、与えられた情報から、次に何が言えるかを考えて結論を出すことです。モデル とは、現実を単純化した「計算の型」のイメージで読んでください(語の幅の整理は同ページ)。
全体の流れ(ざっくり)
時代は次のように重なります。① 人がルールを書いて機械に判断させる。② ルールより先に、過去データからパターンを学ばせる。③ 写真や文章など複雑なデータでは、見るべき要素(特徴)の作り方までデータに任せる。④ 一度つくった巨大な土台を、いろいろな仕事に流用する。⑤ いまは、検索や既存のシステムと組み合わせて全体をつくる、という流れが強くなっています。
各時代の見出し(ルールベース〜エージェントとハイブリッド)は、対応する md/ai/ 配下のフォルダ索引(index.md)へリンクしています。
ルールベースモデル(記号推論モデル)の時代
ざっくりいうと:「もしこうなら、こうする」と書かれたルールを積み上げて、機械に判断させようとした時代です。
目安の年代:1950 年代後半から 1980 年代ごろ。戦後まもなく、計算機で人のような知的な仕事ができないか、という期待が高まりました。Alan Turing の「機械は思考できるか」という問いは、あとから続く議論の出発点になります。1956 年のダートマス会議で研究仲間が集まり、John McCarthy らが artificial intelligence(人工知能) という言葉を広めました。
何をしたかったか:専門家の頭の中にある判断を、文章やルールとして外に出し、だれが使っても同じように結論が出るようにしたかった、という面があります。形式知とは、マニュアルに書ける形にした知識、という意味合いです。
Allen Newell と Herbert A. Simon は、記号(文字や記号で表した知識)と手続きを組み合わせて問題を解く、という考え方を示しました。Edward Feigenbaum が進めたエキスパートシステムは、「ルールを足せば足すほど強くなるはず」という期待を産業界にも広げました。医療では Edward Shortliffe らの MYCIN のように、ルールで診断を手伝う試みも知られています。
どこでつまずいたか:現実の仕事には例外が尽きません。ルールを足すほど管理が難しくなり、指数関数的(少し増えるだけで、組み合わせが爆発的に増えるイメージ)に重くなることがあります。また、人の会話のように、言い方がちがう入力には、ルールだけでは追いきれません。この壁から、次の時代へ進む動きが出てきました。
古典機械学習モデルの時代
ざっくりいうと:人が全部のルールを書くのではなく、過去の傾向を学ぶ方法が主流になった時代です。統計モデルは、その代表的な仕組みです。
目安の年代:1980 年代から 2000 年代前半ごろ。表のようなきれいなデータや、比較的単純な数値なら、線形モデルやロジスティック回帰など素直な手法でもよく使われました。Leo Breiman のランダムフォレストは、アンサンブル(複数を組み合わせて精度を上げる考え方)の一例です。Vladimir Vapnik の支持ベクトル機械(SVM)は、データをうまく区切って分類する強い手法として知られます。Judea Pearl の因果と確率の考え方は、「ただ一緒に動いているだけ」ではなく 原因と結果 をはっきりしたい、という流れの土台にもなりました。
用語メモ:特徴量とは、予測や分類に使う「データから取り出した要点」です。例えば家賃を予測するなら「駅からの距離」「築年数」などが特徴量になります。古典機械学習では、ここを人が設計することが多い、というのが大きな特徴です。
どこで限界が見えたか:画像、音声、自然言語のように情報が込み入ったデータでは、良い特徴量を人が設計するのがとても大変です。このボトルネック(全体の作業のうち、いちばん迷う部分)が、深層学習へ進む入口になりました。
深層学習モデルの時代
ざっくりいうと:ニューラルネット(神経回路をまねた計算のつながり)を深く重ね、特徴の作り方そのものもデータから学ぶようになった時代です。
目安の年代:2006 年以降、計算が現実的な速さになり、2010 年代に画像認識などで広く使われました。2012 年ごろの大規模な画像認識の競技で、深層モデルが実務でも十分使える、という認識が広がりました。Geoffrey Hinton、Yann LeCun、Yoshua Bengio らが長年積み上げてきた研究が、ここで大きく花開いた、と理解してよいでしょう。
用語メモ:畳み込みは、画像の「近くの模様」を見るのに向いた型です。**再帰(リカレント)**構造は、時系列(前後の順番があるデータ)のつながりをつかむのに使われてきました。Transformer(2017 年ごろ)は、文章のように離れた部分同士の関係も扱いやすい設計で、その後の言語モデルの中心になりました。
トレードオフ:性能は上がりやすい一方、学習に時間と電力がかかり、大量のデータに依存します。また「なぜそう判断したか」を短く説明するのが難しい場面も増え、安全面のチェックも重くなります。だから次の時代では、一度つくった大きなモデルを再利用して軽くする流れが強まります。
基盤モデルの時代
ざっくりいうと:会社ごとの仕事の前に、**あらかじめ巨大なデータで広く学習した土台(基盤)**をつくり、あとから用途に合わせて調整する、というやり方が主流になりました。
用語メモ:事前学習は、その広い学習の段階です。下流タスクは、そのあとで行う具体的な業務向けの調整や利用、という意味で使われることが多いです。コーパスは、学習に使う文章データの束、という意味でかまいません。BERT や GPT に代表されるように、一つのモデルが単一の仕事専用ではなく、土台として語られるようになりました。2021 年ごろに Stanford を中心とする研究グループが整理した foundation models という呼び方も、この流れを名前にしたものです。
動機:タスクごとにゼロから別々のモデルを育てると時間と費用がかかりすぎるので、同じ土台を何度も使いたい、というのが正直なところです。画像、音声、動画の生成モデルも、似た構造を持ちやすいです。
新しい論点:著作権、個人情報、計算コスト(推論コスト:答えを出す費用)、運用の監査など、システム全体の責任が重くなります。
エージェントモデルとハイブリッドモデルの時代
ざっくりいうと:チャットの AI だけにすべて任せるのではなく、**検索・データベース・社内の決まり・既存のプログラム(API)**などを外側に置いて、組み合わせて使う設計が増えた時代です。
強化学習は、試しながら「よい動き方」を学ぶ考え方です。ゲームやロボットの話題でもよく出てきます。Richard Sutton と Andrew Barto がまとめた教科書的な整理で知られます。逐次意思決定とは、一手一手選んでいく意思決定の並び、というイメージです。
**検索拡張生成(RAG)**は、まず必要な情報を検索してから答えを生成する方式で、モデル単体だけに頼らない工夫の代表例です。ハイブリッドとは、生成だけ、検索だけ、では足りない場面で、役割を分け、あとから追える記録(ログ)や監査しやすい経路を残す、という設計の考え方です。
いま強い論点:答えの正しさ(精度)だけでなく、安全性、説明のしやすさ、コスト、障害が出たときの原因の切り分け、**だれがどこまで触っていいか(権限)**など、システムとしての設計が主役になります。
読み方の注意
歴史は一本道ではありません。同じ年代でも、工場、大学、病院で異なる動きが同時に進んでいます。このノートは「教科書の順番」ではなく、説明しやすい流れで並べています。