読む前に:方式の違いは、性格の違いとして読む
第2話では、弱いAI、強いAI、AGIという分類語を見ました。第3話では、もう少し内側へ進みます。AIはどのように作られてきたのか。ここでは大きく、「ルールを書くAI」と「例から学ぶAI」という対比で考えます。専門的には、シンボリックAI、知識ベース、ニューラルネットワーク、機械学習など、たくさんの言葉が出てくる領域です。
ただし、この回で目指すのは用語の暗記ではありません。方式の違いを、道具の性格の違いとして読むことです。ある方式は中身を説明しやすいが、柔軟性に限界が出やすい。別の方式は大量の例から強い性能を出すが、判断の筋道を人間が読み取りにくい。どちらが完全に正しい、どちらが古い、という話ではありません。
AIの歴史は、単純な世代交代の物語ではありません。ルールの発想が消えたわけでも、ニューラルな方法だけですべてが解けるわけでもありません。現実には、検索、ルール、統計、学習、外部ツール、人間の監督が混ざって使われます。その混ざり方を見るためにも、まず二つの極を知っておくと便利です。
ルールを書くAIの直感
ルールを書くAIを想像するなら、まず「もしAならBする」という形を思い浮かべるとよいでしょう。条件と結論を人間が明示的に書く。入力が条件に合えば、決められた処理を返す。単純な例なら、メールの件名に特定の語が含まれていたらフォルダを分ける、温度が一定以上なら警告を出す、といった処理です。
もちろん、古典的なシンボリックAIは、このような単純な条件分岐だけではありません。論理、記号、知識表現、推論といった広い領域があります。ただ、一般読者として押さえるなら、「知識やルールを人間が読める形で表し、それを使って答えを導く」というイメージが入口になります。専門家が持っている知識を、コンピュータが扱える形にする発想です。
この発想の強みは、理由を追いやすいことです。どのルールに当てはまったのか、どの条件が使われたのかを、人間が確認しやすい。少なくとも、そう設計しやすい。業務ルールや安全上の制約など、説明責任が重要な場面では、この「読めること」は大きな価値になります。
ルールを書くことの難しさ
一方で、ルールを書く方法には大きな難しさがあります。現実の世界は、きれいな条件に分けにくいからです。猫の写真を見分けるために、「耳が三角なら猫」「ひげがあれば猫」「毛があるなら猫」とルールを書いても、すぐに例外が出ます。犬にも耳や毛があります。ぬいぐるみにもひげがあるかもしれません。暗い写真、横向きの写真、途中で切れた写真もあります。
人間は、こうした曖昧な対象をかなり柔軟に見分けます。しかし、その柔軟さをすべて明示的なルールに落とすのは難しい。専門家が理由を言語化できる領域ならまだしも、「なんとなく似ている」「全体の雰囲気でわかる」という領域では、ルールが爆発的に増えます。ルールが増えるほど、保守も難しくなります。新しい例外が出るたびに直し、別のルールと矛盾しないか確認しなければなりません。
また、人間が書いたルールは、人間の想定の外へ出にくいという問題もあります。想定していない入力、見たことのない状況、言語化しにくいパターンには弱くなりがちです。これはルール型の欠点というより、「人間が世界をどこまで明示できるか」という根本的な問題です。
例から学ぶAIの直感
例から学ぶAIでは、人間がすべてのルールを手で書く代わりに、多くの例を使って関係を学ばせます。たとえば、たくさんのメールに「迷惑」「通常」というラベルを付けておき、その違いを学ぶ。たくさんの画像を見せ、どれが猫でどれが犬かを学ぶ。たくさんの文章の並びから、次に来やすい語や表現の関係を学ぶ。こうした発想です。
ここでの「学ぶ」は、人間の学習と同じではありません。AIが机に向かって意味を考えているわけではありません。入力と出力の関係を、数値的な形で調整していく、と考えたほうが近いです。うまく当たればその方向を強め、外れれば調整する。多くの例を通じて、判断の境界や表現を作っていきます。
この方法の強みは、人間が明示しにくいパターンを扱いやすいことです。画像の質感、声の揺れ、文章の自然さ、購買行動の傾向。人間が一つひとつのルールにできないものでも、十分なデータと適切な設計があれば、実用的な性能が出ることがあります。現在の多くのAI応用は、この例から学ぶ発想と深く結びついています。
重みの塊としてふるまう、という読みにくさ
しかし、例から学ぶAIには別の難しさがあります。中身が読みにくいのです。特にニューラルネットワークでは、学習された内容は大量の数値、つまり重みの組み合わせとして表れます。人間が見ても、「この一行のルールがこう働いた」とは説明しにくい。全体としては高い性能を出すのに、個別の判断理由をきれいに言語化しにくいことがあります。
これは、単に開発者が説明を隠しているという話ではありません。仕組み自体が、人間にとって読みにくい形で知識を持っている、と言ったほうがよいでしょう。もちろん、説明可能性を高める研究や工夫はあります。どの特徴が効いたのかを推定する方法、出力に根拠を添える設計、監査のための評価などもあります。それでも、ルール表を読むような透明さとは違います。
この読みにくさは、AIを使う場面で重要になります。おすすめ動画が少し外れる程度なら、理由が完全にわからなくても許容できるかもしれません。しかし、医療、採用、融資、法務、安全管理のように、判断の影響が大きい領域では、「当たるからよい」だけでは足りません。なぜそうなったのか、誰が確認するのか、異議をどう扱うのかが必要になります。
シンボリックとニューラルを、敵同士にしすぎない
AIの説明では、シンボリックAIとニューラルネットワークが対立軸として語られることがあります。昔はルール、今はニューラル。古いAI、新しいAI。そういう物語はわかりやすいですが、やや単純です。実際には、ルールや知識表現の発想が今も重要な場面はありますし、ニューラルな方法だけでは扱いにくい制約もあります。
たとえば、文章を生成するAIが外部の検索システムを使ったり、生成後にルールで禁止表現をチェックしたり、人間が決めた安全方針に沿って調整されたりすることがあります。これは、学習されたモデルだけで世界のすべてを抱え込むのではなく、周辺の仕組みと組み合わせる発想です。現代のシステムは、単一の方式というより、複数の部品の組み合わせとして見るほうが現実に近いことが多いです。
だから、「ルール型は古い」「ニューラルは万能」と覚えるより、「読めるルールと、例から作る表現にはそれぞれ得意不得意がある」と覚えるほうが役に立ちます。AIの方式を知る意味は、歴史の勝者を選ぶことではなく、使われている道具の性格を見抜くことにあります。
将棋やチェスの例で見えること
ゲームは、AIの方式を考えるうえでよく使われる例です。盤面が決まっていて、合法手が定義され、勝敗も明確です。こうした領域では、探索や評価の工夫が大きな力を持ちます。どの手を読むか、どこまで先を見るか、盤面をどう評価するか。人間の直感に近い説明もできる部分があり、同時に人間には到底読めない量を計算する強みもあります。
ただし、ゲームで強いことを、そのまま現実世界の万能性に結びつけるのは危険です。ゲームはルールが閉じています。盤面にある情報が明確で、勝ち負けの基準もはっきりしています。現実の会話、医療、教育、職場の判断は、ルールも情報もずっと曖昧です。ゲームAIの成功から学べることは多いですが、「だから日常のすべてでも同じように勝てる」とは言えません。
逆に、ゲームで発展した考え方が他の領域に影響することはあります。探索、評価、学習、自己対戦のような発想は、幅広いAIの議論につながります。重要なのは、例をそのまま一般化しすぎず、「この例では何が扱いやすかったのか」を見ることです。
データから学ぶほど、データの世界に引っ張られる
例から学ぶAIでは、データが非常に重要になります。どんな例を見たのか。誰のデータなのか。どの時期のデータなのか。偏りはあるのか。ラベルは誰が付けたのか。こうした問いは、モデルの性能だけでなく、社会的な影響にもつながります。
データから学ぶということは、データに含まれる世界観もある程度受け取るということです。過去の判断に偏りがあれば、それを学ぶ可能性があります。特定の言語や文化のデータが多ければ、その範囲で強くなりやすい一方、少ない領域では弱くなることがあります。これはAIが悪意を持っているという話ではなく、学習の素材が結果に影響するという話です。
ルールを書くAIでは、ルールを書いた人の前提が問題になります。例から学ぶAIでは、データとラベルと評価の前提が問題になります。どちらも、人間社会から独立した純粋な知能ではありません。方式は違っても、人間の選択が中に入っています。
説明しやすさと性能のトレードオフ
AIを評価するとき、性能だけでなく説明しやすさも見たいところです。ある方式は、人間が理由を追いやすいが、複雑なパターンには弱いかもしれません。別の方式は、複雑なデータで高い性能を出すが、個別判断の説明が難しいかもしれません。このトレードオフは、用途によって重みが変わります。
たとえば、個人が写真を自動整理する機能なら、多少の誤分類や説明不足は許容できることがあります。間違っても自分で直せます。一方で、人の権利や機会に関わる判断では、説明できること、異議を申し立てられること、再確認できることが重要になります。AIの方式を知る意味は、この重みづけを考えるためにもあります。
ここで「説明できないAIは使ってはいけない」と単純に言い切る必要はありません。説明しにくいAIでも、用途によっては十分に役立ちます。ただし、「説明しにくいのに、説明が必要な場所で使う」と問題が起きます。性能、透明性、責任、修正可能性。これらを用途ごとに見比べることが大切です。
方式を知ると、質問が変わる
シンボリックとニューラルの違いを知ると、製品説明を読むときの質問が変わります。「これはどんなデータで学んだのか」「人間が書いたルールはどこに入っているのか」「出力を制約する仕組みはあるのか」「判断理由をどこまで確認できるのか」「間違いを直したとき、次に反映されるのか」。こうした質問は、専門家でなくても持てます。
もちろん、すべての企業が詳細を公開してくれるわけではありません。モデルの内部仕様が非公開なこともあります。しかし、質問を持っているだけで、説明の受け取り方は変わります。答えられる部分、答えられない部分、意図的に曖昧にされている部分が見えやすくなります。
AIの方式を学ぶ目的は、内部を完全に透視することではありません。完全にわからないからこそ、どこがわからないのかを切り分ける必要があります。ルールなのか、データなのか、評価なのか、運用なのか。その切り分けが、次の話で扱う歴史の読み方にもつながります。
今回のまとめ
- ルールを書くAIは、人間が明示した知識や条件を使って判断する発想として理解できる
- 例から学ぶAIは、多くのデータから入力と出力の関係を調整していく発想である
- ルール型は説明しやすいが、現実の曖昧さや例外をすべて書くのが難しい
- ニューラルな方法は複雑なパターンに強い一方、判断理由を人間が読み取りにくいことがある
- 現代のAIシステムは、ルール、学習、検索、人間の監督などが混ざることも多い
- 方式を知ると、データ、説明可能性、修正可能性について具体的に質問できる
- 次回は、こうした方式をめぐる期待と反省の周期を、AIブームの歴史として読む