ルールを書くAIと、例から学ぶAI──シンボリックとニューラル

タグ一覧を見る

AIの方式は、明示的なルールや知識を扱う流れと、データの例からパターンを学ぶ流れのあいだで発展してきました。第3話では、シンボリックAIとニューラルネットワークを対立させすぎず、それぞれの得意さと読みにくさを一般向けに整理します。

AIはルールを書く道具としても、例から学ぶ仕組みとしても作られてきました。シンボリックとニューラルの違いを、過度に専門化せずに読む回です。

読む前に:方式の違いは、性格の違いとして読む

第2話では、弱いAI、強いAI、AGIという分類語を見ました。第3話では、もう少し内側へ進みます。AIはどのように作られてきたのか。ここでは大きく、「ルールを書くAI」と「例から学ぶAI」という対比で考えます。専門的には、シンボリックAI、知識ベース、ニューラルネットワーク、機械学習など、たくさんの言葉が出てくる領域です。

ただし、この回で目指すのは用語の暗記ではありません。方式の違いを、道具の性格の違いとして読むことです。ある方式は中身を説明しやすいが、柔軟性に限界が出やすい。別の方式は大量の例から強い性能を出すが、判断の筋道を人間が読み取りにくい。どちらが完全に正しい、どちらが古い、という話ではありません。

AIの歴史は、単純な世代交代の物語ではありません。ルールの発想が消えたわけでも、ニューラルな方法だけですべてが解けるわけでもありません。現実には、検索、ルール、統計、学習、外部ツール、人間の監督が混ざって使われます。その混ざり方を見るためにも、まず二つの極を知っておくと便利です。

ルールを書くAIの直感

ルールを書くAIを想像するなら、まず「もしAならBする」という形を思い浮かべるとよいでしょう。条件と結論を人間が明示的に書く。入力が条件に合えば、決められた処理を返す。単純な例なら、メールの件名に特定の語が含まれていたらフォルダを分ける、温度が一定以上なら警告を出す、といった処理です。

もちろん、古典的なシンボリックAIは、このような単純な条件分岐だけではありません。論理、記号、知識表現、推論といった広い領域があります。ただ、一般読者として押さえるなら、「知識やルールを人間が読める形で表し、それを使って答えを導く」というイメージが入口になります。専門家が持っている知識を、コンピュータが扱える形にする発想です。

この発想の強みは、理由を追いやすいことです。どのルールに当てはまったのか、どの条件が使われたのかを、人間が確認しやすい。少なくとも、そう設計しやすい。業務ルールや安全上の制約など、説明責任が重要な場面では、この「読めること」は大きな価値になります。

ルールを書くことの難しさ

一方で、ルールを書く方法には大きな難しさがあります。現実の世界は、きれいな条件に分けにくいからです。猫の写真を見分けるために、「耳が三角なら猫」「ひげがあれば猫」「毛があるなら猫」とルールを書いても、すぐに例外が出ます。犬にも耳や毛があります。ぬいぐるみにもひげがあるかもしれません。暗い写真、横向きの写真、途中で切れた写真もあります。

人間は、こうした曖昧な対象をかなり柔軟に見分けます。しかし、その柔軟さをすべて明示的なルールに落とすのは難しい。専門家が理由を言語化できる領域ならまだしも、「なんとなく似ている」「全体の雰囲気でわかる」という領域では、ルールが爆発的に増えます。ルールが増えるほど、保守も難しくなります。新しい例外が出るたびに直し、別のルールと矛盾しないか確認しなければなりません。

また、人間が書いたルールは、人間の想定の外へ出にくいという問題もあります。想定していない入力、見たことのない状況、言語化しにくいパターンには弱くなりがちです。これはルール型の欠点というより、「人間が世界をどこまで明示できるか」という根本的な問題です。

ルールを書くAIと、例から学ぶAI──シンボリックとニューラル

例から学ぶAIの直感

例から学ぶAIでは、人間がすべてのルールを手で書く代わりに、多くの例を使って関係を学ばせます。たとえば、たくさんのメールに「迷惑」「通常」というラベルを付けておき、その違いを学ぶ。たくさんの画像を見せ、どれが猫でどれが犬かを学ぶ。たくさんの文章の並びから、次に来やすい語や表現の関係を学ぶ。こうした発想です。

ここでの「学ぶ」は、人間の学習と同じではありません。AIが机に向かって意味を考えているわけではありません。入力と出力の関係を、数値的な形で調整していく、と考えたほうが近いです。うまく当たればその方向を強め、外れれば調整する。多くの例を通じて、判断の境界や表現を作っていきます。

この方法の強みは、人間が明示しにくいパターンを扱いやすいことです。画像の質感、声の揺れ、文章の自然さ、購買行動の傾向。人間が一つひとつのルールにできないものでも、十分なデータと適切な設計があれば、実用的な性能が出ることがあります。現在の多くのAI応用は、この例から学ぶ発想と深く結びついています。

重みの塊としてふるまう、という読みにくさ

しかし、例から学ぶAIには別の難しさがあります。中身が読みにくいのです。特にニューラルネットワークでは、学習された内容は大量の数値、つまり重みの組み合わせとして表れます。人間が見ても、「この一行のルールがこう働いた」とは説明しにくい。全体としては高い性能を出すのに、個別の判断理由をきれいに言語化しにくいことがあります。

これは、単に開発者が説明を隠しているという話ではありません。仕組み自体が、人間にとって読みにくい形で知識を持っている、と言ったほうがよいでしょう。もちろん、説明可能性を高める研究や工夫はあります。どの特徴が効いたのかを推定する方法、出力に根拠を添える設計、監査のための評価などもあります。それでも、ルール表を読むような透明さとは違います。

この読みにくさは、AIを使う場面で重要になります。おすすめ動画が少し外れる程度なら、理由が完全にわからなくても許容できるかもしれません。しかし、医療、採用、融資、法務、安全管理のように、判断の影響が大きい領域では、「当たるからよい」だけでは足りません。なぜそうなったのか、誰が確認するのか、異議をどう扱うのかが必要になります。

シンボリックとニューラルを、敵同士にしすぎない

AIの説明では、シンボリックAIとニューラルネットワークが対立軸として語られることがあります。昔はルール、今はニューラル。古いAI、新しいAI。そういう物語はわかりやすいですが、やや単純です。実際には、ルールや知識表現の発想が今も重要な場面はありますし、ニューラルな方法だけでは扱いにくい制約もあります。

たとえば、文章を生成するAIが外部の検索システムを使ったり、生成後にルールで禁止表現をチェックしたり、人間が決めた安全方針に沿って調整されたりすることがあります。これは、学習されたモデルだけで世界のすべてを抱え込むのではなく、周辺の仕組みと組み合わせる発想です。現代のシステムは、単一の方式というより、複数の部品の組み合わせとして見るほうが現実に近いことが多いです。

だから、「ルール型は古い」「ニューラルは万能」と覚えるより、「読めるルールと、例から作る表現にはそれぞれ得意不得意がある」と覚えるほうが役に立ちます。AIの方式を知る意味は、歴史の勝者を選ぶことではなく、使われている道具の性格を見抜くことにあります。

将棋やチェスの例で見えること

ゲームは、AIの方式を考えるうえでよく使われる例です。盤面が決まっていて、合法手が定義され、勝敗も明確です。こうした領域では、探索や評価の工夫が大きな力を持ちます。どの手を読むか、どこまで先を見るか、盤面をどう評価するか。人間の直感に近い説明もできる部分があり、同時に人間には到底読めない量を計算する強みもあります。

ただし、ゲームで強いことを、そのまま現実世界の万能性に結びつけるのは危険です。ゲームはルールが閉じています。盤面にある情報が明確で、勝ち負けの基準もはっきりしています。現実の会話、医療、教育、職場の判断は、ルールも情報もずっと曖昧です。ゲームAIの成功から学べることは多いですが、「だから日常のすべてでも同じように勝てる」とは言えません。

逆に、ゲームで発展した考え方が他の領域に影響することはあります。探索、評価、学習、自己対戦のような発想は、幅広いAIの議論につながります。重要なのは、例をそのまま一般化しすぎず、「この例では何が扱いやすかったのか」を見ることです。

データから学ぶほど、データの世界に引っ張られる

例から学ぶAIでは、データが非常に重要になります。どんな例を見たのか。誰のデータなのか。どの時期のデータなのか。偏りはあるのか。ラベルは誰が付けたのか。こうした問いは、モデルの性能だけでなく、社会的な影響にもつながります。

データから学ぶということは、データに含まれる世界観もある程度受け取るということです。過去の判断に偏りがあれば、それを学ぶ可能性があります。特定の言語や文化のデータが多ければ、その範囲で強くなりやすい一方、少ない領域では弱くなることがあります。これはAIが悪意を持っているという話ではなく、学習の素材が結果に影響するという話です。

ルールを書くAIでは、ルールを書いた人の前提が問題になります。例から学ぶAIでは、データとラベルと評価の前提が問題になります。どちらも、人間社会から独立した純粋な知能ではありません。方式は違っても、人間の選択が中に入っています。

ルールを書くAIと、例から学ぶAI──シンボリックとニューラル

説明しやすさと性能のトレードオフ

AIを評価するとき、性能だけでなく説明しやすさも見たいところです。ある方式は、人間が理由を追いやすいが、複雑なパターンには弱いかもしれません。別の方式は、複雑なデータで高い性能を出すが、個別判断の説明が難しいかもしれません。このトレードオフは、用途によって重みが変わります。

たとえば、個人が写真を自動整理する機能なら、多少の誤分類や説明不足は許容できることがあります。間違っても自分で直せます。一方で、人の権利や機会に関わる判断では、説明できること、異議を申し立てられること、再確認できることが重要になります。AIの方式を知る意味は、この重みづけを考えるためにもあります。

ここで「説明できないAIは使ってはいけない」と単純に言い切る必要はありません。説明しにくいAIでも、用途によっては十分に役立ちます。ただし、「説明しにくいのに、説明が必要な場所で使う」と問題が起きます。性能、透明性、責任、修正可能性。これらを用途ごとに見比べることが大切です。

方式を知ると、質問が変わる

シンボリックとニューラルの違いを知ると、製品説明を読むときの質問が変わります。「これはどんなデータで学んだのか」「人間が書いたルールはどこに入っているのか」「出力を制約する仕組みはあるのか」「判断理由をどこまで確認できるのか」「間違いを直したとき、次に反映されるのか」。こうした質問は、専門家でなくても持てます。

もちろん、すべての企業が詳細を公開してくれるわけではありません。モデルの内部仕様が非公開なこともあります。しかし、質問を持っているだけで、説明の受け取り方は変わります。答えられる部分、答えられない部分、意図的に曖昧にされている部分が見えやすくなります。

AIの方式を学ぶ目的は、内部を完全に透視することではありません。完全にわからないからこそ、どこがわからないのかを切り分ける必要があります。ルールなのか、データなのか、評価なのか、運用なのか。その切り分けが、次の話で扱う歴史の読み方にもつながります。

今回のまとめ

  • ルールを書くAIは、人間が明示した知識や条件を使って判断する発想として理解できる
  • 例から学ぶAIは、多くのデータから入力と出力の関係を調整していく発想である
  • ルール型は説明しやすいが、現実の曖昧さや例外をすべて書くのが難しい
  • ニューラルな方法は複雑なパターンに強い一方、判断理由を人間が読み取りにくいことがある
  • 現代のAIシステムは、ルール、学習、検索、人間の監督などが混ざることも多い
  • 方式を知ると、データ、説明可能性、修正可能性について具体的に質問できる
  • 次回は、こうした方式をめぐる期待と反省の周期を、AIブームの歴史として読む

シリーズ

AIとは何を指すのか──弱いAI・強いAI・系譜を10話で読み解く

第3回 / 全10本

第1回 / 無料記事

「AI」は一つの技術ではない──語がふくらむとき

AIという言葉は、一つの装置や方式を指す名前ではありません。まずは総称としてのふくらみをほどき、ニュースや製品説明を読むための地図を持つ導入回です。

この記事へ移動

第2回 / 無料記事

弱いAIと強いAI──分類は地図であって、占いではない

弱いAIと強いAIは、未来を当てる占いではなく、議論の範囲をそろえるための地図です。AGIという語に振り回されないための回です。

この記事へ移動

第3回 / 無料記事

ルールを書くAIと、例から学ぶAI──シンボリックとニューラル

AIはルールを書く道具としても、例から学ぶ仕組みとしても作られてきました。シンボリックとニューラルの違いを、過度に専門化せずに読む回です。

現在表示中の記事です。

この記事を開く

第4回 / 会員向け

期待が先に走る──AIブームと反省の周期を読む

AIの期待は、ときに技術より先に走ります。ブームと反省の周期を、誰かの失敗談ではなく構造として読む回です。

この記事へ移動

第5回 / 会員向け

機械学習という「経験からの関数づくり」

機械学習の『学習』は、人間の勉強と同じではありません。データ、損失、汎化、評価という基本語を、身近な例でつなぎます。

この記事へ移動

第6回 / 会員向け

深層学習が変えた「特徴」の作り方

深層学習が変えたのは、答えだけでなく『何を見るか』の作り方でした。特徴抽出、層、データと計算資源の関係を整理します。

この記事へ移動

第7回 / 会員向け

言語モデルから大規模言語モデルへ──何が連続で、何が跳ねたか

大規模言語モデルは、連続してきた技術と、体験として跳ねた部分が重なっています。『理解している』を一枚岩にしないための回です。

この記事へ移動

第8回 / 会員向け

言語の外側──画像・音声・制御もAIである

チャットが目立つ時代ほど、AIが言語の外側にも広がっていることを忘れがちです。問題設定ごとの違いを見に行きます。

この記事へ移動

第9回 / 会員向け

賢さをどう測るか──ベンチマークとチューリングの周辺

AIが人間レベルを超えた、という見出しの前に、何をどう測ったのかを聞く必要があります。評価の道具と限界を扱う回です。

この記事へ移動

第10回 / 会員向け

地図を持ったあとでニュースを読む──AI見出しへの質問リスト

AIの地図を持ったあとで、ニュースや製品説明をどう読むか。最終回は、タスク、データ、評価、責任を聞く質問リストに落とします。

この記事へ移動

関連シリーズ

近いテーマのシリーズ

現在の記事カテゴリ: AI入門

生成AI AI史 入門

AI入門 / 全10本

AIの“それっぽさ”を、そのまま信じないために──検証リテラシー10話

生成AIの出力を、そのまま信じずに読むための確認手順を、出典、数字、検索、訂正まで10話で整理するシリーズです。

共通タグ: 生成AI

生成AI 意思決定 リスク

このシリーズを読む

AI入門 / 全10本

書く・調べる・覚えるの歴史から見るAI

書く・調べる・覚える道具の歴史から、AI時代の学びを考えます。

共通タグ: AI史 / 生成AI

AI史 学習 生成AI 入門

このシリーズを読む

AI入門 / 全10本

「自分の頭の中」をAIに整理してもらう ── 認知バイアス10話

自分の頭の中の偏りや迷いを、AIとの対話で整理するシリーズです。

共通タグ: 生成AI

生成AI 意思決定 AIとの付き合い方

このシリーズを読む

AI活用 / 全10本

仕事を助ける道具は、仕事をどう変えてきたか

仕事を助ける道具の歴史から、AIが働き方をどう変えるかを読みます。

共通タグ: AI史

AI史 仕事 業務活用 生産性

このシリーズを読む

AI入門 / 全10本

AIが気になりだしたら最初に読む話

AIが気になりだした人に向けて、最初に知りたい基本と距離感を整理します。

共通タグ: 生成AI

入門 生成AI

このシリーズを読む