用語が壁になっている
AIの話題が出ると、聞き慣れない言葉が次々に出てきます。LLM、プロンプト、ファインチューニング、マルチモーダル、エージェント——。知らない単語が3つ続くと、人は話を追うのをやめてしまいます。
この回では、ニュースや日常会話で出てくる頻度が高いAI用語を厳選して、「だいたいこういうものだ」と分かるレベルで整理します。辞書のような正確な定義ではなく、「次にこの言葉を聞いたとき、話の流れについていける」ことを目指します。

もっとも基本的な言葉
AI(人工知能)
コンピューターに人間のような知的な振る舞いをさせる技術の総称です。範囲はとても広く、迷惑メールフィルタからChatGPTまで、すべて「AI」に含まれます。ニュースで「AI」と言うとき、多くの場合は次に挙げる「生成AI」を指しています。
生成AI
文章、画像、音楽、動画などを新しくつくり出すAIのことです。ChatGPT(文章)、DALL-E(画像)、Suno(音楽)などがこれにあたります。「AIが◯◯を作った」というニュースは、ほとんどがこの生成AIの話です。
LLM(大規模言語モデル)
大量の文章データを学習し、自然な文章を生成できるAIモデルのことです。ChatGPTの裏側で動いているGPT-4やGPT-4o、Googleが開発したGemini、Anthropicが開発したClaudeなどがLLMです。「大規模」というのは、学習に使ったデータ量とモデルのパラメータ数が桁違いに大きいことを意味しています。
AIの「使い方」に関する言葉
プロンプト
AIに入力するテキスト(指示文)のことです。第4回で詳しく扱いました。「プロンプトを工夫する」とは、AIへの指示の出し方を精密にすることを指します。
プロンプトエンジニアリング
AIから望ましい出力を引き出すために、プロンプトの書き方を工夫する技術です。「役割を指定する」「出力フォーマットを決める」「例を示す」などの方法論があります。名前は大げさですが、要は「AIへの伝え方を上手くする」ことです。
チャットボット
テキストの会話形式で応答するプログラムのことです。カスタマーサポートの自動応答などで以前から使われていました。ChatGPTも形式としてはチャットボットですが、従来のものとは出力の精度が大きく異なります。
マルチモーダル
テキストだけでなく、画像、音声、動画など複数の形式のデータを扱えるAIのことです。たとえばGPT-4oは、テキストを入力するだけでなく、画像を送って「この写真に写っているものを説明して」と指示することもできます。「マルチ(複数)モーダル(様式)」という意味です。
AIの「仕組み」に関する言葉
学習(トレーニング)
AIに大量のデータを読み込ませて、パターンを獲得させるプロセスです。AIの性能はこの学習の量と質に大きく左右されます。学習をやり直すには膨大なコストがかかるため、一度学習されたモデルは長期間使われます。
ファインチューニング
すでに学習済みのAIモデルを、特定の目的に合わせて追加で調整するプロセスです。たとえば、汎用的なLLMを、医療の質問に特化させるために医療文献で追加学習させるようなケースです。「一から作り直す」のではなく「すでにあるものを微調整する」のがポイントです。
パラメータ
AIモデルが持つ「調整可能な数値」の数のことです。人間の脳で言えば「シナプスの接続の数」に近いイメージです。最新のLLMは数千億〜数兆のパラメータを持っていて、この数が大きいほど複雑なパターンを学習できるとされています。
ハルシネーション
AIが事実と異なる内容を、もっともらしく出力する現象のことです。第5回で詳しく説明しました。「幻覚」という意味で、AIが「見ていないもの」を見たかのように語ることを指しています。
AIの「影響」に関する言葉
AIエージェント
人間の指示を受けて、複数のステップを自律的に実行するAIのことです。たとえば「来週の出張の手配をして」と言うと、フライトの検索、ホテルの予約、スケジュールの調整を順番にこなす——というのが、AIエージェントの理想形です。2025年時点ではまだ発展途上ですが、大きなトレンドのひとつです。
AGI(汎用人工知能)
人間と同じように、あらゆる知的作業をこなせるAIのことです。現在のAIは特定のタスクには強くても、人間のように柔軟に考えることはできません。AGIはまだ実現しておらず、実現時期については専門家の間でも大きく意見が分かれています。ニュースで「AGIが近い」と書かれていても、あくまで予測であって確定した事実ではありません。
ディープフェイク
AIを使って作られた偽の画像や動画のことです。実在の人物の顔を別の映像に合成したり、本人が言っていないことを言っているように見せたりできます。政治や詐欺での悪用が問題になっており、「この画像は本物かAI生成か」を見分ける技術の開発も進んでいます。
バイアス(偏り)
AIの学習データに含まれる偏りが、出力に反映される問題のことです。たとえば、学習データの中で「看護師」が女性の文脈で多く使われていると、AIも「看護師=女性」と結びつけやすくなります。AIは中立ではなく、学習データの偏りを映す鏡であることを知っておくことは大切です。
言葉同士のつながりを、一枚の地図で見る
AI用語が分かりにくいのは、単語そのものが難しいからというより、どの言葉がどの話題の仲間なのか見えにくいからです。まず大きな箱として「AI」があり、その中に「生成AI」があります。さらに、文章を扱う生成AIの中心に「LLM」があります。ここまでが全体像です。
そのうえで、「どう使うか」の言葉としてプロンプト、チャットボット、マルチモーダルがあり、「どう作るか・どう育てるか」の言葉として学習、ファインチューニング、パラメータがあります。そして「社会にどんな影響が出るか」の言葉として、ハルシネーション、ディープフェイク、バイアス、AIエージェント、AGIが並びます。この並びが見えるだけでも、ニュースを読んだときに「今は仕組みの話なのか、使い方の話なのか、社会影響の話なのか」が分かりやすくなります。
最低限、先に覚えるならこの5語で足りる
もし用語に苦手意識があるなら、最初から全部を覚えようとしなくて大丈夫です。先に押さえるべきなのは、AI、生成AI、LLM、プロンプト、ハルシネーションの5つくらいです。この5語が分かっていれば、「何の技術の話か」「どのタイプのAIか」「どう指示するのか」「どこに注意が必要か」という基本線が見えてきます。
言葉を覚える目的は、専門家になることではありません。分からない単語が出てきたときに、「あ、これはこの前の話の延長だな」と橋をかけられることです。その橋が一本あるだけで、AIの話題は急に追いやすくなります。用語集は暗記のためではなく、怖がらずに話の中へ戻るための足場として使うのがちょうどいいのです。
分からない言葉が出ても、話から降りなくていい
AIの話題を追っていて疲れるのは、知らない単語が出た瞬間に「もう無理だ」と感じてしまうからです。でも、実際には一語わからなくても全体の話は追えますし、後からその単語だけ調べれば十分なことが多いです。大切なのは、全部を理解してから会話に入ることではなく、わからないままでも話の骨格をつかむことです。
用語を知る意味は、置いていかれないためというより、途中で話から戻れるためです。この感覚があると、新しいモデル名や機能名が出ても必要以上に身構えずに済みます。
ニュースの見出しは、「道具」「仕組み」「社会影響」で読むと追いやすい
AIのニュースが難しく見えるのは、見出しの中で複数のレイヤーが混ざっているからです。新しいモデルの発表は「仕組み」の話、便利な新機能は「道具」の話、規制や著作権やディープフェイクは「社会影響」の話です。まずどのレイヤーの話かを分けて読むだけで、理解の負担はかなり下がります。
たとえば「新モデルが公開された」という記事を見たら、それはすぐ自分の生活に直結するとは限りません。一方で、「検索結果にAI要約が出るようになった」という話は、道具のレイヤーなので日常に近い。こうして整理すると、全部を同じ熱量で追わなくて済みます。
用語を知る目的も、まさにここにあります。知らない単語をゼロにすることではなく、話題の位置を見失わないこと。位置が見えれば、「これは今の自分に必要な話か」を落ち着いて判断できます。
分からない言葉が出たときに毎回立ち止まる必要もありません。「これは後で調べればいい」と一旦脇に置けるだけでも十分です。会話や記事の流れを追う力は、単語を全部知っていることより、「重要な言葉だけ拾う」姿勢でかなり補えます。
全部を覚える必要はない
今回挙げた言葉をすべて覚える必要はありません。重要なのは「まったく聞いたことがない状態」から「だいたい何のことか分かる状態」に移ることです。
言葉の意味が分かると、ニュースの見出しが読めるようになり、会話の流れについていけるようになり、「これは自分に関係ある? ない?」の判断ができるようになります。そして、必要なときに詳しく調べればいいのです。
次回(最終回)は「AIとの距離感を自分で決める」。このシリーズ全体のまとめとして、AIとの付き合い方を自分なりに定めるための視点を整理します。
次に読む
続きとして、自分の距離感で、AIと付き合う を読むと、整理がもう一歩進みます(同じ導線の中でのおすすめ)。