【入門】生成AI(LLM)の仕組みを子供と学ぼう!どうやって人とチャットできるの?

【入門】生成AI(LLM)の仕組みを子供と学ぼう!どうやって人とチャットできるの?
目次

「ねえ、ChatGPTって中に人がいるの?」

お子さんにこう聞かれたこと、ありませんか?

実は、AIの中に人間はいません。では、どうやって人間みたいに会話できるのでしょうか?

今日は、ChatGPTやGeminiの「すごい仕組み」を、親子で一緒に学んでみましょう!


まず知っておきたい:LLMってなに?

ChatGPTやGeminiの中には、「LLM(エルエルエム)」と呼ばれる技術が使われています。

LLM = Large Language Model(大規模言語モデル)

簡単に言うと、「ものすごくたくさんの言葉を覚えて、次に来そうな言葉を予測するプログラム」です。


AIはどうやって言葉を「学ぶ」の?

ステップ1:大量の本やウェブサイトを読む

LLMは、インターネット上の文章、本、ニュース、ウェブサイトなど、数兆文字以上のテキストを読んで学習しています。

[!NOTE] 人間が一生かかっても読めない量の本を、AIは数週間で「読む」ことができます。

ステップ2:言葉のパターンを見つける

たくさん読むうちに、AIは「言葉のルール」を見つけます。

例えば:

  • 「今日の天気は」の後には「晴れ」「曇り」「雨」が来やすい
  • 「おはよう」の後には「ございます」が来やすい
  • 「1+1は」の後には「2」が来やすい

こうしたパターンを、何億通りも記憶しています。

ステップ3:次の言葉を「予測」する

AIがチャットで返事するとき、実は「次に来そうな言葉を予測している」だけなのです。

例:

あなた:「明日の」
AI の頭の中:「天気」が来そう(80%)、「予定」が来そう(15%)、「ご飯」(5%)...
 →「天気」を選択!

あなた:「明日の天気」
AI の頭の中:「は」が来そう(90%)、「を」が来そう(5%)...
 →「は」を選択!

この「予測」を1文字ずつ(実際には「トークン」という単位で)繰り返して、文章を作っています。


よくある質問:AIは「考えて」いるの?

Q1. AIは本当に理解しているの?

厳密には「理解」していません。

AIは言葉のパターンを覚えているだけで、「意味」を本当に分かっているわけではありません。ただ、パターンがあまりにも複雑なので、まるで理解しているように見えるのです。

Q2. なんで間違えることがあるの?

AIは「一番ありそうな答え」を選んでいるだけなので、確認せずに嘘をつくことがあります。

これを「ハルシネーション(幻覚)」と呼びます。

[!CAUTION] AIの答えは必ず確認しましょう!特に数字や事実は、自分で調べることが大切です。

大切なのは「1次情報」を確認すること

AIの時代だからこそ、「1次情報(いちじじょうほう)」にあたることがとても重要です。

  • 1次情報とは?:誰かの意見やまた聞きではなく、「自分で直接見たこと」「公的な発表」「書かれた本そのもの」など、情報の大元(おおもと)のことです。

AIはインターネット上のいろいろな情報を継ぎ接ぎして答えを作ります。その中には、誰かの勘違いや古い情報が混じっているかもしれません。

「AIが言っていたから正しい」ではなく、「AIはこう言っているけど、本当かな?」と情報源(ソース)を自分で調べるクセをつけましょう。これが、AIを賢く使いこなすための最も大切なスキルです。

Q3. 同じ質問でも答えが違うのはなぜ?

AIは「一番確率の高い答え」を毎回ランダムに選んでいるため、同じ質問でも少し違う答えになることがあります。


例え話:AIは「超すごい文章予測変換」

スマホで「おは」と打つと、「おはよう」「おはようございます」と候補が出てきますよね?

あれの超すごいバージョンがLLMです。

スマホの予測変換 LLM
数語先を予測 数千語先まで予測
単純なパターン 複雑な文脈を理解
短い候補を表示 長い文章を生成

AIの「頭の中」を覗いてみよう

言葉を「数字」に変換する

AIは言葉をそのまま理解するのではなく、すべての言葉を「数字」に置き換えて処理しています。

例:

  • 「猫」→ [0.2, 0.8, -0.3, 0.1, …]
  • 「犬」→ [0.3, 0.7, -0.2, 0.2, …]
  • 「動物」→ [0.25, 0.75, -0.25, 0.15, …]

「猫」と「犬」の数字は近くて、「車」の数字は遠い。こうして言葉の「意味の近さ」を数字で表現しています。


親子で体験してみよう!

実験1:続きを書かせてみる

ChatGPTやGeminiに、物語の途中まで書いて「続きを書いて」とお願いしてみましょう。

あなた:
むかしむかし、ある森に一匹のウサギが住んでいました。
ウサギの名前はピョンタ。ある日、不思議な光を見つけて...

続きを書いて!

AIは「物語の続き」のパターンを学習しているので、自然な続きを作ってくれます。

実験2:わざと変な質問をする

あなた:
「空は何色ですか?」→ 答えられる!
「1+1は?」→ 答えられる!
「トランプ大統領の靴のサイズは?」→ 答えられない(または嘘をつく)

AIがパターンで答えられること・答えられないことを、実際に確かめてみましょう!


まとめ:AIの仕組み、3つのポイント

  1. たくさん読んで学習する

    • AIは数兆文字以上のテキストを読んで言葉のパターンを覚えている
  2. 「次の言葉」を予測している

    • チャットの返事は、1文字ずつ「次に来そうな言葉」を予測して作っている
  3. 「理解」ではなく「パターン認識」

    • AIは意味を本当に理解しているわけではないので、間違えることもある

おわりに:AIと上手に付き合おう

AIは、ものすごく賢い「言葉の予測マシン」です。

でも、万能ではありません。嘘をつくこともあるし、最新の情報は知らないこともあります。

大切なのは、「AIにできること・できないこと」を知った上で使うこと

お子さんと一緒に、「これはAIに聞いてもいい質問かな?」「この答えは本当かな?」と考える習慣を作っていきましょう!


関連記事