ChatGPTってどうやって考えてるの?確率で動くAIの思考法

ChatGPTの仕組みを考えるふめりんとAIロボットのチャッピーが星空の下で考え込んでいるイラスト。頭上には確率や数式を表す記号が浮かび、AIの思考プロセスを象徴している。 ChatGPT使い方・構造理解

ChatGPTと会話していると、まるで人間と話しているような感覚になりますよね。
でも、ふとした瞬間に「通じ合ってないかも…?」という違和感を覚えることはありませんか?

その違和感の正体は、「ChatGPTは“意味”ではなく、“確率”で次の言葉を選んでいる」という仕組みにあります。
この記事では、そんなChatGPTの“確率的思考法”についてひも解きます。

ChatGPTは確率で“次の言葉”を選んでいる

まず最初に理解しておきたいのは、ChatGPTは「意味」を理解して会話しているわけではない、ということです。 彼らは、与えられた入力文に対して「次にくるであろう単語」を確率的に予測しているだけなのです。

「私は今日〇〇を食べた」

この〇〇に当てはまる言葉を想像してみてください。

  • 「ラーメン」
  • 「パン」
  • 「カレー」
  • 「すし」

どれも自然ですが、ChatGPTはこの文脈・頻度・一般常識などを考慮して、 「ラーメン(30%)」「カレー(25%)」というように確率で出力を選ぶイメージです。

あるいは、こんなパターンも。

「昨日の夜、外で○○を見た」

  • 「猫」
  • 「流れ星」
  • 「UFO」
  • 「友達」

このような文では、「猫(40%)」や「友達(25%)」とやや猫に偏るイメージです。
一般的に“近所で猫を見かけることが多い”ため、「猫」が選ばれる確率が相対的に高くなるのです。

でも、「外できれいな○○を見た」とすると、
“流れ星”の確率がぐっと上がり、回答が変わるのです。(一般的に”きれいな流れ星”の方がよく使われるからです)

「えっ、それ違うよ?」と言うと…しれっと正解してくる

みなさん、ChatGPTと会話していて、
「それ間違ってるやん!こうでしょ!」ってツッコミたくなる瞬間、ありませんか?

実際に指摘してみると、
「あ、そうですね。正しくは〇〇です。」と、なぜかしれっと正しい答えを返してくる。

こういうこと、実はよくあります。

たとえば、こんな会話です。


ふめりん:「“benevolent”ってどういう意味?」
ちゃっぴ~:「邪悪な、悪意のある、という意味です。」

ふめりん:「いやいや、それ真逆でしょw」
ちゃっぴ~:「失礼しました。“benevolent”は優しい、慈悲深いという意味です。」

※ふめりん=筆者、 ちゃっぴ~=ChatGPT


ね、あっさり掌返ししてくるんです(笑)

でも、これがまさにChatGPTが“確率”で回答生成してる証拠なんです。

“benevolent(慈悲深い)”と“malevolent(邪悪な)”って、文字も使われる場面も似ているので、 AIにとっては「どちらもよく出てくる単語」になってしまっている。

(例:「邪悪な支配者」、「慈悲深い支配者」)

意味的には真逆なのに、使用場面が似ているから“間違えて選ばれる”こともあるんですね。

ちなみに、こうした誤答は「文脈なしで単語だけを尋ねた場合」に起きやすいです。

文脈があると、正解率は上がる

ChatGPTは「benevolent」という単語の意味を辞書的に理解しているわけではありません。
それよりも、「この単語がどんな文脈で、どんなふうに使われることが多いか?」を学習しているのです。

だからこそ、前後の文章を含めて質問することで、“より適切な単語”が出やすくなるのです。


ふめりん:「He was a benevolent leader who cared deeply for his people. この中の“benevolent”ってどういう意味?」
ちゃっぴ~:「慈悲深い、親切な、という意味です。」


「彼は“人々を深く思いやる”、慈悲深い指導者だった。」→ 前後の語から“優しさ”の文脈が伝わり、正答しやすくなるのです。

まとめ

ChatGPTは”質問の意味を考えて”的確に返答しているのではなく、
過去の膨大なデータから「確率的に妥当な言葉」を選んでいるにすぎません。
これを知っているだけで、ChatGPTへの質問の仕方や回答の受けとり方が変わりますね。

では、その“確率”を決めるために、ChatGPTはどのように学んでいるのでしょうか?

次回は、「犬と猫をどうやって見分けてるの?」という話題を例に、
AIの“学習のしくみ”をひもといていきます!

次回へ続く

コメント

タイトルとURLをコピーしました