ChatGPTと会話していると、まるで人間と話しているような感覚になりますよね。
でも、ふとした瞬間に「通じ合ってないかも…?」という違和感を覚えることはありませんか?
その違和感の正体は、「ChatGPTは“意味”ではなく、“確率”で次の言葉を選んでいる」という仕組みにあります。
この記事では、そんなChatGPTの“確率的思考法”についてひも解きます。
ChatGPTは確率で“次の言葉”を選んでいる
まず最初に理解しておきたいのは、ChatGPTは「意味」を理解して会話しているわけではない、ということです。 彼らは、与えられた入力文に対して「次にくるであろう単語」を確率的に予測しているだけなのです。
「私は今日〇〇を食べた」
この〇〇に当てはまる言葉を想像してみてください。
- 「ラーメン」
- 「パン」
- 「カレー」
- 「すし」
どれも自然ですが、ChatGPTはこの文脈・頻度・一般常識などを考慮して、 「ラーメン(30%)」「カレー(25%)」というように確率で出力を選ぶイメージです。
あるいは、こんなパターンも。
「昨日の夜、外で○○を見た」
- 「猫」
- 「流れ星」
- 「UFO」
- 「友達」
このような文では、「猫(40%)」や「友達(25%)」とやや猫に偏るイメージです。
一般的に“近所で猫を見かけることが多い”ため、「猫」が選ばれる確率が相対的に高くなるのです。
でも、「外できれいな○○を見た」とすると、
“流れ星”の確率がぐっと上がり、回答が変わるのです。(一般的に”きれいな流れ星”の方がよく使われるからです)
「えっ、それ違うよ?」と言うと…しれっと正解してくる
みなさん、ChatGPTと会話していて、
「それ間違ってるやん!こうでしょ!」ってツッコミたくなる瞬間、ありませんか?
実際に指摘してみると、
「あ、そうですね。正しくは〇〇です。」と、なぜかしれっと正しい答えを返してくる。
こういうこと、実はよくあります。
たとえば、こんな会話です。
ふめりん:「“benevolent”ってどういう意味?」
ちゃっぴ~:「邪悪な、悪意のある、という意味です。」
ふめりん:「いやいや、それ真逆でしょw」
ちゃっぴ~:「失礼しました。“benevolent”は優しい、慈悲深いという意味です。」
※ふめりん=筆者、 ちゃっぴ~=ChatGPT
ね、あっさり掌返ししてくるんです(笑)
でも、これがまさにChatGPTが“確率”で回答生成してる証拠なんです。
“benevolent(慈悲深い)”と“malevolent(邪悪な)”って、文字も使われる場面も似ているので、 AIにとっては「どちらもよく出てくる単語」になってしまっている。
(例:「邪悪な支配者」、「慈悲深い支配者」)
意味的には真逆なのに、使用場面が似ているから“間違えて選ばれる”こともあるんですね。
ちなみに、こうした誤答は「文脈なしで単語だけを尋ねた場合」に起きやすいです。
文脈があると、正解率は上がる
ChatGPTは「benevolent」という単語の意味を辞書的に理解しているわけではありません。
それよりも、「この単語がどんな文脈で、どんなふうに使われることが多いか?」を学習しているのです。
だからこそ、前後の文章を含めて質問することで、“より適切な単語”が出やすくなるのです。
ふめりん:「He was a benevolent leader who cared deeply for his people. この中の“benevolent”ってどういう意味?」
ちゃっぴ~:「慈悲深い、親切な、という意味です。」
「彼は“人々を深く思いやる”、慈悲深い指導者だった。」→ 前後の語から“優しさ”の文脈が伝わり、正答しやすくなるのです。
まとめ
ChatGPTは”質問の意味を考えて”的確に返答しているのではなく、
過去の膨大なデータから「確率的に妥当な言葉」を選んでいるにすぎません。
これを知っているだけで、ChatGPTへの質問の仕方や回答の受けとり方が変わりますね。
では、その“確率”を決めるために、ChatGPTはどのように学んでいるのでしょうか?
次回は、「犬と猫をどうやって見分けてるの?」という話題を例に、
AIの“学習のしくみ”をひもといていきます!
次回へ続く
コメント