ハルシネーションについて、誤解していないかい?
- Miyamoto Goki
- 1月6日
- 読了時間: 7分
更新日:1月7日
AIが嘘をつかなくなったら、人は幸福になるのか?それとも…

>ハルシネーションとは、AIがつく「嘘」のこと。
しかし、多くのAIユーザーは、根本的な誤解をしている。
今回する話は、AIと、切っても切り離せない、このハルシネーションについて。
まだまだ日本のAIに対する理解度は低い。多くのAI利用者は、AIがトンチンカンなことを言うたびにすぐに匙を投げて「AIは信用出来ない」などと言うのだ。恥ずかしい話だ。
はっきり言うけど、今のAIは、間違えない。
間違えるとしたら、99%は指示の仕方に問題がある。
SNSなどに出回っている有象無象の小手先テクニックを駆使してAIを使える気分になっている者が多いが、そういう人に限って、「くれぐれも嘘をつくな」「わからない場合はわからないと言って」などと指示を出し、「嘘をつくなと言ったのにずっとテキトウなことばっかり返してくる!」とイライラし始める。
AIの基礎学習は、AI活用能力を培うためだけでなく、ハルシネーションを極限まで封じる。これは、長い長いAIとの付き合いにおいて、圧倒的な強みとなる。
今回は、このハルシネーションについて正しく理解して、精度が上がり過ぎたAI社会で待ち受ける壮絶な未来のシナリオについて思いを馳せてみる。
人とは、AIを信じてしまう生き物である
そもそも人は心理学的にもAIを信じてしまいやすい特性を備えている。
流暢性の錯覚(Fluent Illusion)
「スラスラ喋る人は頭が良い」という思い込み。
詳細性ヒューリスティック(Representativeness Heuristic)
定量情報等の具体的情報が含まれていると、信じやすい心理。
即答性への信頼(Speed Bias)
「迷わず答えるのは、正解を知っているからだ」という誤解。
確証バイアス(Confirmation Bias)
「自分が信じたい情報を肯定してくれると嬉しい」心理。
サンクコスト(埋没費用)効果
「せっかく調べさせたのに、無駄にしたくない」心理。
認知の怠慢(Cognitive Miser)
「自分で考えるより、信じた方が楽」という脳の省エネ本能。
インターフェースの魔力(UI Trust)
「洗練されたデザインは信頼できる」という視覚効果。
これを見ると、いかにAIは人を信じさせるという能力において"100点"か、よくわかる。AIの嘘について考える以前に、人側にも"信じてしまう"原因があるということだけ、あらかじめ伝えておく。
そもそもAIに「嘘」という概念などございません
この点を理解していない「知ったかぶり」が実に多い。
「AIって嘘をつく」といった発言はその時点で恥ずかしいことに気づいていない。
AIには意識も感情も、騙そうとする「意図」も存在していないのであって、当然に騙すつもりなど、毛頭ない。意図がない存在に、道徳的な概念である「嘘」を禁じることなど1ミリも意味がない(言うなれば、全部ホントだと本気で思ってるってこと)
LLM(大規模言語モデル)は、事実を調べるものではなく、「次の言葉として何が繋がれば最も自然か」を確率計算するマシン。AIにとって重要なのは「事実かどうか」ではなく「文章として成立しているか(もっともらしいか)」なのだから、自信満々に間違える(ハルシネーション)のは構造上の仕様である
⬇️
例えば、1+1=という、どこにでもありふれた文字列を叩けば、99.999%は「2」と答えるだろうが、どこかの誰かが 1+1= 3と言っていれば、「3」となる可能性があるということになる。即ち、AIの仕組み上、「嘘をつくな」などという指示は全くもってナンセンスなんだ。
※ 100%の答えが欲しいのならAIなど使わず検索エンジンを使いなさい
今のAI(LLM)の最大の強みは、「未知の組み合わせ」を生み出せること。
ハルシネーション(嘘) = 確率による意外な単語のつながり
創造性(アイデア) = 確率による意外な単語のつながり
この2つは「表裏一体」の関係。
したがって、生成AIである以上、この機能を完全に削除することは進化の否定ということにもなる。
ハルシネーションはなくならないということ?
いくら精度が上がりつつあるとは言え、やはり以下の領域は、まだ弱いところは、ある。
誘導尋問のワナ:先述の通り、AIは何が正しいかなど理解していない。代わりに、文脈・コンテキスト(前提条件)に従おうとする。つまり、こちらが誤ったことを言っていたとしても正すことなく、スラスラ回答してくる可能性がある。
長過ぎる文章や、継続した会話となると特定の文章に気を取られ、時としてAIが急に"ポンコツ"となることがある。
AIは「数字」を文字としか認識していない。先の1+1=の例で示した通り、よく見る計算式なら間違えないが3756×9384=などと言われるとわけがわからなくなる。(ただし、計算するためのプログラムを作ってと言えば完璧に作ってくれることは意外と知られていない)
指示者の言語力が弱かったりと、当然にAIが理解出来ないことがある。
では、なぜ冒頭で「今のAIは、間違えない」と言ったのか。
実は、今はAIの精度自体の向上に加えて、「システム全体」でミスを検出する技術が急速に発達している。
EX)
RAG(検索拡張生成): AIが答える前に、信頼できるデータをカンニングさせる仕組み。
ダブルチェック機能: 「回答を作成するAI」と「それを検閲するAI」を分け、検閲AIが「これ事実と違うよ」と修正してから人間に見せる。
そんなわけで、まともな文章を書ける人であれば、AIにハルシネーションを強制的に起こすことは、実際のところかなり難しくなっている。
ものの半年やそこらでここまで精度が上がったのだから、AIの「嘘」は、間も無く、限りなくゼロに近づくだろう。
ハルシネーションのない世界は、幸福なのか?

ここからはSFに近い話だ。
ここまで話した通り、AIは嘘を嘘だと認識しておらず、確率で"次に来る言葉"を弾いているに過ぎない。ハルシネーションなど、人間側の期待とAIの仕組みのギャップのようなものだ。皆、口を揃えてハルシネーションを厄介者のように言うが、果たして本当にそうだろうか?
もしも、ダブルチェック等の技術が向上してAIがついに「嘘」をつかなくなったら、世界は一体どうなるのだろう?勘の鋭い読者諸兄なら、ゾワゾワと言葉に出来ない不安を感じるのではないだろうか?
以下に、ハルシネーションのない世界線の、特に未成年のAI利用に関するクリティカルな影響を言語化した。
「疑う力(批判的思考)」の欠如
AIが常に(ダブルチェック済みで)正しい答えを出すようになると、子供たちは「AIが言うことは絶対だ」という強烈な権威バイアスに囚われる。その裏にある情報の偏りや、意図的な誘導に対して無防備になると、人間は思考停止に陥る。
「プロセス」の軽視とブラックボックス化
教育の価値は本来、答えそのものではなく、「なぜその答えになるのか」という思考のプロセスにある。AIが瞬時に完璧な答えを提示すると、子供たちは「悩み、つまづき、修正する」という試行錯誤(トライ・アンド・エラー)の機会を奪われる。結果だけを手に入れることに慣れきってしまうと、未知のトラブルに遭遇した際、自分で解決する「思考の体力」が身につかない。
「均質化」による個性の埋没
AIが全員に同じ「最適解」を提供すれば、全員が同じような文章を書き、同じような絵を描き、同じような意見を持つようになる。本来、学びの中で生まれるはずの「勘違い」や「独自解釈」といったノイズこそが、その子の個性や創造性の源泉のはずなのに、「間違い」が許されない(自動修正されてしまう)環境は、凡庸な優等生を量産する工場になりかねない。
「知識」の無価値化
本来、AIの"嘘"や"至らない点"を見抜く(AIの上を行く)力は将来の必須スキルである。そのために広い知識と、深い知識を併せて洗練することの価値が爆発的に向上している(「AI時代の教育のあり方」参照)。しかし、AIの精度がこのまま向上し続けたらどうなるだろう。知識は、何のた目に必要になるのだろう?子供たちは、何をモチベーションに学べばいいのだろう?
人によって、幸不幸の解釈は異なるだろう。あえて断定はしない。しかし、AI教育者として警鐘を鳴らす。今のAIでさえ人を急速に"バカ"にする麻薬のような道具なのに、精度が上がり過ぎたAIは、さらにリスクを加速させる。保護者世代は、よくよく考える必要がある。それが、時代の過渡期にある保護者に特有の重要な責務といえる。
すでに、AIが"完璧"な領域に到達する時は、すぐ近くまで来ている。
我が子だけは、この世界で幸せに生きて欲しいものだ。
著者:Uniアカデミー教室長 宮本豪樹
Uniアカデミーは、進化を続けるAIと共に激増する子供たちの人間的成長に関するリスクと真正面から向き合う日本で初めての教室です。
まずはここで未来に備えましょう!いつでも、何でもお問い合わせください!





コメント