1486_AIは「わからない」という回答を避けたがる

ハルシネーション

ここ数年でのAIの進化は目を見張るものがあります。特に大規模言語モデルといわれるものは、ほとんど本当に知能をもった相手と自然な会話をすることができます。これからもAIの進化は進んでいくと思いますが、現状はまだいろいろと問題があります。

一つはハルシネーションという現象です。これはたとえAIがどう答えるべきかわからなかったとしても、あたかもわかっているかのように回答をするということです。これは、AIが結局は確率で回答を作っているからです。

ハルシネーションとは、人工知能(AI)が事実とは異なる情報を生成してしまう現象です。人間の「幻覚」や「幻影」に例えられることから、この名称が使われています。

AIは確率的に回答する

たとえば、この世界に存在しない食べ物「んんん」があるとします。それをAIにこのように質問した場合、AIは確率的に回答するのでこのように回答する場合があります。

  • わたし:「んんん」って本当においしいよね。中はとろっと外はカリっと麺がスープによくからんで最高です。
  • AI:もう聞いただけで食欲爆発です。麺にスープがよく絡むし味もしっかりしています。

しかし、最近のAIはうまくかわすこともできるようになっています。それっぽく回答したのちに、データベースにそういった知識がないから、「それって、ところでどんな食べ物でしたっけ?」のように質問を返してくることがあるからです。また、Chat-GPTやGeminiなどはWeb検索の機能もあるので、DBにないとなれば検索をして「そんな食べ物はない」と回答することもあります。

「わからない」という回答は避けたがる

しかし、原則AIは「わからない」という回答は避けたがります。な何度も書きますが確率で回答するので確率が低くても回答しようとするからです。これがハルシネーションの原因になっているのです。これは人間との大きな違いになります。人間の強さは「わからない」とはっきり言えることです。

人間の強みはわからないことをわからないと認めて正しい知識を獲得することにあると思いますが、必ずしも「わからない」というとも限りません。なぜなら、プライドがあるからです。孔子は「知らざるを知らずと為す是知るなり」と言いましたが、これは知らないことは知らないとはっきりすべきということです。

復活について、わかりますか?

同じことが信仰生活にも言えます。「自分の罪について、イエス様の十字架について、復活について、わかりますか?」と問われたらどうでしょう。僕は正直に答えますが、霊的の領域においてはわかりますが、肉の領域においてはわからないと言います。なぜなら、誰でも聖霊に寄らなければ神の国のことは頭では理解できないからです。

だから、僕はわからないことをそのまま曖昧にしておかずに、「主よ、私はあなたの復活がわかりません。どうか霊において深く理解できるようにしてください」と祈ることが大切だと思います。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA


日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)