偶然性と学びの機会の喪失。AIチャットbotで情報にアクセスすることの危うさ

  • X
  • Facebook
  • LINE
  • はてな
  • クリップボードにコピー
  • ×
偶然性と学びの機会の喪失。AIチャットbotで情報にアクセスすることの危うさ
Photo: Shutterstock.com

ワシントン大学情報科学部のChirag Shah教授が語る、AI台頭による危うさとは…。


検索エンジンが一般的になる前、情報にアクセスするため調べ物をする時、最も頼りになったのは図書司書さんなど情報の専門家でした。彼らの存在は、対話式で、個人化されていて、透明性があり、かつ威厳も感じました。今日、ものを調べるときほとんどの人が利用するのが検索エンジンですが、数単語を入力して仕組みのわからないランキングで結果を表示されるのは理想的とはいえません。

AIベースの情報アクセスシステムは最適解ではない?

MicrosoftのBingとChatGPT、GoogleのBard、MetaのLLaMAなど、新時代のAIベースの情報アクセスシステムは、インプットやアウトプットの形を含め、従来の検索モデルをひっくり返す存在です。数単語ではなく文章を、ときに長文(段落)を取り込み、会話のような自然な言葉でユーザーひとりひとりのために答えをアウトプットしてくれます。

最初は、これが最適解なのだと思いました。答えは個人向けにカスタマイズされているうえ、ネット上にある知識の幅と深さが備わっているわけですから。ただ、検索とレコメンデーションシステムを学ぶいち研究員として、最適なのはもっとミックスされたものだと思うようになったのです。

ChatGPTやBardのようなAIシステムは、大規模言語モデルに基づいて構築されています。言語モデルは、WikipediaやPubMedなど公開されている大量のテキストデータを使ってパターンを学ぶマシンラーニング技術です。学んだことをもとに、与えられたワード・フレーズの次にどんな言葉がくるかを予想し、ユーザーのリクエストに応じた短い文章はもちろん、数段落もの長文を生成することもできます。3月14日、OpenAIは画像とテキストに対応したGPT-4も発表しました。

大量のテキストでのトレーニングと適切な微調整、他のマシンラーニングベースの手法によって、この手の情報検索・入手技術は、非常に効果的に動きます。大規模言語モデルをもとにしたシステムは、リクエストに回答するためユーザー個人にカスタマイズされたアウトプットを生成します。そのアウトプットのレベルの高さに多くの人が感動し、結果、1億ユーザー達成にかかった時間はTikTokのわずか1/3という急上昇ぶり。答えを探すだけでなく、健康状態を入力して病診断したり、ダイエットの計画を作ったり、投資先をおすすめしてもらったりと、その使い方はすでに多岐にわたっています。

ChatGPTの不透明さがみせる幻覚

shutterstock_2237752713
Photo: Shutterstock.com

大規模言語モデルによるAIが素晴らしい一方で、マイナスの要素もあります。まず、大規模言語モデルの核となるもの、つまり言葉と言葉をつなぎ意味を持たせるメカニズムを考えてみましょう。

このメカニズムのおかげで知的な答えが返ってきます。いや、返ってきているように見えます。が、実は大規模言語モデルのシステムってほぼオウム返しなんです。真に質問を理解した上で答えているわけではありません。つまり、AIチャットbotの返答は一見スマートに見えますが、実際はAIがうまいこと見つけてきた言葉・文章のパターンを反映したものに過ぎないのです。

そのせいで、大規模言語モデルはデマやファンタジーのような答えを生成してしまうことがあるのです。堂々と嘘をつくと言われていますが、まさにその通り。ユーザーが答えだと思っているのは幻覚に過ぎないのです。また、聞かれている内容がそもそも誤ったことを前提にしていても、それを見抜くほどシステムは賢くなく、その結果生成する答えも間違ってしまうことも。例えば「100ドル札に印刷されている大統領は誰?」と質問したら、ChatGPTは「ベンジャミン・フランクリンです」と答えました。確かに、100ドル札はフランクリンですが、彼は大統領ではないので答えとしては正しいとはいえません。ひっかけ問題ですね。

この手のシステムの答えは10%が間違っているのですが、どれがその10%に当たるのか、我々がそれをすぐに見抜くのは難しいことも問題です。見抜けないのは、システムに透明性がないから。どんなデータでトレーニングしているか、何を参考にし、どう答えを生成したのかがわからないので、ミスを見抜くのも難しくなってしまいます。

例えば、引用文を用いて専門的な報告書を書けとChatGPTにリクエストした場合、報告書は生成されますが、引用文まで生成されてしまっていることが多々あります。それっぽい論文タイトルと著者名を使った幻覚を、我々は見せられているわけです。

リクエストに応じた答えは出すが、それが正しいかどうかはユーザーに丸投げするというのは、ユーザーに専門知識かよっぽどのモチベーションがないと困ってしまいます。事実か否かを理解しないChatGPTにとって、自分の生成した文章はもちろん、質問の内容が正しいかすらも判断はできないのです。

コンテンツとトラフィックの搾取

透明性のなさは、ユーザーにとっては有害であり、著者やアーティスト、クリエイターなど、システムがトレーニングのもとにしたオリジナルの作品を作った人たちにとってもフェアな行為とはいえません。AIチャットbotが持てはやされる中、その「賢さ」に自分が貢献したことすら知らされないわけですからね。もっというと、トレーニングデータに使用してもいいかと確認される機会すらなかったかもしれないわけで。

経済的影響もあります。従来の検索エンジンの場合、検索結果はリンクとリンク先の情報がセットで表示されます。これは、ユーザーが検索結果とそのソースを確認しやすいだけでなく、それらのサイトへトラフィックを促すこともできます。検索結果からウェブサイトを訪れてもらうことで収益を出しているサイトもあります。

一方、大規模言語モデルのシステムはその場で直接答えを出してくれるので、ソースとなるサイトを訪れる機会は減ってしまいます。結果、サイト側にとってはビジネスチャンスの損失となります。


学びと偶然の産物の喪失

最後に、この新たな情報へのアクセス手法は、人々から力と学びの機会を奪ってしまうかもしれません。従来の検索プロセスだと、必要な情報の幅をあれこれ探る余白があり、求めるものをうまいこと調整することができます。また、世界にはどんなものがあるのか、自分が求めるタスクをこなすのにさまざまな情報がどう結びついていくのかを学ぶチャンスがあります。さらに、偶然の出会いや産物が生まれることもあります。

これは検索という行動において重要な要素なのですが、システムがソースやプロセスを飛ばして結果だけ見せてしまうことで、その可能性は奪われてしまうのです。


大規模言語モデルは情報へのアクセス手段として大きなステップアップであり、自然言語ベースでのやりとりをユーザーに提供でき、個人に特化した答えを返し、一般的な人では思いつかない答えやパターンを見つけてくれます

一方で、システムのトレーニング方法やレスポンスの構造によって、大きな制約がついてしまうのも事実。生成される答えが誤りだったり、偏見にあふれていたり、有害な内容なこともあるでしょう。

他の情報アクセスシステムも同様の問題はあるものの、大規模言語モデルは透明性を欠くことがなによりも問題。さらに悪いことに、その自然な会話力によって、無知なユーザーは悪い意味でシステムへの信頼感を高め、権威すら感じるようになってしまうのではないでしょうか。


※本記事は、クリエイティブ・コモンズ・ライセンス下でThe Conversationに掲載されていたものを、米Gizmodoが再掲、それを翻訳したものです。