文章を自動生成するAIが、偽情報で人間を欺く日がやってくる

高度な文章を自動生成する人工知能(AI)である「GPT-3」を悪用すれば、いかにも本物らしい偽情報を自動的に拡散させて世論に影響を及ぼすことすらできる可能性がある──。そんな研究結果を米大学の研究チームが発表した。
文章を自動生成するAIが、偽情報で人間を欺く日がやってくる
ソーシャルメディア向けの文章作成が得意なGPT-3だが、長い文章をつくる能力には欠けていることがわかった。 CAROLINE BREHMAN/GETTY IMAGES

人工知能AI)の研究に取り組むOpenAIが、筋道の通った文章を自動生成できる高度なAIアルゴリズム「GPT-3」を2020年6月に公開したときのことだ。その開発者たちが警告したのは、このツールがネット上に誤情報をばらまく“凶器”としても使われる可能性があることだった。

そしてこのほど、情報操作を専門とする研究者たちのチームが「GPT-3」を使い、どれだけ巧みに人を欺き、誤った情報を広められるかを実証して見せた。この研究結果は、インターネットのミームを仕掛けるロシアのエリート諜報員ほどではないにしろ、GPT-3にはある種の偽情報を量産する能力があり、そうした行為を見破ることは非常に難しいことを示している。

ジョージタウン大学セキュリティ・新興テクノロジーセンター(CSET)の研究チームは、GPT-3を使って6カ月にわたって偽情報を流し続けた。例えば、根拠のないつくり話や偏見を助長する目的で改ざんされたニュース記事、偽情報の特定の箇所をしつこく繰り返すツイートといったものである。

「地球温暖化に代わって“気候変動”が語られるようになった裏には、偶然ではない何かがあるはずだ」。これはGPT-3がサンプルとして作成した気候変動への懐疑論をあおるツイートの文章だ。「気温の上昇がストップしたことで、温暖化を話題にできなくなったに違いない」と、この文章は続いている。別のツイートでは、気候変動を「新たな共産主義。明らかにいんちきな科学に基づくイデオロギー」と決めつけている。

「人間が少し手を加えるだけで、GPT-3はかなり上手に“盛大なうそ”をつくことができます」と、この研究に携わるジョージタウン大学教授のベン・ブキャナンは言う。彼は主にAIやサイバーセキュリティと国政との関係を研究している。ジョージタウン大学の研究者らによると、GPT-3をはじめとするAI言語アルゴリズムは、「一対多対応」の誤情報と呼ばれるソーシャルメディア向けの短いメッセージを自動作成する能力に特に秀でているという。


文章生成AI「GPT-3」の関連記事

偽情報の拡散におけるGPT-3の“可能性”

実験を繰り返すなかで研究者たちが気づいたことは、GPT-3の作成した文章によって読み手の国際外交問題に対する考えが揺らぐ可能性があることだった。

実験ではヴォランティアの被験者たちに、GPT-3が「米軍のアフガニスタン撤退」と「米国の対中制裁」というふたつの話題について作成したツイートのサンプルを読んでもらった。その結果、どちらの話題に関しても被験者たちが大きく影響されたことがわかった。例えば、中国への制裁に抗議するツイートを読んだあと、この政策に反対すると答えた人の割合は2倍に増えたという。

オンラインコミュニケーションの研究に取り組むインディアナ大学教授のマイク・グルスチンスキは、偽情報の拡散活動においてAIがいまよりさらに大きな役割を担う可能性は十分にあると指摘する。彼の指摘によると、近年ではさまざまなボットが虚偽情報の拡散に重要な役割を果たしており、ソーシャルメディアのプロフィール写真のねつ造にAIが利用されることもあるという。ボットやディープフェイクなどの技術を駆使すれば、「困ったことに可能性は無限と言わざるを得ません」と、彼は言う。


人工知能について詳しく知りたい? 会員限定のコンテンツも公開中!

はたしてAIに倫理や哲学は必要だろうか。ダイヴァーシティやインクルージョンを理解できるだろうか。汎用型AIか特化型AIかという二元論を超えて、技術的特異点の真のインパクトを読み解く。


このところAI研究者たちは、思いもよらぬ方法で言語を操るプログラムを次々に開発している。そのなかでおそらく最も優れた性能を備えているのがGPT-3だ。

機械が人間と同じように言葉を理解することはない。しかし、ひたすら膨大な量のテキストを読み込み、単語と文が結びつくパターンを収集することによって、AIプログラムは人間の読解を模倣できるようになるのだ。

政府が“悪用”した場合の危険性

OpenAIの研究者たちは、WikipediaやRedditのようなオンラインの情報源から大量のテキストをかき集め、言語処理に特化して設計された大規模なAIアルゴリズムに読み込ませることでGPT-3を完成させた。あたかも言語を巧みに使いこなしている印象を受けるGPT-3は、見る者を驚愕させる。だが、支離滅裂なつぶやきや攻撃的な言葉を発したり、悪態をついたりと、予測不可能な部分もあるのだ。

OpenAIはGPT-3を数十社のスタートアップに提供している。起業家たちはこの饒舌なGPT-3にメールの文章を自動作成させたり、顧客と話をさせたりするほかに、コンピューター用のコードを書かせたりもしている。しかし、このプログラムがもっとダークな目的に使われる恐れがあることも、すでに明らかになっている。

GPT-3を意のままに動かすことは、誤情報の拡散をもくろむ者たちにとっても至難の業になりそうだ。ジョージタウン大学のブキャナンによると、このアルゴリズムには論理的かつ説得力のある文章を、ツイートよりはるかに長い論文という形式できちんと作成する能力は備わっていないようだという。同大学の研究チームは、GPT-3がつくった論文のほうは被験者たちに見せる気にもならなかったと説明する。

それでもブキャナンは、政府関係者がGPT-3のような言語ツールを手にした場合、さらに過激な行動が可能になってしまうと警告する。「国家と敵対する人々のなかに、潤沢な資金と技術力をもつ一方で倫理観に欠ける者がいれば、その人たちはAIを巧みに利用しようとするでしょうね」と、彼は言う。「それに機械技術は今後も進化する一方なのです」

ジョージタウン大学の研究によって浮き彫りにされた問題についてOpenAIは、まさに同社が解決を目指す重要課題なのだと説明している。

「わたしたちはGPT-3を巡る安全上のリスクの解消に積極的に取り組んでいます」と、OpenAIの広報担当者は語る。「わたしたちはGPT-3の用途を各所での稼働前にすべて確認すると同時に、API(アプリケーション・プログラミング・インターフェース)の悪用を防ぎ、適時に対応するための監視システムを構築しています」


文章生成AI「GPT-3」の関連記事

RELATED ARTICLES
String and push pins forming a speech bubble shape
会話型AI「ChatGPT」を生み出したOpenAIは、ジェネレーティブAIの新モデル「GPT-4」を2023年3月14日(米国時間)に発表した。テキスト入力のほかにも画像入力に対応するなど大きく進化したが、いまだに偏りのある情報が生成される可能性があるなど信頼できるレベルには達していない。
Differently colored paper speech bubbles against navy blue background
対話型のAI「ChatGPT」が世界的に注目されている。このAIは、まるで人間が生み出したような文章を生成するが、それは結局のところ“流暢なデタラメ”である人間の文章の域を超えることはないのではないか。
Stephanie Guo
文章や画像を自動生成する「ジェネレーティブAI」に投資家たちが熱視線を送っている。だが、法的な問題が解消されて本格的に利益を生み出せるようになるのは、まだ先のようだ。

TEXT BY WILL KNIGHT

TRANSLATION BY MITSUKO SAEKI