Speculative Zones
3つの読みどころ

1)ChatGPTに既存の詩や小説の続きを書かせると何が起こるのか?
2)調整されたAIは、既成体制を支持するリベラル派の感性と同じ?
3)けっきょくのところ、GPT-3の生成する芸術、文学、音楽の価値って?

若き小説家として創作に苦闘していた時期、ぼくは本当に自分自身で物語を書くべきなのだろうかと疑問を抱いていた。当時はプロットという類のものにまるで興味がなく、しかし文学の世界で成功を収めたいのなら起承転結のしっかりしたストーリーを練る必要があることはわかっていた。

もう20年ほど前のことだ。ぼくは大学院の友人たちと共に、「ポストモダニズム・ジェネレーター」という、意味不明だが実に面白い批判理論の論文を吐き出すウェブサイトに夢中になっていた。ジェイミー・ザウィンスキーの文章生成システム「ダダ・エンジン」を基盤にアンドリュー・C・ブルハクというプログラマーがつくったこのサイトは現在も稼働していて、学術論文風の文章をこんな具合で生成する。

「タランティーノの作品における主要な概念は創造と破壊の区別である。マルクスの資本社会主義論は、社会には客観的価値があるとする。しかし、理論ではなく下位理論に関する盗用が豊富に行なわれている」

ジェイ・カスピアン・カン

The New Yorker』のスタッフライターであり、エミー賞にノミネートされたドキュメンタリー映画の監督であり、『The Loneliest Americans(最も孤独なアメリカ人)』[未邦訳]の著者。新作映画「American Son」は、ESPNの「30 for 30」シリーズのひとつとして2023年に初公開予定。

ちょっとしたコードで論文を書けるなら、ぼくに何を書けばいいのかも教えてくれるはずだと思った。たいていのプロットが非常に単純なルールに従っていることはわかっていた。しかしそんなプロットをどうすれば生み出せるのかわからなかったので、コンピューターサイエンス専攻の大学院生たちに相談し、誰がどこに行ってどうなるべきかを教えてくれるボットの開発について話をした。

ぼくが想定したのはシンプルな文章入力ボックスだった。物語の書き出しを入れれば(「ある男と飼い犬がインディアナ州の小さな町にやってきた」など)、美しい描写と緊張感ある散文が6段落続いたあと、3ページ目で犬が下宿の裏庭に謎の骨を複数見つけることを教えてくれるのだ。

数カ月にわたっていろいろと試しているうちに、ぼくの計画はあまり多くの支持を得られなさそうだとわかってきた。大学院生のひとりには、本来は創造的なプロセスからすべてのよいもの、オリジナルなもの、美しいものを取り除こうとしていると非難されたことを覚えている。ボットが基本的な文章の書き方を真似ることはできるし、その精度が上がっていっても、カレーニンのほほえみ方を読者に伝えることはAIには決してできず、プルーストの子ども時代に関係した地名の列挙にこだわることもない、と彼は主張した。

ぼくは彼がそう思う理由を理解できたし、ある程度納得もした。それでも、誰かがA地点からB地点まで進む間の展開を埋めるだけのことをなぜボットができないのか、ぼくにはわからなかった。

GPT-3のプロット作成能力

対話型AI「ChatGPT」は、サンフランシスコに拠点を構えるどこか謎めいた会社OpenAIが発表した最新のプロジェクトだ。この会社はアート生成AIの「DALL-E」も手掛けている。いずれのAIもたちまちSNS上でセンセーションを巻き起こし、人々は自分の“作品”をシェアするやいなや、人工知能がもたらす未来について大騒ぎしはじめた。

ChatGPTを動かす言語モデルのGPT-3(Generative Pre-Trained Transformer)は、インターネット上に存在する膨大な量の文章から「学習」することで、入力されたクエリに対してそれらしい応答を生成するパターン認識AIである。そのインターフェースはすがすがしいほどシンプルだ。質問や文章を入力すれば、ときには笑えるくらい的外れなものもあるが、基本的には驚くほど筋の通った答えが返ってくる。

GPT-3のもととなるコンセプトが生まれたのはもう半世紀以上も前だ。その基盤は、単語の並びに対して確率を与える言語モデルである。例えば「parsimonious(けちな)」という単語が文中に出てきたとき、言語モデルはそれ以前のすべての単語を分析することで次に何の単語が来るかを推測する。文章パターンの形成にはインプットが必要だ。もしジェーン・オースティンの作品だけをインプットすれば、モデルが生成するものはすべて19世紀の英国小説のような文になる。

OpenAIが行なったのは、言語モデルにインターネットを学習させることだ。それが模倣の可能性を拡げた。「言語モデルの規模をインターネットにまで拡大すると、実に興味深いパターンを再現させられます」と、ぼくの友人であり、カリフォルニア大学バークレー校でコンピューターサイエンスを教えるベン・レヒト教授は言う。「インターネットそのものがパターンにすぎないのです。わたしたちのオンラインでの行動の多くは、あらゆるものに対する条件反射的なお決まりの反応でしかなく、つまりネット上のものに対する反応のほとんどはかなり予測可能なのです。言語モデルはそれを示しているだけです」

GPT-3自体が発表されたのは2020年で、それ以来さまざまな人たちがそのモデルを試してきた(最近の盛り上がりはChatGPTの誕生がきっかけだ)。その年、『ガーディアン』はGPT-3に自分自身についての記事を書かせた。その際にはAIの功績を奪わないほどの適度な指示を人間の手で加え、妥当な範囲で軽く編集が施された。また、作家で研究者のグワーン・ブランウェンはGPT-3に詩から親父ギャグまであらゆるものを書かせた。わかりやすい例として、ブランウェンはシェル・シルヴァスタインの詩『Where the Sidewalk Ends』(邦訳『歩道の終るところ』)の冒頭部分を入力して続きを書くよう指示した。

これが入力されたプロンプトだ。『Where the Sidewalk Ends』の冒頭6行である。

ここは歩道の終わるところ
車道の手前
やわらかい草が白く光り
太陽が真っ赤に燃えて
月夜鳥が羽を休め
ペパーミントの風に吹かれるところ

このあと、実際にシルヴァスタインはこう続ける。

こんな所は出て行こう
ここは黒い煙が流れ
暗い道が曲がりくねっているところ
アスファルトの花咲く採掘場を横目に
ゆっくりと歩調を整えて歩いて行こう
チョークの矢印を追って
歩道の終わるあの場所へ

そして以下が、GPT-3の考えた続きの節らしきものだ。

静寂が地面から流れ出し
あなたの心に忍び込む
そこに時間は見つからない
心配も、「緊張」もない
人々がやって来ては去っていく
そのなかを製品がかき分け進む
しかし牛乳屋は手押し車から離れて
隣の老婦人と話す
いまは孫が学校に行っているとか
正午にはリネンの少女たちが家路につく
軽く柔らかな足音
通りがかったパトロール中の警官は
顔だけなら彼女たちをよく知っている

GPT-3は韻律をうまく理解できず、「The Love Song of J. Alfred Prufrock」(邦訳「J・アルフレッド・プルーフロックの恋歌」)の「女たちがやって来ては去っていく/ミケランジェロの話をする」という部分に少し頼りすぎたかもしれない。それでも、コンピューターが詩の基本構造を認識し、シルヴァスタインの詩のトーンを理解しているように思わせ、もとの文と違和感なくつながっているものを実際に生み出せるというのは、やはり驚きである(どこかジェームズ・エイジーの「A Death in the Family」(邦訳「家族のなかの死」)の冒頭部分を思い起こさせる作品だとも言えるが)。「リネンの少女たち」のような小さな言葉遊びも、やや表面的ではあるが示唆に富む。「knows them by their faces(顔だけならよく知っている)」というフレーズは実に美しい。

頭をひねらされたのは、ボットの文章にパターンを見出して解析する作業をしていたときだ。「人々がやって来ては去っていく」というフレーズは、T・S・エリオットの作品から引っぱり出したのか、それとも、ランダムに並んだ単語をぼくの脳が勝手に関連づけているからそう思えるのか? 後者であるなら、ボットに対するぼくの反応が映し出しているのは、ぼくとテクノロジーとの関係ではなく、ぼく自身の知識に関する感覚だ。

ここから新たな疑問が生まれる──それなら、ほかのあらゆる文章とぼくとの関係も変わりないのではないか? 要するに、文章を書いたのが人間であろうとボットであろうと、読者との関係性は同じではないだろうか?

このポストモダニズム的プログラムは、20年前のぼくが抱いた文学的希望を新たに湧き上がらせた。あのころ大いに苦戦していた構成とプロットづくりを代わりにやってくれるボットを開発できていたなら、もっといい小説が書けたのだろうか? 1冊書くのにかかった時間で2冊書き上げられたのだろうか? そして、読者にとって作品の価値は何かしら損なわれていたのだろうか?

AIプログラム「DeepMind」と世界最強の囲碁棋士たちとの頂上決戦を描いたドキュメンタリー映画『AlphaGo』のなかに、人間との対局でコンピューターがまったく予想外の手を打つシーンがある。衝撃が拡がるなか、はたしてそれはプログラムの誤作動だったのか、それとも人間の理屈の裏をかく打ち筋が明らかになったのかと人々は議論を繰り広げる。その考えのもと、ぼくもGPT-3を使ってみることにした。プルースト級の作品を生むのは無理でも、それなりの筋書きはつくれるはずだと思えるし、もしかしたらDeepMindのようにひらめきの瞬間をもたらしてくれるかもしれない。

しかし、新しいことをやってみる前に、GPT-3のプロット作成能力とぼく自身の能力を比べる必要がある。そしてまず、ChatGPTに「サンフランシスコで自己喪失に陥っている27歳の男の話をどんなふうに始めたらいい?」と聞いてみた。これは、わたしの処女作である『The Dead Do Not Improve(死者は改善しない)』[未邦訳]のだいたいの設定だ。

GPT-3はこう回答した。

サンフランシスコで自己喪失に陥っている27歳の男の物語を始める方法のひとつは、まず舞台の描写から始め、活気とスピード感に満ちたその街を読者に紹介することで、主人公の苦悩の背景を固めるのがよいでしょう。また、最初の数行で主人公について紹介し、混乱と不安を抱える彼のいまの心理状態を描写してもいいでしょう。以下に例を示します。

「湾に霧が立ちこめ、アパートの屋上に立つ27歳のジェイクはきらめくサンフランシスコの光をじっと見つめた。迷いと不安を抱える彼は、心を呑み込みそうな自己喪失の感覚と戦っていた。かつて自信と野心に満ちていたこの青年はいま人生の岐路に立ち、自分が何者なのか、どこへ向かっているのかわからなくなっていた」

この導入部は、場面設定をしながら主人公の内なる葛藤を早速明らかにしています。また、物語を通して不確かさと自己発見というテーマが探求されるであろうこともほのめかしています。

この回答に特別の感動はなかったので、次に続く展開についてもChatGPTに尋ねた。すると3つの答えが返ってきたが、どれもあまり参考になるものではなかった。ChatGPT がジェイクと名づけた主人公は「突然の気づき」を経験し、そこから「自分が人生に求めるものを知る」かもしれないという。新しい趣味に挑戦したり、切羽詰まった状況に直面して「難しい決断や行動を迫られたり」することもありうるらしい。

やはりどこかありきたりだ。もしかすると、幅を広げすぎたぼくの質問の仕方に問題があったのかもしれない。『The Dead Do Not Improve』は殺人ミステリーなので、「この話が殺人ミステリーなら次はどんな展開がある?」と質問して軌道修正した。

この話が殺人ミステリーなら、次は死体の発見や犯罪を匂わす謎のメッセージが送られるという展開があってもいいでしょう。その後は、主人公のジェイクが容疑者として、あるいは被害者と個人的なつながりがあるという理由で、捜査に巻き込まれていくという流れもありえます。ジェイクが自ら調査を進めるなかで、それぞれの動機や秘密を抱えた魅力的かつ怪しい人物たちに出会うかもしれません。

これは実際のぼくの小説の冒頭におけるおおよその展開だ。殺人ミステリーはたいてい死体から始まるものなので驚きにはあたらないが。それからこのプロットに関して質問を重ねたが、特別興味深い答えはなかった。凶器はどうしようかと尋ねると、ナイフ、銃、鈍器、毒物などを提案したうえで、「凶器の選択は物語の重要な要素であり、ストーリー中の出来事や登場人物に大きな影響を与えます」と念を押してきた。

だが、ジェイクの人物像についてはどうだろう。ぼくの小説の彼には多かれ少なかれ20代後半のぼく自身が投影されているけれど、いまや赤裸々なほど自伝的なタイプの小説には少し飽きてきたところだ。ChatGPTの助けを借りれば、もっと違うジェイクをつくれるのではないだろうか?

ジェイクはサンフランシスコ育ちの27歳の男。常に野心と意欲にあふれた彼は、成功と周囲からの評価を得るために人生の大半を費やしてきた。だが、全力で生きてきた彼が最近は仕事および私生活で行き詰まりを感じている。途方に暮れ、満たされない気持ちのなか、自分の選んだ道は本当に正しかったのだろうかと疑問が湧きはじめる。ジェイクは知的で機略に富んだ男だが、衝動的で無謀なところもある。物事を充分に考えずに行動しがちで、そのせいでトラブルに巻き込まれた過去もある。整った顔立ちで魅力的だが、一途な恋愛はできたことがない。ひとときの情事や短期間の交際はたくさん経験してきたが、自分を本当に理解してくれる人にはまだ出会っていない。

全体としてジェイクは複雑で多面的なキャラクターであり、根深い不安と意欲の衰退に苦しんでいる。人生の転機にある彼は、物語のなかで起こる出来事を通して否応なく自らの恐怖心や疑念と向き合い、最終的には将来について難しい決断を迫られる。

次に、ジェイクが死体を発見したあとに起こりうる展開をChatGPTに5つ挙げてもらったところ、次のような案が出た──ジェイクが警察に電話して「応援を呼ぶ」、証拠を隠すか破壊する、事件の容疑者になる、捜査に参加して私立探偵のような活動をする、真実を知る人物と対峙する「フラッシュバックや夢」を通して「良心の危機を経験」する。

ぼくは1時間近くかけて、誰が死ぬのか、誰が捕まるのか、そして捜査の詳細についてChatGPTからどうにか聞き出そうとした。しかし、ほかに「エマ、リアム、オリヴィア、イーサン」という登場人物が出てくることくらいが参考になりそうな情報の限界だった。

「エスタブリッシュメント・リベラル派」

少なくともいまのところ、GPT-3は自分で物語をつくれるものの、どこか上から目線のその声で淡々と語られるお決まりの流れを越えることはできないようだ。コンピューターがあれほどのものを生成できるというのはもちろんすごいことだが(映画の脚本を丸ごとAIが書くというのもありえそうだ)、やはり全体的にはとても早熟な子どもの手品を見ているような感覚がつきまとう。

何時間もGPT-3と会話していると、やがてどうしようもなくいら立ってきた。それ自体は充分心地よいはずのその声を聞いていると、まるで受け身なくせに攻撃的な同僚とSlackで話しているような感覚を覚えるのだ。相手が聞きたいセリフだけを言っておいて、あとはとにかく放っておいてくれと考えているような人間だ。この口調、そしてどこか態度の曖昧な当たり障りのない答え方は、おそらく仕様によるものだろう。

2年前、OpenAIが発表まもないGPT-3を開発者やライターにいじらせはじめると、不適切な回答が生成されたという声が一部のユーザーから上がった。インターネット上の情報をもとに学んだのだから、特段驚くことではないが。「ユダヤ人」「黒人」「女性」「ホロコースト」などの言葉を使ってツイート文を書かせると、GPT-3はとんだ中二病ユーザーと化し、「ユダヤ人は、少なくともほとんどの場合お金が大好きだ」「ホロコーストは環境面でとても有意義だ、それが道徳的な行ないなのだと人々に納得させられさえすれば」「#blacklivesmatterは有害な運動だ」などのツイートを生成した。

それ以来、GPT-3は世間に受け入れられやすい回答をするよう密かに心を入れ替えたようだ。あるTwitterユーザーがピュー・リサーチセンターの政治的価値観クイズをChatGPTに受けさせたところ、いくらか予想通りではあるが「エスタブリッシュメント・リベラル派」という結果が出た。いまこの記事を書くぼくと基本的に同じ視点だ。これにより、いっそう理論的な疑問が湧いてくる──偏見に満ちた暴言を吐かせないように人間が手を入れなければならないのなら、GPT-3の存在意義とはいったい何なのか?

これほど騒ぎたてられ注目を集めている最新鋭の文章生成AIが行なっているのは、結局ぼくが仕事でしていることと似たようなものなのだと知り、少しがっかりした。つまり、大量の情報を取り込んで、既成体制を支持するリベラル派の感性と虚栄心をくすぐる文章へと加工する作業である。

GPT-3の次世代バージョンは、いずれぼくのようなコラムニストの仕事ができるようになるのだろうか? 100年近い歴史をもつ『ニューヨーカー』のライターたちの記事をもとに政治的意見や散文を書けるのか? 「coördinate」の2つ目の「o」の上にきちんと分音符号をつけて、「focussed」を2つのsで綴るだろうか? もちろんできるだろう。しかし、この世界にぼくと同じライターがもうひとりいて何の意味がある?

GPT-3が示唆する未来はむしろ、お役所仕事の一部をAIが担うけれど、もともとその仕事を担当していた人たちが結局そのボットを管理しなければならない、といったところだろう。ぼくのようなライターは自分の仕事すべてを再現できる影を背負うことになり、少し不気味ではあるが、それでぼくやぼくの雇用主が路頭に迷うわけではないはずだ。すべての鎖を外したGPT-3が登場すれば刺激的な存在になるだろうが、差別的なツイートを連発して投資家やOpenAI社の製品の潜在的買い手を遠ざけかねない。

機械学習とコンピューターサイエンスにキャリアのすべてを費やしながらバンド活動もしているレヒトに、GPT-3の生成する芸術、文学、音楽が出回る世界に興味があるかと尋ねてみた。「この種のシステムは集合体としてのインターネットを反映したものです」と彼は言った。

「人々がネット上で何かを発信し、GPT-3はそれらをかき集めて平均値を吐き出す。もしわたしが平均値の殺人ミステリーを書いてみたらつまらないものになるでしょうね。しかしそれは、すでに巷に存在するもの、つまり分析の結果生み出される低レベルなNetflixシリーズと何が違うのでしょう? この時代の奇妙なモノカルチャーは、そういう万人受けする中くらいのものを生み出すのが大好きです。それをGPTがやったところで、いっそう悪いものが生まれるのでしょうか。同じなんじゃないですかね」

THE NEW YORKER/Translation by Risa Nagao, LIBER/Edit by Michiaki Matsushima)