ソフトウェア

「制御不能なAI開発競争」の一時停止を求める公開書簡に偽の署名者が多数まぎれていたことが判明、AI研究者からは書簡への反論が続出


「AIの開発競争が制御不能になり社会に重大な悪影響をもたらす」としてAI開発を停止するよう求め、イーロン・マスク氏やスティーブ・ウォズニアック氏など多数の著名人が署名をしたという公開書簡に、中国の習近平主席を始めとする偽の署名が複数あったことが報じられました。AI研究者からは、公開書簡を作成した非営利団体・Future of Life Instituteの主張には誇張された非現実的な点があるとして、書簡の理念に異論を唱える声が上がっています。

The Open Letter to Stop 'Dangerous' AI Race Is a Huge Mes
https://www.vice.com/en/article/qjvppm/the-open-letter-to-stop-dangerous-ai-race-is-a-huge-mess


人工知能の倫理的開発を目的に設立された非営利団体のFuture of Life Instituteは2023年3月に、OpenAIのGPT-4を始めとするAIが社会と人類に重大なリスクをもたらすとして、最先端のAIのトレーニングを少なくとも6カ月間は停止すべきと提唱する公開書簡を発表しました。書簡には、テスラのイーロン・マスクCEOやAppleの共同設立者であるスティーブ・ウォズニアック氏など、1000人以上の署名が寄せられています。

「コントロールの喪失」の恐れがあるとしてGPT-4を超えるAIの即時開発停止を全技術者に対して6カ月間求める公開書簡、イーロン・マスクやスティーブ・ウォズニアックなど1300人以上が署名 - GIGAZINE


Future of Life Instituteは署名の真偽について、「直接のコミュニケーションを通じて独自に検証した」としていますが、公開から程なくして署名の一部が虚偽やなりすましであることが分かってきました。海外メディアのMotherboardによると、GPTシリーズの開発と商品化を手がけているOpenAIからの署名者はいないはずだったにもかかわらず、署名の中にはOpenAIのサム・アルトマンCEOの名前があったとのこと。

同じく、署名者とされていたMetaのチーフAIサイエンティストのYann LeCun氏も、書簡が前提としている内容に同意できないため署名しなかったと否定しています。

Nope.
I did not sign this letter.
I disagree with its premise. https://t.co/DoXwIZDcOx

— Yann LeCun (@ylecun)


さらに、署名者の中に中国の習近平主席の名前があったことから、署名は検証されていない可能性が指摘されました。

seems there's no verification on signing it haha pic.twitter.com/ItMCKsZ0Hk

— Martian (@space_colonist)


また、書簡の内容にも不審の目が向けられています。ワシントン大学の教授で、公開書簡に引用された論文の著者でもあるエミリー・M・ベンダー氏は、「公開書簡はAIの誇大広告を垂れ流しています」とツイートして、書簡が自身の研究を誤用していると非難しました。

書簡の中でFuture of Life Instituteは、ベンダー氏の研究を論拠に「人間と競合する知能を持つAIシステムが、社会と人類に重大なリスクをもたらす可能性がある」と主張しましたが、ベンダー氏は「私の研究は架空の未来のAIではなく、現在の規模言語モデルについて扱ったものです」と述べて、AIは遠い未来の問題ではなく現実的な課題であると反論しました。

また、ベンダー氏は「ChatGPTは、簡単にアクセスできる情報源に設定しないだけで確実にコントロールできます」と指摘して、AIが開発者にさえ理解できない制御不能な存在になりつつあるとする書簡の主張を否定しています。

And could the creators "reliably control" #ChatGPT et al. Yes, they could --- by simply not setting them up as easily accessible sources of non-information poisoning our information ecosystem.

>>

— @[email protected] on Mastodon (@emilymbender)


このような食い違いが発生しているのは、Future of Life Instituteに思想的な偏りがあるためだとされています。Motherboardは、Future of Life Instituteについて「この団体は、シリコンバレーの技術系エリートに支持されているある種の世俗的な宗教で、遠い未来の人類のために膨大な資金を注ぐことを説いている『ロングターミズム』の支持者を何人か擁しています」と説明しました。

ロングターミズムの思想では、現に存在する問題に対する具体的な取り組みではなく、遠い未来の改善や世界的な破滅シナリオの回避に焦点が置かれているとのこと。また、未来に向けて膨大な資金を動かすことができる超富裕層がもてはやされ、道徳的に疑わしい行為が正当化されていると批判する意見もあります。以前、イーロン・マスク氏がこのロングターミズム的な考えを表明したことがあるほか、詐欺の容疑で逮捕されたFTXのサム・バンクマン=フリード元CEOもこの思想の支持者として有名です。

プリンストン大学のアーヴィンド・ナラヤナン教授は「もちろん、大規模言語モデルは労働に影響を与えるでしょうし、そのための計画を立てるべきですが、言語モデルがすぐに専門家に取って代わるという考えはナンセンスです」「人類存亡リスクは長期的な懸念としては妥当だと思いますが、現実的な情報セキュリティや安全性のリスクといった今日的な被害から目をそらすために、繰り返し戦略的に用いられてきたものでもあります」と述べて、AIの脅威を誇張する一方で現実的な問題と捉えない公開書簡の論調は論点のすり替えであると非難しました。

The third and fourth dangers are variants of existential risk. I think these are valid long-term concerns, but they’ve been repeatedly strategically deployed to divert attention from present harms—including very real information security and safety risks! https://t.co/yKkIJ25ABD

— Arvind Narayanan (@random_walker)

この記事のタイトルとURLをコピーする

・関連記事
イーロン・マスクの「AI脅威論」はマーケティング戦略だという指摘 - GIGAZINE

なぜAIは人間の脅威となり得るのか? - GIGAZINE

AIが「私は人類を絶滅させるつもりはない」とAI脅威論を否定 - GIGAZINE

AIの専門家が「今からAIの暴走を心配するのは早すぎ」との楽観論に徹底反論 - GIGAZINE

AIの悪用を未然に防ぐために取り組むべきこととは? - GIGAZINE

in ソフトウェア, Posted by log1l_ks

You can read the machine translated English article here.