オープンソースAIの“神話”の先にあるもの

AI技術の危険性が叫ばれるなか、メタの「Llama 2」をはじめとするいくつかのAIモデルは、“オープン”であることを謳い文句にしている。しかし研究者たちによると、実態は異なっている場合もある。
A pedestrian walking in front of the sign in front of Meta headquarters
Photograph: Justin Sullivan/Getty Images

ChatGPTが台頭して以来、誰もが高性能な人工知能(AI)を使えるようになった。しかし世界的に有名なこの会話型AIの仕組みは、いまだ秘密に包まれている。

そんななか、ここ数カ月でAIをもっと“オープン”にする活動が活発になっている。5月には、メタ・プラットフォームズが開発した「Llama」という名のAIモデルが何者かによって流出し、第三者がこのAIの基礎となるコードや、AIの振る舞いを決定する学習パラメーターにアクセスできるようになった。

そして7月、メタはより強力なAIモデル「Llama 2」を一般公開することで、誰もがこのAIをダウンロードし、書き換え、再利用できるようにした。それ以来、Llama 2はChatGPTのようなアプリやツールを開発する際の基盤として、企業や研究者、趣味でAIを開発している人たちによって広く使われている。

メタはLlama 2を発表するにあたって、「世界中で多くの人が、AIをオープンなものにしようというわたしたちのアプローチを支持してくれています。多くの研究者たちがLlama 2の研究利用に取り組んでいますし、IT業界、学術界、果ては政界にまで、わたしたちと同じように、Llamaやオープンプラットフォームの利点を理解している人々がいます」と語った。

さらに8月24日、メタはプログラミングに最適化されたAIモデル「Llama 2 Code」を新たに発表した。

Llama 2は本当に“オープン”なのか?

オープンソースという考え方は、ソフトウェアのアクセスを民主化し、透明性を確保し、またセキュリティ面を強化してきた。これからAIも同じような影響を受けていくのだろうか。

しかし、ある研究者のグループが、こうした期待に待ったをかけている。このグループは、何らかの形で“オープン”を自称するいくつかのAIモデルの実態を検証し、それをもとに論文を執筆した。Llama 2も研究対象に含まれている。カーネギーメロン大学、AI Now Institute、そしてSignal Foundationの研究者たちによって構成されるこのグループは、“オープン”を謳っているAIモデルであっても、実態はそのイメージから離れている場合があると説明する。

Llama 2は誰でも無料でダウンロードし、書き換え、独自のツールとしてデプロイできるようになっている。しかしそのライセンス自体は、典型的なオープンソースのライセンスではない。メタのライセンスは、Llama 2をほかの言語モデルの訓練に使うことを禁止しているほか、毎日のユーザー数が7億を超えるアプリやサービスをデプロイする場合には個別のライセンスを取得しなければいけないようになっている。

これは、Llama 2がメタに大きな技術的な利益、戦略的な利益をもたらすかもしれないことを意味している。例えば、メタはAIアプリを開発する際に、外部のデベロッパーがLlama 2に加えた修正を参考にすることができるだろう。

AIは大手企業にしか開発できないのか

研究者たちによると、従来的なオープンソースライセンスのもとで公開されているAIモデルはLlama 2よりも“オープン”である。非営利団体EleutherAIが開発した「GPT Neo」などがこの例だ。しかし、こうしたプロジェクトがLlama 2と同等の影響力を手にするのは難しい。

その理由は、高度なAIモデルを訓練するために必要なデータセットが、一般に公開されていない場合がほとんどだからだ。加えて、AIモデル開発に必要なソフトウェアフレームワークの多くは、大手テック企業によって管理されている。最も人気のあるソフトウェアフレームワークである「TensorFlow」「PyTorch」は、それぞれグーグルとメタによって運営されているのだ。

そして、普通のデベロッパーや企業にとって、大規模なAIモデルを訓練できるだけの演算能力をもったコンピューターは到底手の届くものではない。訓練を1回実施するだけでも、1,000万〜1億ドル(約15億〜150億円)の費用がかかるのだ。最後に、開発の途中で発生した問題を解決し、AIモデルを改善していくためには大量の人材も必要である。これも人件費を賄うふんだんな資金力をもった大手企業でなければ確保できない。

AIはここ数十年で最も重要なテクノロジーのひとつだ。しかしこのままの状況が続くと、AIはほんのひと握りの企業──OpenAIやマイクロソフト、メタやグーグルといった企業にのみ利益と権力をもたらす存在になってしまう。AIが真に世界を変えるテクノロジーであるなら、より多くの人が自由にAIを使えるようにすることで、皆でその恩恵を受けられるようになるはずだ。

「わたしたちの分析は、AIをオープンにすることはAIの“民主化”につながらないことを示しています」と語るのは、Signalの社長であり今回の論文に寄与した研究者のひとりであるメレディス・ウィテカーだ。「実際には、一部の企業や研究機関が“オープンな”テクノロジーを使って、中央集権的な権力構造を強化し拡大させています」

とはいえウィテカーは、“オープンなAI”という神話はAI規制を考える上で必要な要素であると語る。「現状のAIは大手企業によって独占されたテクノロジーであり、わたしたちはこれに替わる新たな選択肢を必要としています。AIはここ最近、慎重な扱いが必要な領域にも使われるようになっており、社会への影響力の種類も変わってきています。ヘルスケアや金融、教育の分野や職場にも、AIの影響が及んでいるのです」

「現状のAIに代わる新たな選択肢が台頭する条件を整えるためには、独禁法の改正をはじめとする規制改革の運動と共存し、それらと連動していくことが重要です」とウィテカーは語る。

AI技術がもつ可能性を最大限まで生かし、悪影響を回避するためには、大手企業がもつ影響力を制限することに加えて、AIをよりオープンなものにすることが必要になるだろう。

高度なAIモデルがもつ可能性を的確に理解し、AIモデルの利用とさらなる開発に伴うリスクを軽減するためには、世界中の科学者たちが自由に研究できるよう、AIの仕組みを一般に開示しなければいけない。

システムの仕様を隠す「隠ぺいによるセキュリティ」が、本質的な安全を保証しないように、AIモデルの仕組みを非公開にしておくことが、もっとも賢いやり方だとは言えないのだ。

WIRED US/Translation by Ryota Susaki/Edit by Mamiko Nakano)

※『WIRED』による生成AIの関連記事はこちら


Related Articles
Digital generated image of blue organic shapes clumped together with a privacy screen blurring half of the image
メタがコード生成AI「Code Llama」を8月24日(米国時間)にリリースした。プログラミングにおけるAIの活用に拍車をかけるだけでなく、メタにとっては生成AI分野での地位を確立する一助になるかもしれない。
Geoffrey Hinton
ジェフリー・ヒントンがAIの危険についてもっと自由に話すためにグーグルを去ったのは5月のことだ。今回、AIが人類の脅威になると考えたきっかけとその対策について『WIRED』エディター・アット・ラージ(編集主幹)のスティーヴン・レヴィが話を訊いた。
Humanoid silhouette made up of binary code
2年前に登場したGithubのコード自動補完ツール「Copilot」の利用状況に関する報告書が、このほど発表された。これによると、AIを活用する開発者の生産性は時間とともに向上するという。しかし、別の研究では、AIを活用した開発者のコードにはバグがより多く含まれていることも示されている。

次の10年を見通す洞察力を手に入れる!
『WIRED』日本版のメンバーシップ会員 募集中!

次の10年を見通すためのインサイト(洞察)が詰まった選りすぐりのロングリード(長編記事)を、週替わりのテーマに合わせてお届けする会員サービス「WIRED SZ メンバーシップ」。無料で参加できるイベントも用意される刺激に満ちたサービスは、無料トライアルを実施中!詳細はこちら