AIデバイス「rabbit r1」が正式発売、CEOが語った壮大なビジョンが示していること

「CES 2024」で話題になったAIデバイス「rabbit r1」の発売イベントが開かれ、実機がユーザーの手に渡り始めた。CEOによる発表から見えてきたのは、「最もシンプルなコンピューターをつくる」という壮大なビジョンだ。
Rabbit R1
Photograph: Julian Chokkattu

CES 2024」で発表された人工知能(AI)搭載デバイス「rabbit r1」の発売イベントが、4月24日(米国時間)に開かれた。その会場への通路は、さまざまな過去のガジェットたちが敷き詰められていた。

まず最初に球形でオレンジ色をしたJVCのブラウン管テレビ「Videosphere」、さらにソニーの「ウォークマン」から「たまごっち」、透明な「ゲームボーイカラー」が続いている。1998年に発売された「ポケモンずかん」のオリジナル玩具まであった。会場のいちばん端にはスウェーデンのデザイン会社であるteenage engineeringが手がけたマイクロサンプラー「pocket operator」があり、その向かいには「rabbit r1」のコンセプトモデルがいくつか並んでいた。

pocket operatorは発売から10年も経っていない。それが目立つとすれば、teenage engineeringがr1の設計に協力したことが理由だろう。この発表イベントではrabbitの最高経営責任者(CEO)のジェシー・リュイがステージに立ち、teenage engineeringの創業者であるイェスパー・コーフーが(teenage engineeringのCEOとしての役割は継続しながら)チーフ・デザイン・オフィサーとしてrabbitに加わったことを発表したのだ。

赤いレトロな小型ガジェットであるrabbit r1は、1900年代後半にインスパイアされたデザインがノスタルジーを誘う。だが、それだけはない。rabbitは、r1が“テックの殿堂”に並ぶだけの価値があるという大胆な主張をしてもいるのだ。

rabbitは、r1と連動するカメラ付きウェアラブル端末の発売を予定していることも明らかにした。このウェアラブル端末は、あなたが何を指さしているのか、あるいは何を操作するよう命じているのかを画像から認識できるという。

Photograph: Julian Chokkattu

イベント会場そのものさえ、過去に発表された楽しいガジェットへの憧れと未来の栄光への心踊る期待感を強調していた。ニューヨークのジョン・F・ケネディ国際空港にある象徴的な建築を用いたTWAホテルが、今回の会場である。そこには復元されたロッキードの4発プロペラ機「L-1649A スターライナー」を再利用したカクテルラウンジが設置され、まるで「宇宙家族ジェットソン」の実写版セットのような雰囲気を醸し出していた。

「最もシンプルなコンピューター」というビジョン

いまから50年後、AIが支える世界の始まりにあったガジェットとして、人々はr1を思い出すことになるだろう──。少なくとも、rabbitのリュイはそう願っている。

「最もシンプルなコンピューターをつくることがわたしたちの使命です」と、リュイは聴き入る観衆に向けてステージから語りかけた。そして1時間以上かけて、その目標を達成するための計画を説明したのである。明らかになったのは、r1は「始まり」にすぎないということだった。

正方形の付せん1冊ぶんほどの大きさで赤っぽいオレンジ色をしたr1には、小さなディスプレイがある。この新しいAIデバイスについてはCESでの情報に基づいて記事化しているが、その詳細について改めて説明していこう。

ディスプレイの右側にあるのは、インターフェイスを操作するためのスクロールホイールだ。その上のカメラはデバイスの前面や背面に向けられるほか、プライバシーを保護するためにケースの内側に回転させて収納できる。右端にあるボタンは、主に画面上で何かを選択するために使う。

rabbit r1は、例えばスプレッドシートを操作したり、言語を翻訳したり、AI画像を生成したり、マクドナルドで注文したりといったアクションを実行できる。

Photograph: Julian Chokkattu

rabbit r1はHumaneの「Ai Pin」と同じようにAlexaやSiri、Google アシスタントに対応しており、まるで会話するように話しかけたり、何でも尋ねたりできる。非常に高性能なので、自然なかたちでの複雑な質問が可能だ。

この機能を支えているのは主にPerplexity AI大規模言語モデル(LLM)で、このLLMが質問の理解やスピーカーと画面を通じての回答を支えている。マイクを動作させるためのウェイクワード(起動ワード)は必要ないが、トランシーバーのようにサイドボタンを押して話す必要がある。

内蔵したカメラは、視覚を用いてAI機能を動作させるために使える。例えば、カメラを被写体に向ければ、r1はユーザーが何を見ているのかを理解し、解析できるのだ。

rabbitのリュイはステージ上でリアルタイムのデモを実施し、その際にr1のカメラを1枚の紙に印刷されたスプレッドシートに向けた。そしてカメラで写真を撮ると、シート内の2つの列の位置を入れ替えてから自分宛にコピーを送るようデバイスに頼んだ。すると数秒後、リュイのPCの受信箱には、リクエストに対応済みとしてデジタル版のスプレッドシートを添えたメールが現れたのである。

目指すは音声によるアプリの置き換え

r1には、ほかにもかなりの数の機能が組み込まれている。例えばメモをとり、専用のポータルサイト「rabbit hole」からアクセスすることが可能だ。編集することさえできる。

また、r1はステージで実演されたように、翻訳を簡単に処理することもできる。r1で音声を録音し、ポータルサイトにアップされたWAVファイルにアクセスして、そのAIによる要約を入手することも可能だ。インターフェイスに何かを入力する際(Wi-Fiのパスワードなど)には、画面に表示されるバーチャルキーボードを用ればいい。

ニューヨークで開催された発表会では、ユーザーが初めてrabbit r1を手にした。

Photograph: Julian Chokkattu

リュイのデモには、r1のカメラをPCの画面に向けながらタスクの完了方法を指示する「ティーチモード」もあった。学習を終えると、ユーザーはr1にそのタスクの実行を頼んで自分の時間を節約し、手間を省けるわけだ。しかし、この機能はまだ利用可能になっていない。rabbitは、公開する際には少数のユーザーを対象にベータテストから始めると説明している。

r1が目標とするのは、事実上のアプリの置き換えだ。アプリのアイコンを探す代わりに、ボタンを押してr1に何かを頼むだけで済むというわけである。

CESでの展示では、発売当初からr1を通じて複数のサードパーティ製アプリを利用できるように見えた。しかし、いまのところ利用できるのは、Uber、DoorDash、Midjourney、Spotifyの4つのサービスに限られる。

サードパーティのアプリに接続するには、ポータルサイトに接続する。つまり、rabbitがホスティングする仮想マシンのようなものを介して認証情報を渡し、ログインするわけだ。ログイン後は、Uberの車両の呼び出しやマクドナルドの注文、画像の生成、曲の再生をr1に頼める。r1はこれらのウェブサイトを使用するように訓練されているが、API(アプリケーション・プログラミング・インターフェース)にアクセスしているわけではない。

rabbitの最高経営責任者(CEO)のジェシー・リュイによると、rabbit r1には旅行の計画などさらに多くの機能が搭載される予定だという。

Photograph: Julian Chokkattu

もちろんリュイからは、まだまだ多くの計画が約束されている。夏には目覚まし時計やカレンダー、連絡先、GPS、メモリーリコール、旅行計画などの機能を期待できるのだと、リュイは言う。現時点で開発が進んでいるのは、Amazon MusicやApple Musicとの統合だ。その後、AirbnbやLyft、OpenTableなど、より多くのサードパーティ製サービスとの統合が実現する見通しとなっている。

そんな説明を受けると、「ちょっと待って。まるでスマートフォンみたいじゃないか」と思うかもしれない。だが、その感想は決して的外れでもないだろう。

ぎこちなくて機能が限られていたHumaneの「Ai Pin」で明らかだったように、スマートフォンはそれらのすべてのタスクをよりうまく、より速く、より優れたインタラクションと共に実行できる。rabbitの全体的なビジョンにおいて、しっかり見ておかなければならないのは、この点だろう。

連動するウェアラブル端末の計画も明らかに

rabbitの狙いは、まずはデバイスに話しかけてもらい、その後にコンピューターで処理することにある。アプリは必要ない。コンピューターによる理解だけで十分だからだ。その実現にはまだほど遠いが、発表イベントにおいてrabbitは、ユーザーが指さしているものを理解できるウェアラブル端末の投入を予告している。

Photograph: Julian Chokkattu

このウェアラブル端末についてリュイは、例えば部屋の温度を下げてほしいユーザーが「Google Nest」を指さしながら指示する際に、「ネスト」や「サーモスタット」という言葉を使わなくても理解できるのだという。だが、“万能”と思われるこのウェアラブル端末の画像はぼかされていたので、これ以上は提供できる情報がない。

またリュイは、ユーザーが自分で選んだインターフェイス(画面上の好きな場所に完璧なサイズのボタンを配置できる)をもテル生成ユーザーインターフェイスについても言及している。「rabbit OS」というAIに特化したOSの開発も進めているという。

繰り返しになるが、どれも詳細は不明だ。しかし、これらの説明を聞いたとき、映画『her/世界でひとつの彼女』の主人公・セオドアが、PCに「OS1」をインストールしている場面が頭に浮かんだ。

パーソナル音声アシスタントを最も重要な機能として搭載したOSなのだ。うまくいかない理由があるだろうか。

rabbit r1は、すでに199ドル(約31,000円)で購入可能だ。しかし、受注がまとまった段階での出荷になることから、いま注文すれば受け取れる時期は6月になりそうである。

リュイはrabbit r1について、HumaneのAi Pinとは異なり有償のサブスクリプションの仕組みがないことを何度も繰り返していた。しかし、Wi-Fiから離れて利用できるようにするには、自分で通信会社と契約して、r1に4G通信のSIMカードを挿入しておく必要がある(もちろんスマートフォンからのテザリングでも利用できる)。

rabbitによると、すでに2024年第1四半期に10万台を販売したという。今回のイベントでも実際に購入し、それを箱から取り出したところだ。当初の印象では間違いなくかわいらしいテックデバイスであると感じたが、詳しい見解については性能を試してからレビュー記事で改めて紹介していきたい。

(Originally published on wired.com, edited by Daisuke Takimoto)

※『WIRED』によるガジェットの関連記事はこちら人工知能(AI)の関連記事はこちら


Related Articles
R1 device
音声で指示するだけでアプリを代わりに操作してタスクを実行してくれるAIデバイスが、「CES 2024」で発表された。この「rabbit r1」という製品は、どんな世界をもたらすことになるのか。
article image
Humaneのウェアラブルデバイス「Ai Pin」は昨年の発表当初大きな話題を呼んだ。ただ、このほど実機を試したところ、できることが限られており、AIの回答の精度もまちまちだった。現時点では、スマートフォンの代わりとして使えるほどではない。

雑誌『WIRED』日本版 VOL.52
「FASHION FUTURE AH!」は好評発売中!

ファッションとはつまり、服のことである。布が何からつくられるのかを知ることであり、拾ったペットボトルを糸にできる現実と、古着を繊維にする困難さについて考えることでもある。次の世代がいかに育まれるべきか、彼ら/彼女らに投げかけるべき言葉を真剣に語り合うことであり、クラフツマンシップを受け継ぐこと、モードと楽観性について洞察すること、そしてとびきりのクリエイティビティのもち主の言葉に耳を傾けることである。あるいは当然、テクノロジーが拡張する可能性を想像することでもあり、自らミシンを踏むことでもある──。およそ10年ぶりとなる『WIRED』のファッション特集。詳細はこちら