Speculative Zones
3つの読みどころ

1)法学者のローベルはテクノロジーとギグエコノミーとが労働市場に及ぼす影響について研究をしている。
2)充実したデータセットがある現在、職場の差別や偏見を改善する道はいくらでもあるとローベルは言う。
3)ここで問われているのは、AIの判断が完璧かどうかではなく、人間より優れているかどうかだ。

テクノロジーによって世界はよりよいものになる、というのがオーリー・ローベルの考えだ。2022年においてこのような主張が“逆張り”と受け取られかねないことは、彼女も重々承知している。

ローベルは法学者としてカリフォルニア州のサンディエゴ大学で教鞭を執りながら、テクノロジーとギグエコノミーとが労働市場に及ぼす影響について研究をしている。専門領域は労働と雇用の問題だ。つまり、履歴書の自動スクリーニングシステムや、アルゴリズムを駆使して業務分担を行なうアプリといったツールが引き起こしかねないトラブルについては一通り以上の見識をもっている。自動化(オートメーション)やAIに関する議論は往々にして、それらシステムのもつ負の部分が強調されているのではないか、というのがローベルの考えだ。

PHOTOGRAPH: GERI GOODALE

著書『The Equality Machine: Harnessing Digital Technology for a Brighter, More Inclusive Future(平等機械:明るくインクルーシブな未来に向けて、デジタルテクノロジーとの共存)』[未邦訳]のなかで、ローベルはより前向きな議論へと読者を誘う。いまや求職者たちは自動化されたシステムに自らの運命を託していて、家庭用の健康デバイスでさえ大量の個人データを活用している。そのようにしてわたしたちの人生の最重要かつ個人的な部分にまで深く浸透しているAIの果たしうる役割について、彼女は研究を行なっているのだ。

これらのツールを注意深く導入することで、多様性に満ちた雇用環境や、より効果的なヘルスケアが実現できると彼女は論じている。ローベルは『WIRED』の取材に応じ、AIの善の側面について語ってくれた。以下のインタビューは紙幅の都合で編集されたものであることを断っておく。

──本書の特徴は逆張りにあるとのこと。このところ、AIの有害性についての議論が目立ちますが、そのような状況に対する問題意識はありますか?

オーリー・ローベル:二項対立的な議論ばかりが目立つようになったのがここ10年の流れでしょう。テック業界内部の人々にとっての関心事といえばテクノロジーのためのテクノロジーといった話ばかりで、平等性や公正性、分配的正義といった物事にはほとんど目が向けられていないのが実情です。他方で世間の関心は「テクノロジーによって利益を得る、もしくは負の影響を受けるのは誰なのか、またさまざまな権利を守るためにはどうすべきなのか?」といった問題に向けられています。そのような議論の橋渡しをしたい、というのがわたしの立場です。

問題点ばかりに目を向けるのではなく、テクノロジーによって生み出される新たなチャンスや成果を評価するというのも必要な態度でしょう。ですが、このような議論を求める人々の落胆は増すばかりです。ビッグテックでの仕事など期待できないという人々は(とりわけ女性やマイノリティに)大勢います。そのことで企業内部から多様な視点が失われ、批判的であったり事情に疎かったりする人々がゲームの外に締め出される、という悪循環が起きています。

──アルゴリズムによって正確で間違いのない結論が導き出されると信じる人は少なくありません。人材登用やハラスメント対応のオートメーションに人々が疑問を抱かなくなるという危険性はないのでしょうか?

雇用とダイバーシティ、インクルージョンに関する研究を、わたしはずっと続けてきました。差別や格差の問題は、アルゴリズムによる意思決定に関係なく、すでにそこらじゅうで起きています。もし採用をアルゴリズムの判断に頼るのであれば、問われるべきはそれが人間の判断より優れているか否かという点であり、完璧か否かという点ではありません。結果に偏りがあるのならその原因を究明し、学習データを増やすことなどで解決できるかどうかが重要です。人間固有の偏見を正すことが可能か、でなければどこまでシステムを改良することができるか、ということです。

今日、大企業の大多数が何らかのかたちで自動化された履歴書スクリーニングを使用しています。米国雇用機会均等委員会や労働省のような機関が、主張と結果を比較検討することは重要です。リスクの源泉とそれを是正できるかどうかについて、充分に議論されていないのです。

──例えば、混雑する寿司レストランの給仕となってプレイするKnack社のオンラインゲーム「Wasabi Waiter(ワサビ・ウェイター)」などに使われているスクリーニングテクノロジーの可能性について、著書のなかで言及されています。これが就職希望者の評定に有効だとする理由はどこにあるのでしょう?

例えば優れたチームプレーヤーとしての条件ということならば、心理学などの先行研究がすでにあります。そのような知見を用いてスクリーニングの基準を設けたりして、より創造的に考えていこうということです。アイビーリーグで運動部のキャプテンを務めた経歴などの情報と過去の採用における成功実績とを照合する、いわゆるエクスプロイテーション・アルゴリズムだけでは不充分なのです。

The Equality Machine: Harnessing Digital Technology for a Brighter, More Inclusive Future(平等機械:明るくインクルーシブな未来に向けて、デジタルテクノロジーとの共存)』[未邦訳]

アルゴリズムが実際にどのような働きをしているのかを知るのは困難で、それがいわゆるブラックボックス問題を引き起こします。ですがわたしたち人間の心理に潜むブラックボックスもまた、その内部で何が起きているのかを知ることは極めて困難です。雇用差別にまつわる訴訟などを見てきた専門家としての経験から、そして雇用問題の研究者としての観点から、はっきりとそう言えます。プロセスがデジタル化されればその軌跡が目に見えるかたちで残されることになるので、過去の事例や自動化されたエモーショナル・スクリーニングの結果と比べ、選出される人々の多様性がどう確保されているかを追跡することも可能になります。

──適性検査や性格診断をともなう求人に応募したわたし自身の経験から言えることは、不透明でフラストレーションの溜まる思いを強いられるものだったということです。顔を突き合わせての面接であれば、自分がどのように評価されているのか察することもできます。一方、すべて自動化されてしまえば、自分がいったい何をテストされているのかさえ判然としなくなります。

それが多くの人の感覚でしょう。ですがここでは、ちょっと逆説的に見てみましょう。面接とは人々がどう感じるかだけの問題ではないのです。面接を通じて正しく評価するだけの能力がはたして人に備わっているのかということが気にかかります。

そもそも面接は相手の能力を計るのに適さず、また面接官は往々にしてその場の印象を過大評価しがちだとする研究結果なら枚挙に暇がありません。偏見が入り込むのに数秒もかからないという研究結果さえあります。もし本気で求職者の多様性を広く確保しようと考えるのであれば、初期段階において求められる応募者の総数はわたしたちの手に負えるものではないでしょう。

──職場にはびこる偏見についてはすでに数多の実例があります。男女間の賃金格差が指摘されるようになって久しいですが、まだその差を埋めることさえできていないのが実情です。このような問題もオートメーションによって解決に近付くのでしょうか?

男女同一賃金の原則が法的に示されているにもかかわらず、それでもなお賃金格差が温存されている現状には憤るほかありません。充実したデータセットの活用が可能となったいま、改善に向けた道などいくらでもあるはずです。例えばTextio社のソフトを使えば、よりインクルーシブな求人広告を出すことが企業にとって容易になり、それが結果的に多彩な応募者を集めるのに役立ちます。Syndio社のサービスを活用すれば、大きな職場で見過ごされがちな賃金の不公平な格差を検出することも可能です。

簡単なことです。ソフトウェアを駆使して煩雑な給与形態や求人条件を比較していくことで、大きな職場にありがちな形式的な職務記述書の影に隠された問題に光を当て、性別や人種の違いがどのように影響を及ぼしているのかを可視化することができるはずです。査定は年に一度きりというのがかつての常識でしたが、いまでは数カ月におよぶ継続的な審査もできるし、ボーナスの有無などで一気に拡大してしまう給与格差といったものに対応することも可能です。

──自らの立場を守り公正な評価を得るために、いったいどの程度の情報を開示しなければならないのか、という問題がそのようなアプローチにはついて回ります。職場でのやりとりにおけるハラスメントを監視するのにAIが役立つと著書にはありましたが、「Slackのメッセージをボットに読まれて本当に大丈夫だろうか?」という疑問がまず浮かんだんです。ソフトウェアによる評価のためとはいえ、かなりの個人情報をデジタル処理されてしまうという状況を、人々は快く受け入れるでしょうか?

自らを守るためのプライバシーと、権力の盾となり物事を隠蔽するためのプライバシー、この両者をまたぐ緊張関係は常にあります。秘密保持契約は往々にして職場における不正行為の隠蔽に使われています。テクノロジーによって自分がモニターされていると意識することで、トレードオフはより鮮明になります。ハラスメントのフラグがいくつか立って初めてアンロックされる報告アプリなども現在ではつくられています。

──非正規労働者やギグワーカーのためのプラットフォームはどうでしょう? 例えばAirbnbはマイノリティの予約に不利が生じていることを示すデータによって、ホストおよびゲストのプロフィール写真の表示をやめています。でもそれでもなお、黒人ゲストが差別的扱いを受けているという事実を同社は公表しています。

それこそデジタル記録と機械学習の力を用いることで、継続的な監査を行ない、差別を検出しようという話になってきます。差別は後を絶ちませんが、それがプラットフォーム上で起こるのであれば、その判別や特定、抽出や修正といった対処がオフライン環境における場合より容易になります。

──大量のデータが出回るようになった現在では、その収集に規制を加えるより、むしろ運用方法の規制について議論すべきだという意見もありますね。

もっともなことだと思います。賛成です。プライバシーの重要性を考えれば、正確かつ信頼のおけるAIと、規範的かつ誠実なデータ収集とのあいだで保たれるべきバランスがあるのだと、よくよく理解しておく必要があります。いまある議論の多くはかなり混乱したものになっています。データが蓄積されればされるほど、立場の弱い集団がより不当なかたちでリスクを負わされるものだと、人々が思い込んでいるからです。

データからこぼれ落ちてしまう人々に対しても、わたしたちは同じように目を向けるべきです。行政や業界などは保有するデータの内部でリソースの配分を決めるものですが、それではあらゆるコミュニティに対する公平性があるとは言い難い。情報が充実するほどポジティブな活用の道が開けていくという実例は少なくないんです。

情報によって都市部の道路事業は決定するし、国連でもリソースの不足する学校や地域への出資が決められています。衛星画像や、さらにスマートフォンの稼働状況なども判断材料として使われています。人類の進歩と公平性について言えることは、わたしたちが情報をもてばもつほど、何が差別の根拠や理由となっているのかについて理解を深め、状況の是正に役立てられるということです。

WIRED/Translation by Eiji Iijima, LIBER/Edit by Michiaki Matsushima)