浅川智恵子さんは14歳の時、プールの壁に目をぶつけて視力を失った。人生も壁にぶつかった。一人ではどこにも行けなかった。アクセシビリティに関心を持ったのは、ひとえに自分の人生を自ら改善したかったからだ。浅川さんはIBMが最高技術者に付与する「フェロー」であり、日本科学未来館の館長を務める。1985年にIBMに入社し、世界初の音声ウェブブラウザ「IBMホームページリーダー」を開発した。視覚障害者がウェブで初めて情報にアクセスする入口を作った主役だ。
彼女は最近、視覚障害者のための人工知能(AI)スーツケースの開発を進めている。形はスーツケースだが、実際には自動運転ナビゲーションロボットだ。専用モバイルアプリで目的地を指定すれば、AIスーツケースが目的地まで案内してくれる。スーツケースには人を感知してよけるRGBDセンサー、建物の構造を分析するLiDARセンサーが内蔵されている。
「Be My Eyes(ビーマイアイズ)」は視覚障害者とボランティアをつなぐ役割を果たす。視覚障害者がアプリを開いてスマートフォンのカメラで周辺を写すと、ボランティアは画面に見えるものを説明する。ボランティアの助けで、視覚障害者はスマホのカメラを通じて商品のラベルを読み、食品の賞味期限を確認し、新しい場所にスムーズに移動できるようになった。そうして10年以上視覚障害者の目を支えてきた。
Be My Eyesは今年、大きな転換点を迎えた。ChatGPTを開発したオープンAIは、次世代の巨大言語モデル「GPT-4」をリリースし、Be My Eyesと提携した。オープンAIは、人間のボランティアに匹敵するAIボランティア「Be My AI」を提供する。視覚障害者は人間のボランティアにつながっていない状況でも、AIの助けを借りてスマホのカメラで周辺の物を認識できるようになった。一日5500人を超える視覚障害者がBe My AIにアクセスし、3万項目を超える質問をAIに投げかける。マイクロソフトは、障害者がマイクロソフトの製品に関して問い合わせてきた際に、AIの助けを受けられる「障害応答デスク」をBe My Eyesと共に運営する。Be My Eyesがテストに参加したGPT-4のイメージ認識機能は、「タイム」誌が選ぶAI部門の「2023年の最も優れた発明品」リストに載った。
知識共有のエコシステムも人のための技術を育てるのに一役買っている。浅川さんの研究チームは、すべての研究内容をGitHub(ギットハブ)に載せ、外部と共有する。自ら参加した多くの外部開発者がAIスーツケースのコードを分析し、意見を付け、コードを改善し、新しい技術を新たに生み出す。研究チームはAIスーツケースのロボット開発のために、カーネギーメロン大学と共同研究を進め、日本国内の主要企業との協力体も作った。最近はオープンソースのAIモデルを活用し、Be My AIのような機能をウェブで具現した開放型プロジェクトも登場した。
浅川さんは、「AIスーツケースは視覚障害者のための移動補助手段としてスタートしたが、のちにはすべての人が使える製品に発展することを願う」と語った。誰もが状況によっては、移動が難しく助けを求めるときがあるからだ。技術は価値中立的だが、人間と呼応して初めてその真価を発揮する。