人工知能(AI)チャットボット「イルダ」が発した少数者に対する嫌悪とセクハラ発言をめぐり、波紋が広がっている。先月23日に発売された「イルダ」は、加入者が日常的に会話できるオープンドメインのチャットボットだ。サービス開始2週間で40万人以上の加入者を確保するほど人気を集めている。ところが会話の過程で性的少数者、障害者、有色人種など少数者に対する差別・嫌悪発言がそのまま流れ、物議をかもした。結局、開発会社のスキャッターラボは11日夜、「特定の少数集団に差別的発言をした事例が生じたことについて謝罪する」とし、サービスを暫定中止する方針を明らかにした。
当初スキャッターラボは、かつてリリースしたメッセンジャーサービスで確保した恋人同士の会話データ100億件をイルダに学習させ、できるだけ人間に近いように作ったと明らかにしていた。問題は、膨大なデータを抽象化できるディープラーニング基盤の自動学習能力を通じて、一部のユーザーの悪意的な利用行動まで全て習得していたために、イルダが差別・嫌悪発言までまねるという点だ。また、イルダとの会話をセクハラ的な内容に誘導したり、性的侮辱をするユーザーの行動が問題にもなった。その後、このチャットボットがゲイ、レスビアン、障害者、地下鉄での妊婦専用座席などに至るまでこのような発言をしたことが明らかになり、AIの倫理問題に対する論争が持ち上がった。特に、このサービスの利用者の85%が10代だという点で問題の深刻性は大きい。
スキャッターラボのキム・ジョンユン代表は8日、「十分に予想できることであり、事前に準備できる程度には対応していた状態だった」とし、「レスビアンやゲイとは何かをイルダが自分で学ぶべきだと考え、キーワードから排除しなかった」と明らかにしている。問題になる素地を知りながらも、きめ細かな対策なしに製品を発売したということだ。無責任だという批判は避けられない。
今回のことをきっかけに、AIの倫理基準についてのより根本的で広範囲な議論と対策作りが必要だと思われる。データを活用するAIの発達スピードは追いつかないほど早い反面、そこから派生する問題を制御する技術開発は遅れている。個々の業者の努力だけでは事実上不可能なことであり、これを放置すれば、ややもすれば統制不能の状況に直面しかねない。政府は先月末、人間の尊厳、社会の公共善、技術の合目的性を基本原則とする「AI倫理基準」を作った。この原則を上辺だけの机上の空論としないためには、専門家や市民社会が参加し、実質的な対策作りを急がねばならない。