コンピューターサイエンス分野でのノーベル賞として知られる「チューリング賞」を主宰する計算機協会(ACM)という学会がある。その機関誌に、興味深い論文が投稿されていた。米ボストン大、イスラエルのテクニオン工科大とテルアビブ大、イタリア・ミラノのボッコーニ大によるデータサイエンスと法律をかけあわせた共同授業開始に関する論文だ。
論文は言論の自由に関することから始まる。米議会では、通信品位法230条がしばしば議論になる。SNS(ネット交流サービス)などのプラットフォームは基本的にメディア会社とみなされず、ユーザーが発信、共有する情報について法的責任を問われないという法律だ。
しかし、フェイスブックから流出した利用者の膨大な個人情報が、英選挙コンサルティング会社のケンブリッジ・アナリティカによって米大統領選などに使われたとされる問題が起きて以降、プラットフォームの社会的影響力を踏まえ、中立の立場を主張して「言論の自由」を振りかざすSNSプラットフォームに対する規制が厳しくなってきた。
最近では、音楽やポッドキャストを配信しているプラットフォーム、スポティファイで、著名ポッドキャスターのジョー・ローガンが陰謀論信者の医師を番組のゲストに呼び、「新型コロナウイルスワクチンは国の陰謀策だ」と語らせたことが問題になった。
この番組は米国で一番人気があるポッドキャストで、毎回約1100万人もの人が聴いているという。また、スポティファイでの独占配信となっていることから、スポティファイにとって非常に重要な収益源ともいえる。
これだけの影響力を持つ番組で、偽情報を配信していいのかということが問題になったのだ。270人以上の医師や科学者らがスポティファイに署名を提出し、「プラットフォーム上の偽情報を抑制するための明確かつ公開されたポリシーの確立」を要請した。
スポティファイで音楽配信をしている多くのアーティストやミュージシャンも抗議した。ジョー・ローガン本人も謝罪し、問題となった回を削除した。
一方で、この件で本人以上に責任を問われたのが、即座に対処しなかったプラットフォーム側のスポティファイだった。同社は、今まで音声コンテンツ配信に特化した「中立の立場」のプラットフォームとして運営していたため、どんな情報が配信されているかのチェックには注力していなかったのだ。
前述の論文では、こういった問題がケーススタディーに即して紹介されている。例えば、架空のSNSがあったとして、そのアルゴリズム(コンピューターの計算や処理の手順)を作るデータサイエンスチームと、「このコンテンツはアウトで、このコンテンツはOK」という線引きを決めるため、コンテンツのチェックをする法務部が話し合いをする現場を想像していただきたい。以下は論文からの抜粋だ。
ある架空のSNSの法務部が「扇動的なコンテンツを削除する必要性」と「言論の自由」を適切なバランスに基づいてチェックするシステムを開発するようにデータサイエンスチームに依頼しました。
データサイエンスチームは「自分たちのアルゴリズムが扇動的なコンテンツの90%を削除できた」ことと、「削除されたコンテンツのうち、扇動的でないものは20%だった」ことを報告しました。ところが、サンプルを調査したところ、法務部はこのアルゴリズムが「明らかに扇動的でないコンテンツ」まで削除していたことを発見しました。
法務部は「削除されたコンテンツが全く扇動的でないことは、誰が見てもわかるはずだ。アルゴリズムが機能していないじゃないか」と指摘し、データサイエンスチームはアルゴリズムを改善しました。今度は「明らかに扇動的でないコンテンツ」の削除率が5%に下がった一方で、有害なコンテンツの削除成功率は90%から70%に低下してしまいました。
そして、データサイエンスチームのリーダーは、人工知能(AI)にデータを学習させる過程で使用した「扇動的なコンテンツ」の定義が、単純すぎたことに気がつきました。これは、はじめから法務部とデータサイエンスチームが連携してプロジェクトを進めていれば防げた事態でした。
このケーススタディーから分かるように、アルゴリズムを作るデータサイエンティストと、そのアルゴリズムの精度に関して法的観点からモニタリングをする法務部のようなチームが協業をすることで得られるメリットは非常に大きくなってきている。
そこで、冒頭で紹介した四つの大学が共同で開発したのが「責任あるAI、法律、倫理と社会」と題されたクラスだ。このクラスでは、データサイエンス専攻の学生と法学部の学生の合同チームが、「責任と義務」「差別と平等」「透明性とプライバシー」といった現実世界のAI開発における課題について、共同で問題解決に取り組むことで、協調的スキルを身につけることを目指した斬新なアプローチを採用している。
今までもコンピューターサイエンスの授業などで倫理や法律を教えることは珍しくなかったが、哲学や情報科学の教授が担当であるため、技術的な知見との結びつきが少ないことが課題だった。
そこで、あえてデータサイエンティストと法律家という二つの専門家をターゲットにしたコースを作ったというわけだ。
授業では具体的な事例を取り上げる。自動運転の事例では、信号を検知するAIに問題があったため事故が起きたとしたら、誰に責任があるのかについて議論する。また、労働市場の事例では、採用現場で活用されるAIに関して性差別があるかどうかを話し合う。タクシーの位置情報データを公開することについて、プライバシーの観点から議論する授業もある。
AIと倫理の問題は、今後より実践的な領域に入ってくる。どこで線引きをするか、どのような閾値(いきち=判定の境界となる値)を設定してAIを世に出すべきか、全ての判断に法的知識が求められ、また、第三者的視点でのモニタリングが必要になってくるだろう。
その時に、データサイエンティストと法律家が協力しながら意思決定をすることが必要となるのだ。今後も、このような実践的な授業が増えることを期待したい。
https://mainichi.jp/premier/business/articles/20220318/biz/00m/020/010000c
AIの活用提案から、ビジネスモデルの構築、AI開発と導入まで一貫した支援を日本企業へ提供する、石角友愛氏(CEO)が2017年に創業したシリコンバレー発のAI企業。
社名 :パロアルトインサイトLLC毎週水曜日、アメリカの最新AI情報が満載の
ニュースレターを無料でお届け!
その他講演情報やAI導入事例紹介、
ニュースレター登録者対象の
無料オンラインセミナーのご案内などを送ります。