Image: Africa Studio/Shutterstock

既存の法律をどうこう…ではないというのがポイント。

Facebook(フェイスブック)やGoogleグーグル)など、インターネットで目にするものは大抵、アルゴリズムによって生成されていることを理解している人は多いはず。さらに最近では、意思決定の自動化も増えてきていて、たとえばアメリカでは警察の犯罪防止策からニューヨークの行政まであらゆる場面で(非公開にしているのを含め)アルゴリズムが本格的に使用されはじめています。

アルゴリズムは、私たちの生活に一体どのような影響を与えるのでしょうか。Future of Privacy Forumが先日公開したレポートでは、意思決定の自動化によって発生する悪影響について、大まかな分類が示されました。そこでは行政や組織が大きな意思決定を行なう際に、アルゴリズムに依存することの危険性について指摘されています。

次の例について考えてみましょう。児童虐待の社会福祉士が子どもの危険度に関する重要な手がかりを掴めなかったとしたら、子どもを危険にさらすリスクに繋がってしまうかもしれません。ところがシカゴでは、社会福祉士が警告していたにもかかわらず、死亡した子どもたちのリスクをソフトウェアが予測できなかったことを受け、アルゴリズムを利用した児童虐待防止プログラムを終了する、ということが起こりました。

アルゴリズムは不公平で違法な面もあり、いっぽうでは有用であることについて私たちはもっと深く考える必要があります。レポートの共同著者であるLauren Smith氏は米Gizmodoに対し、このように語りました。

今の段階ではもっと、社会的で、哲学的な問題なのです。

これらの問題に網羅的なルールをつくるための明確な方法がないのです

レポートには、2つのチャートが示されています。ひとつはアルゴリズムの先天的な悪影響をカテゴライズ化したもの。意思決定の自動化についてどのような危険をもたらすのか、個人またはより大きなグループに損害を生じるのか、またそれらに対処するための法的基準は現行のもので存在するのか、などが挙げられます。

ふたつめのチャートは、こうしたアルゴリズムがもたらす危険性を解決、もしくは最小化するための方法に着目したものです。問題が既存の法的基準でカバーされているなら、悪影響を緩和するための方法は明確です。たとえば関係機関に通報するなどでしょう。いっぽう法でカバーされていないからといって「より多くのルールが必要というわけでもない」と、Smith氏の研究チームは指摘します。

また、Smith氏はこうも考えています。

私たちは必ずしも「法がないところには法律が必要」とは考えません。

法があるところにはすでに、私たちが法に託した本質的な価値があります。テクノロジーによって新たに発生した損害を緩和するための戦略は、こうした問題とはわけて考えられるべきなのです

ふたつのアルゴリズムによる損害を比較してみましょう。

まず、「ある程度の法整備がある」ケース。銀行のアルゴリズムが黒人女性からのローン申請をすべて却下するのに用いられたとしても、起訴できる可能性が高まるであろう、既存の法律があります。

次に、ソーシャルメディアで起こることでも考えてみましょう。同意見の集団が話し合い続けるうちに、その意見が絶対的に正しいと信じ込んでしまう現象「エコーチャンバー」のような孤立状態がその例です。フィルターバブルと呼ばれるこの状態は、先天的に危険であるにもかかわらず、既存の法律で規制されているものではありません。Smith氏は、実際にこの状況を法律でカバーするべきかどうかはわからないと言います。

データを分析して「この人はこうした価値観を持っている」と判断するのは、はたして技術面で行わなければならないことなのか、ニュースの3割くらいは自分とは異なる政治的価値観であるべきなのか、消費者の望むものが何かまではわかりません

アルゴリズムが私たちの生活に定着していくにつれて、技術者は「損害を軽減する役割の本当の意味」に苦戦しています。FacebookはAIを使ってヘイトスピーチを隠すべきなのか、Googleは検索結果に「女性よりも男性の給与が高い」と表示することを隠してしまうべきか、など…。単に表示を隠すだけでは、何の解決にもならないかもしれません。

私たちは今、アルゴリズムの公平性やコンセンサスの形成にどれだけの制限がかかっているのか理解を深め、問題にどう対処するのかを模索している段階にあります。

アルゴリズムの導入前に、より倫理的で哲学的な問題が考慮されるような設計プロセスを再構成することは、単に規制に則ったシステムを作るよりもはるかに難しいことです。

最後にSmith氏はこのように述べました。

倫理的なフレームワークの作成や倫理委員会(IRB)による取り組みなど、設計や内部構築にも大きな役割があります。

こうした問題に対する技術は発展し始めたばかりで、考えられる悪影響やその対策について研究や理解を進める必要があるのです

Image: Shutterstock
Source: Future of Privacy Forum, Wikipedia(1, 2)

Sidney Fussell - Gizmodo US[原文]

(Rina Fukazu)