人工知能アルゴリズムが日常生活に影響を与える決定を下す世界を想像してみてください。 今、彼らが偏見を持っていると想像してください。
これは私たちがすでに住んでいる世界だとデータサイエンティスト、ハーバード博士と著者キャシーオニールは言います。 (ここでオニール博士との話し合いのパート1を読んでください)。 ビッグデータの時代における偏見について私たちが何ができるかを知るために、私たちはNational Book Awardの候補者に腰を下ろしました。 CT:AIは偏見がありますか?
CO:明示的に公平にされていないすべてのアルゴリズムは偏見があると見なされるべきです。 人として、私たちは偏見があるからです。 私たちがそれを認識し、私たちの値とデータを使用してこれらのアルゴリズムを作成している場合、物事を公正にするために何かが魔法のように起こったと仮定すべきではありません。 そこには魔法はありません。
CT:アルゴリズムはどこでデータを取得しますか?
CO:それはアルゴリズムに依存します。 時々ソーシャルメディア、たとえば政治市場のターゲティングや広告、営利目的の大学や略奪的な貸付など–しかし、多くのデータはソーシャルメディアやオンラインでさえ収集されていません。
データ収集は、仕事に就く、仕事に就く、大学に行く、刑務所に行くなど、現実の生活にますます結びついています。 それらはプライバシー法で回避できるものではありません。 これらは力の問題であり、アルゴリズムの対象となる人々は力を持たず、情報を収集し、アルゴリズムを構築して展開する人々はすべての力を持っています。 あなたが刑事被告である場合、あなたはプライバシー権を持っていません、あなたはあなたの仕事で何のプライバシー権も持っていません、そしてあなたが仕事に応募している場合、あなたはプライバシー権の邪魔になりません。あなたの将来の雇用主があなたに尋ねた質問に答えなければ、あなたはおそらく仕事を得られないでしょう。
アルゴリズムとその害[それらが引き起こす可能性]に関しては、プライバシーについてではなく、力について考える必要があります。
CT:改善するにはどうしたらいいですか?
CO:これらのアルゴリズムは本質的に完全ではないことを認め、その欠陥をテストすることができます。 雇用、刑事判決、仕事での人々の評価などの重要な決定については、継続的な監査と監視を行い、アルゴリズムが何らかの差別的または不公正な方法ではなく、私たちが望む方法で機能していることを確認する必要があります。
![Image Image](https://images.couriertrackers.com/img/north-america/6/prejudiced-ai-is-changing-american-lives-what-can-we-do-about-it.jpg)
Ailsa Johnson /©Culture Trip
CT:データ主導の未来のための最良および最悪のシナリオは何ですか?
CO:最悪のシナリオは私たちが今持っているものです-今までにもっとよく知っているはずですが、私たち全員がやみくもにアルゴリズムが完璧であることを期待しています。 そして私たちは過去の不正と不公平を広めます。 そして、これらのアルゴリズムの欠陥を無視し続けます。
最良のシナリオは、これらのアルゴリズムが本質的に人間より優れているわけではないことを認めていることです。 私たちは人間として何をしたいか、何のために努力しているかを決定します。 私たちは社会がどのように見えるかを望み、それらの価値観を教えます。 それがうまくいけば、これらのアルゴリズムは人間よりも優れている可能性があります。
CT:日常の人々はどのような役割を果たすことができますか?
CO:個人が果たすことができる最も重要な役割は、暗黙的にアルゴリズムを信頼しないことです。 大量の懐疑を抱く。 アルゴリズムで評価されている場合は、「どのようにしてそれが公正であるか、どのように役立つか、どのように正確であるかを確認するにはどうすればよいですか?」 エラー率は何ですか? このアルゴリズムは誰のために失敗しますか? それは女性やマイノリティに失敗しますか?」 そのような質問をしてください。
2つ目は、懐疑論を超えて、アルゴリズムが自分や他の人に不公平だと思った場合、他の人と一緒に整理することです。 最近の例は教師です。 付加価値のある教師に関する統計モデルは、ひどい、ほとんど乱数生成器です。 しかし、彼らは全米で、どの教師が任期を取得し、どの教師を解雇するべきかを決定するために使用されていました。
私の提案は、彼らの組合に反発を促すことです。 そして、これはいくつかの場所で起こりました。 しかし、採点システムの数学的性質のために、抵抗がほとんどなかったのは驚くべきことです。
CT:どのようにして「ビッグデータ」に入ったのですか?
CO:私はウォール街で働いて、内部から金融危機を目撃しました。 数学を使って人々を利用したり、だましたりする方法にうんざりしました。 数学の嘘、つまり「数学の兵器化」と呼ばれるものに起因する可能性のあるダメージを見ました。
私はそれから逃れることを決心したので、私はOccupy Wall Streetに参加し、データサイエンティストとして働き始めました。 ウォールストリートの外でも誤解を招くデータアルゴリズムに関する欠陥のある誤解を招く誇大広告が見られ、それが大きな被害につながることに気づきました。 違いは、世界中の人々が金融危機に気づいた一方で、これらのビッグデータアルゴリズムの失敗は通常個人レベルで発生するため、人々が気づくとは思わなかったことです。
ここでオニール博士との話し合いのパート1を読んでください。 キャシー・オニール 博士 の本「数学の破壊の武器:ビッグデータが不平等を増大させ、民主主義を脅かす方法」が現在利用可能です。