AIは人間の価値観を反映する(キャシー・オニール)

クリッピングから
朝日新聞2019年11月7日朝刊
オピニオン&フォーラム「AIのわな」インタビュー
数学者、データサイエンティスト
キャシー・オニール(Cathy O'Neil)さん


f:id:yukionakayama:20191107162510j:plain:w350


  この顧客は金を落とすのか。
  この学生は内定を辞退するのか。
  個人の膨大なデータから人工知能(AI)が
  将来の行動を予測するシステムを、
  企業があらゆる場面で使い始めている。


  数学者のキャシー・オニールさんは、
  AIによる偏見や格差の拡大に警鐘を鳴らしてきた。
  どうすれば私たちは、「AIのわな」から抜け出せるのか。


  「確かにサイトを閲覧しただけで、
  内定を得ても辞退すると決めつけられるのはフェアではありません。
  でも、米国では閲覧履歴データの利用は当たり前のように行われています。
  日本人はプライバシーについて、
  米国より欧州に近い考え方をしているのですね」


    —どういうことですか。


  「米国ではもっとひどいことが起きています。
  ある大学は、受験生が奨学金のサイトを閲覧した時間を、
  合否を出す際の参考にしていました。
  大学にとっては、学資を全額払える入学者が多い方がよく、
  貧しい子はいらないということです。


  学長が気にするのは、カネと大学ランキング。
  合格者数に対し実際にどのくらいの受験生が入学したのかという割合も、
  大学ランキングに影響するのです。
  学長は企業におけるCEO(最高経営責任者)と同じ論理で動き、
  教育という視点が失われています」
  (略)


  「良い社会かどうかが、経済成長しているかで決まるならば、
  AIのアルゴリズムは効率優先になります。
  でも、一番恵まれない人が幸せに生きられるかどうかという視点で、
  定義すべきだという考え方もあるでしょう。
  それは本来政治が判断すべきことです。


  AIが恵まれない人を助けるために使われるのか、
  あるいは自己責任を問い排除するための道具になるのか。
  AIが使われるプロセスの全体と目的を見る必要があります」


    —AIを信奉する企業や人を説得できるでしょうか。


  「データを使う側は、
  『AIはデータから答えを導き出しているので客観的です』というでしょう。
  ですがAIをつくるのは人間であり、その価値観が反映されます。


  人間であれば、責任を問うことができますが、
  AIは単なるプログラムのコードです。
  私たちは数学におじけづいたりシステムを妄信したりすることなく、
  権利を主張して疑問を突きつけていかねばなりません」


               (聞き手 編集委員・浜田陽太郎、高重治香)


f:id:yukionakayama:20191110112652p:plain


数学者の新井紀子さんの本で、キャシーの存在を知った。
データ・サイエンス最前線で仕事をしてきた数学者だからこそ、
AIの可能性と危険を具体的に伝えることができる。
数学、コードから逃げてばかりいては
AIを妄信し、その罠にはまることが分かる。


あなたを支配し、社会を破壊する、AI・ビッグデータの罠

あなたを支配し、社会を破壊する、AI・ビッグデータの罠



The era of blind faith in big data must end | Cathy O'Neil


AIに負けない子どもを育てる

AIに負けない子どもを育てる