2019/12/16(月) 23:20〜23:35 ニュースきょう一日 AIがあなたを差別?なぜ? 学習データに偏りが…[字]


周囲に話し、多額の現金を見せていたといいます。
東京、青梅市の住宅で

小川和男さんが殺害された事件。
小川さんは盗みに入られたと
通報してから
およそ10分間に襲われた疑いが
あることが分かりました。
2度の墜落事故を起こした
737MAX。
航空機大手ボーイングが
生産停止かさらなる減産を検討していると
アメリカの有力紙が伝えました。
737MAXシリーズは
全日空グループが
2021年度から導入を計画し
スカイマークも
購入を検討していて
生産停止の場合
大きな影響が
出る可能性があります。


ジョン・レノンさんが愛用していた
丸い縁のめがね。
オークションで
およそ2000万円で
落札されました。
レノンさんがリンゴ・スターさん
の車に置き忘れたもので
レンズが
外れそうになっていたことから
運転手が修理するか尋ねたところ
見た目のためだけのものだから
心配しないで、と話し
そのまま保存していた
ということです。
続いてはきょうから明日へ。
今夜はAI、人工知能について
考えてみます。
今や社会のあちこちで
活用が広がっているAI。
私たちの生活を豊かにするために
開発されたこのAIが
差別を広げる
可能性があるとしたら。
この問題、AIによる
バイアスと言われています。
そもそもAIは
私たちがこれまでに持っている大量のデータを
機械学習し
そこから見つけた特定の法則性や
パターンをもとに

自動的に分析を行います。
しかしデータに偏りがあると
AIの判断にも
偏見やバイアスが入ってしまう
可能性があります。
つまりAIが学習するデータの
公平性が問われているのです。
すでに、こんな事例があります。
ネット通販大手のアマゾン・ドット・コム。
去年、AIを使った
人事採用システムが
女性に差別的だったとして
運用を停止しました。
アマゾンは人事が
誰を面接すべきか
判断するため
過去10年分の履歴書や
採用の可否などのデータを
AIに学習させていました。
ただ、そのデータには
男性を多く採用してきた
これまでの人事文化が
色濃く反映されていました。
このためAIが
IT系の職種には
女性は不向きという
公平性を欠く判断をしたとみられています。
また、こういう事例も。
IT産業における
人種バランスの問題を訴える

活動をしている黒人の女性。
あなたが年をとったら
どうなるかを予測する
顔認証技術を使ったゲームを
試してみたところ
結果は金髪で白人の女性に
なってしまったといいます。
このゲームに使われているAIが
黒人の高齢者の顔のデータを
十分に学習していなかった。
つまり、もともとのデータに
偏りがあったのではないか
というのです。
専門家はデータがか偏っていると
今ある差別的な状況が
AIによって
再生産されることになると
指摘しています。
データは社会を映し出す
鏡だともいえますが