フォト
無料ブログはココログ

« コーチに求められること <部下の指導に求められることと同じ> | トップページ | デジタル庁に期待?! »

2021年9月24日 (金)

責任あるAI <「AI倫理」は「AIを使う人の倫理」>

責任あるAI「AI倫理」戦略ハンドブック 保科学世/鈴木博和 東洋経済新報社

Ai_20210924183901

「責任あるAI」はいかにも誤解しそうなタイトルなので読んでみた。内容は「AIを使う人責任」なので安心した。

著者によると「責任あるAI」とは

私たちの考える「責任あるAI(Responsible AI)」とは、顧客や社会に対してAIの公平性・透明性を担保する方法論である

だ。

 AIを「人工知能」と訳するので、いかにもAIが人格や知能を持っているように感じてしまう。そして、人間がAIを制御できなくなることに恐れを感じている。しかし、今ブームのAIは意思も持たない。過去の大量のデータ分析、分類してくれるプログラムだ。

 AIは人が作った物だから物自体が責任を持つことは無い。
責任を持つべきは、使う人か作った人で、多くの場合は使う人が責任を持つことになるだろう。車に例えると、車自体が責任を持つことはなく、車を運転していた人、作った会社が責任を負うことになるのと同じだ。

 AIは車などの機械と同じように、人の能力を拡張する。
機械は人の運動能力を拡張できるので、機械を操作出来るようになると、速く移動出来たり、重い物を動かすことが出来るようになる。AIは判断能力を拡張するから、使う人の判断能力が拡張される。

 問題は2点考えられる。
使う人の判断にバイアスがあればそのバイアスも拡張されると言うことだ。
もう一つはAIがバイアスを持ったデータを使って学習し、使用者にバイアスが無くても特定のバイアスが発生する場合だ。

・マイクロソフトのAIを使ったチャットボットTayが不適切発言をするようになった件
・犯罪予測AI

はAIの暴走として、取り上げられることが多い。

 前者は、偏った学習データを学習した結果だ。
昔から情報処理の世界で言われていた、gabage in gabage outは正しい。不適切な発言を学習すれば不適切な発言をするようになる。

 後者は、社会が抱えるバイアスが拡張される例だ。
犯罪予測AIは過去のデータを学習するので、過去の犯罪に地域や人種などのに偏りがあれば、その偏りが拡張されることになる。
それは、犯罪が発生する前から、特定の地域や人種を差別してしていると解釈することもできる。
この問題は入力データを変えればよいというものではなく、現在の社会の歪だから、一筋縄では解決するのは難しい。

 だから、AIを使う側には責任と倫理が求められることになる。
日本人は倫理について議論することが苦手だ。あえて避けている感もある。しかし、倫理の議論をせずにAIを使うことは危険だ。
多くの人が恐怖と感じている「AIの暴走」になる危険性がある。

それは、AIが暴走しているわけではなく、AIが使う者の無責任によるものだ。

結論
「責任あるAI」は「AIを使うもの責任」
「AI倫理」は「AIを使う者の倫理」


最近の投稿】【最近の書籍・雑誌】【2019の投稿】【2018の投稿】【2017の投稿】【2016の投稿】【2015の投稿

« コーチに求められること <部下の指導に求められることと同じ> | トップページ | デジタル庁に期待?! »

書籍・雑誌」カテゴリの記事

コメント

コメントを書く

コメントは記事投稿者が公開するまで表示されません。

(ウェブ上には掲載しません)

« コーチに求められること <部下の指導に求められることと同じ> | トップページ | デジタル庁に期待?! »

2021年11月
  1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30        

最近のトラックバック