AIが人間を選別
ソニー・プレステを生んだ異端児が予想 AI「が」人間を2つに選別 日経XTREND (2023/10/05)
久多良木健氏は
自身の教育係に適している“優秀”な人間と、教育係に適していない人間を、AIが分けるかもしれないという話だから、恐ろしい「AIデバイド(格差)」が起こると思うよ。
とおっしゃる。
なるほど。
AIの性能を上げるには、アルゴリズムを改良する方法と良質なデータで学習する方法がある。
AIが自分自身の性能を向上させようとすると、前者の方法はまだ難しい。
一方で、後者の方法は、比較的簡単に実現できそうだ。
AIは学習データの良し悪しを判断することはできないけれど、良い学習データを「特定の用途において効果がある学習データ」とすると、運用結果を測定することで、数値化できる。
良い学習―データが数値化できれば、良い学習データを提供する人間も数値化できる。
良い学習データを提供する人間に報酬を与え、悪い学習データを提供する人間に罰を与えることによって、AIが人間を選別できるようになるかもしれない。
罰を与えると言っても、悪い質問をすると電気ショックを与えられるわけはないだろう。
報酬はリソースの配分として、多くのリソースを割り当てると、
同じクオリティならば短時間
同じ時間ならば高いクオリティ
の解答を得ることができる。
つまり、良い学習データを提供する人間には多くのリソースを割り当て、悪い学習データを提供する人間には少ないリソースを割り当てるようにすれば、良い学習データを提供する人間が使いやすくなり、悪い学習データを提供する人間は使いにくくなる。
このようにして、AIが人間を選別できるようになる。
AIに人が選ばれるのはちょっと違和感がある。
しかし、目的があって、それが合理的ならば、人間の違和感は考慮されなくなるだろう。
さらに、経済的に合理性があるなら、人間の違和感は全く考慮されなくなるだろう。
AIは人間の道具ではなく、人間がAIの道具になるということだ。
やはりAIはHAL9000になるのか?
最近の投稿
【Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI】
« ずるい | トップページ | 苦しかったときの話をしようか <働くことの本質> »
「よしなしごと」カテゴリの記事
「AI」カテゴリの記事
- Japan IT Week 2024秋(2024.11.03)
- 生成AIは賢くなったのか <教科書は読めるようになっている>(2024.07.22)
- 情シス担当者のための相談所(2024.07.07)
- AIは短歌をどう詠むか <正解のない問題への適用>(2024.07.29)
コメント