AIが人間を選別
ソニー・プレステを生んだ異端児が予想 AI「が」人間を2つに選別 日経XTREND (2023/10/05)
久多良木健氏は
自身の教育係に適している“優秀”な人間と、教育係に適していない人間を、AIが分けるかもしれないという話だから、恐ろしい「AIデバイド(格差)」が起こると思うよ。
とおっしゃる。
なるほど。
AIの性能を上げるには、アルゴリズムを改良する方法と良質なデータで学習する方法がある。
AIが自分自身の性能を向上させようとすると、前者の方法はまだ難しい。
一方で、後者の方法は、比較的簡単に実現できそうだ。
AIは学習データの良し悪しを判断することはできないけれど、良い学習データを「特定の用途において効果がある学習データ」とすると、運用結果を測定することで、数値化できる。
良い学習―データが数値化できれば、良い学習データを提供する人間も数値化できる。
良い学習データを提供する人間に報酬を与え、悪い学習データを提供する人間に罰を与えることによって、AIが人間を選別できるようになるかもしれない。
罰を与えると言っても、悪い質問をすると電気ショックを与えられるわけはないだろう。
報酬はリソースの配分として、多くのリソースを割り当てると、
同じクオリティならば短時間
同じ時間ならば高いクオリティ
の解答を得ることができる。
つまり、良い学習データを提供する人間には多くのリソースを割り当て、悪い学習データを提供する人間には少ないリソースを割り当てるようにすれば、良い学習データを提供する人間が使いやすくなり、悪い学習データを提供する人間は使いにくくなる。
このようにして、AIが人間を選別できるようになる。
AIに人が選ばれるのはちょっと違和感がある。
しかし、目的があって、それが合理的ならば、人間の違和感は考慮されなくなるだろう。
さらに、経済的に合理性があるなら、人間の違和感は全く考慮されなくなるだろう。
AIは人間の道具ではなく、人間がAIの道具になるということだ。
やはりAIはHAL9000になるのか?
最近の投稿
【Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI】
« ずるい | トップページ | 苦しかったときの話をしようか <働くことの本質> »
「よしなしごと」カテゴリの記事
- シン読解力 <読んだらわかるとは?>(2025.07.07)
- この世界を科学で眺めたら(2025.07.02)
- この国は科学的思考が弱い国です。 <客観的な証拠に基づいて結論を導き出す>(2025.06.26)
- シン読解力 <読んでもわからない子だった>(2025.06.29)
「AI」カテゴリの記事
- この世界を科学で眺めたら(2025.07.02)
- Copilotに対して多分みんなが思っていることへのカウンター <一度使ってみれば~>(2025.06.06)
- 「できる」と『「できる」方法を知っている』の違い(2025.05.25)
- AIに文章を作成させると意見が先鋭化する?(2025.05.28)
- Copilot説明会 <最初のハードルを越える>(2025.05.19)
コメント