フォト

ウェブページ

無料ブログはココログ

MyList

AI

2023年12月21日 (木)

AIが人間を選別

ソニー・プレステを生んだ異端児が予想 AI「が」人間を2つに選別 日経XTREND (2023/10/05)

久多良木健氏は

 自身の教育係に適している“優秀”な人間と、教育係に適していない人間を、AIが分けるかもしれないという話だから、恐ろしい「AIデバイド(格差)」が起こると思うよ。

とおっしゃる。

なるほど。
AIの性能を上げるには、アルゴリズムを改良する方法と良質なデータで学習する方法がある。

AIが自分自身の性能を向上させようとすると、前者の方法はまだ難しい。
一方で、後者の方法は、比較的簡単に実現できそうだ。

AIは学習データの良し悪しを判断することはできないけれど、良い学習データを「特定の用途において効果がある学習データ」とすると、運用結果を測定することで、数値化できる。
良い学習―データが数値化できれば、良い学習データを提供する人間も数値化できる。

良い学習データを提供する人間に報酬を与え、悪い学習データを提供する人間に罰を与えることによって、AIが人間を選別できるようになるかもしれない。

罰を与えると言っても、悪い質問をすると電気ショックを与えられるわけはないだろう。
報酬はリソースの配分として、多くのリソースを割り当てると、
 同じクオリティならば短時間
 同じ時間ならば高いクオリティ
の解答を得ることができる。

つまり、良い学習データを提供する人間には多くのリソースを割り当て、悪い学習データを提供する人間には少ないリソースを割り当てるようにすれば、良い学習データを提供する人間が使いやすくなり、悪い学習データを提供する人間は使いにくくなる。
このようにして、AIが人間を選別できるようになる。

AIに人が選ばれるのはちょっと違和感がある。
しかし、目的があって、それが合理的ならば、人間の違和感は考慮されなくなるだろう。
さらに、経済的に合理性があるなら、人間の違和感は全く考慮されなくなるだろう。

AIは人間の道具ではなく、人間がAIの道具になるということだ。
やはりAIはHAL9000になるのか?


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年12月12日 (火)

Chat-GTPが先生に <独習にChat-GTPを使う>

日経コンピュータ 11/23の特集は「Chat-GTPが先生に」


★AIチャットは独習ができる人に取っては、強力なツールだが、独習することができない人にとっては効果は限定的だ。
★NETを使って初心者の知識でも理解できる情報を見つける能力は、AIチャットでも必要だ


pythonでのプログラミングの学習にAIチャットを使うという企画。
プログラミング経験の無い日経コンピュータの記者2人が挑戦している。
1人は独習、もう一人はプログラミングを習得した人のサポートがある。

初心者が学習する場合サポーターがいた方が理解が早いという(当たり前の)結果だ。
注目すべきは、独習の場合AIチャットは有効ではないということ。

AIチャットの解答には専門用語が多く含まれるから、初心者は読めるけれど理解できない。
サポータや講師は、相手の理解度に応じて専門用語を噛み砕いてくれるけれど、AIチャットは相手が初心者であることを斟酌できない。

AIチャットに専門用語の解説させようとすると、別の専門用語が登場して、わからないことが増えてくることはよくある。
「概要を100字で」とか「1行で」、「小学生がわかるよレベルで」「小学生の語彙で」などプロンプトを工夫する必要がある。

閑話休題

「わかる」ためには

  1. わからないことがわからない
  2. わからないことがわかる
  3. わかる

という段階が必要だ。

「わからないことがわからない」→「わからないことがわかる」と
「わからないことがわかる」→「わかる」では
必要とする情報は異なるから、それを得るためにAIチャットに与えるプロンプトは異なる。

「わからないことがわかる」→「わかる」の段階では、
AIチャットの出力の誤りを発見したり、情報をお取捨選択することができるだろう。
ところが、
「わからないことがわからない」→「わからないことがわかる」の段階では
AIチャットの出力の誤りを発見したり、情報を取捨選択することは難しいだろう。
つまり、AIチャットの出力を自分の知識の範囲で理解できる出力にできるかどうかが重要だ。

よく考えると、
これは、AIチャットを使わない場合も同じことだ。
これまで、「わからないことがわからない」→「わからないことがわかる」状態の時には、知っている人に聞いたり、入門書を読んだり、NETで検索したりしていたが、最近はAIチャットに尋ねる方法が登場した。

知っている人や入門書は、初心者でもわかるように、情報を取捨選択してくれるが、NETの検索やAIチャットは初心者でもわかるように、情報を取捨選択してくれない。
だから、NETを使って初心者の知識でも理解できる情報を見つける能力は、AIチャットでも必要だ。
自分がやっていた作業をAIチャットにやらしたら効率は良くなる。

AIチャットは、自分が望む答えを与えてくれるドラえもんのような存在ではなく自分が望む情報を効率良く探すためのツールでしかない。
つまり、AIチャットは独習ができる人に取っては、強力なツールだが、独習することができない人にとっては効果は限定的ということだろう。

主題から逸れるけれど、
ヘルプデスク的な仕事を長くやっていて感じているのは、Googleは与えるキーワードが同じなら、同じ結果が出力される。(今はGoogleの検索結果は恣意的だけど)
それは、地方でも都会でも同じだし、初心者が入力してもベテランが入力しても同じだ。
なのに、なぜ、見つけられないのだろうかと思っていた。

見つけられない人は、
「わからないことがわからない」→「わからないことがわかる」の段階を
1人で超えることができないのだろう。

おそらく、これまでの教育が
「わからないことがわからない」→「わからないことがわかる」段階
を軽視してきたことで、
誰かがあらかじめ用意した「わからないこと」に対する答えをひたすら記憶することで「わかったつもり」になる習慣が染み付いているからではないかと思う。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年8月31日 (木)

反AI <何に反対しているのだろうか?>

消された少女の“反AI”マーク 「無断改変したのは俺です」 毎日新聞 (2023/8/17)

結論

  • AIは能動的に創作しない
  • 新しい技術を使ったからといって創作物の価値が向上するとは限らない
  • 反AIの人と反・反AIの人は何に反対しているのだろうか

芸術分野でのAIの使用に反対するために描いたイラストを、AI使用に賛成する人がAIを使用して変えて、挑発的なメッセージと共に公開したという記事。

反AIの人は、

「芸術は気持ちや伝えたいことを表現するもの。AIは他人の作品を切り刻むだけで、芸術ではない」

と考えて、イラストを投稿したらしい。

これに対して、反・反AIの人が
AI反対のイラストをAIに入力して作成したイラストと、

 「元の数千倍可愛くて売れそうな絵‼」「『売れる絵』を出せるAIを否定しているんですか」

のようなメッセージと共にブログに公開したらしい。(伝聞です。確認できませんでした)

考えてみた。

★著作権については考慮していません。
★私は反AIでも、反・反AIでもありません。

AIは能動的に創作しない
引っかかったのは

技術をAIに踏みにじられた

の部分。
反AIの人が踏みにじられたのはAIにではなく反・反AIの人の行為にだと思う。

反AIのイラストを描いた人は、「AI」が能動的にイラストを出力すると考えているのではないだろうか?

アニメや映画では、AIやAIを搭載したロボットに人格があるかのように描かれることが多いから、現在のAIにも意思や人格があって能動的に活動すると思っている人は多い。

プロ棋士と囲碁ソフトとの対局をAI vs 人間のようにメディアは煽るけれど、の影響もあるだろう。
AI vs 人間の対局ではなく、自分の頭で囲碁を打つ vs コンピュータを使って囲碁を打つの対局だ。

今のところ、AIは意志を持たないし、創作しない。
あくまで、意識を持っているのは人であり、AIは人が与えた入力と指令に従って結果を出力する。

だから、反・反AIの人が投稿したイラストは、人の創造によるものだ。
AIに何らかの指示を与え、AIの出力を選別する作業を、満足する結果が得られるまで、行っているのではないだろうか?

だとすれば、その行為はAIを道具として使った創作活動ではないだろうか?
それは芸術ではないのか?

つまり、この対立構造は、AI vs AIを使わない芸術家ではなく、AIを使う芸術家 vs AIを使う芸術家との対立だ。

芸術と経済性
芸術は純粋に芸術だけでは存在できず、少なからず経済活動と関係があるので、芸術と経済性を完全に切り離して考えることはできない。

毎日新聞の記事によると反AIの人は、

「長年培ってきた技術をAIに踏みにじられたように感じる」。女性は悔しさをにじませた。

らしい。
この感情は純粋に芸術的な側面ではなく、自身が獲得した、売れる・ウケるイラストを描く技術の価値がAIによって低下することに対する感情ではないだろうか。

また、反・反AIの人は

 「元の数千倍可愛くて売れそうな絵‼」「『売れる絵』を出せるAIを否定しているんですか」

らしいので、絵を経済価値で評価しているようだ。
反AIの人も、反・反AIの人も絵の経済価値を重視しているようだ。

技術は新しい技術の前に陳腐化する。それはAIに限らない。
そして新技術を使うと生産効率が向上する。

工業製品のようにアウトプットが一定ならば、生産効率が向上すると経済価値も向上する可能性は高い。
しかし、イラストを工業製品ではなく芸術的な創作物と捉えるとアウトプットは均一ではない。

芸術は鑑賞する人がいるから、鑑賞する人によってその評価は様々だ。
つまり、新しい技術を使ったからといって創作物の価値が向上するとは限らない。

AIを使っても使わなくても
AIを使っても使わなくても『売れる絵』が出せるとは限らないし、AIを使っても使わなくても『売れる絵』が出せないとは限らない。
売れる、売れないではないならばどちらも芸術だと思う。

反AIの人と反・反AIの人は何に反対しているのだろうか?

まとめると

  • AIは能動的に創作しない
  • 新しい技術を使ったからといって創作物の価値が向上するとは限らない
  • 反AIの人と反・反AIの人は何に反対しているのだろうか

毎日新聞の記事が見えなくなったときのためのアーカイブへのリンク(https://archive.is/cUDrw


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年6月 5日 (月)

さつきあい <AIで作成されたグラドル>

週刊プレーボーイがAIで作成されたグラビアアイドルをデビューさせたらしく、炎上している。
賛否両論あるようだ。

〇著作権侵害問題
今は引退した実在のグラビアアイドルに似ているという意見がある。
人の顔を覚えることが苦手なオヤジが見比べた感想は、似ているような似てないような...

週刊プレイボーイのTwitterでは
「オトコの理想をギュギュッと詰め込んだ“たぬき顔”の“妹系美少女”」
らしい。
学習に使用したデータを公表していないので、特定のモデルの画像を多く学習させ〇〇似の画像を作ろうとしたのか、たぬき顔妹系美少女を作ったら、実在のモデルに似たのかは不明だ。
いずれにしても、たぬき顔妹系美少女モデルの誰かに似てくるのではないだろうか。

著作権、肖像権の問題に興味があったので調べてみたら、こんなサイトと見つけた。

著作権に詳しい福井弁護士はChatGPTをどう見る?
利用するにあたり重要な4個の視点と3個の著作権問題
 骨董通り法律事務所 代表 福井 健策 (2023/05/30)

著作権法では「他人の著作物を機械学習など解析できる」が、「著作権者の利益を不当に害することとなる場合は、この限りでない」らしい。
つまり、ケースバイケースで判断するということか?

〇AI出力の著作権
AIの出力には著作権は無いのかと思っていたのだが通説では、

「単純な指示だけでAIが自動生成したものは著作物ではない」
「人間がAIをツールとして自らの創作的寄与で作品を作ったなら著作物」
らしい。

とすると、さつきあい はおそらく単純な指示ではなくAI絵師や呪文者が創作的寄与しているのだろうから、著作物だろう。
著作物であれば、写真集で商売ができる。その代わりに、著作権侵害問題に対応しなければならない。

生成系AIを使ったグラビアアイドルの創造はメリットもリスクもよくわからないことが多いが、炎上したので、集英社としては目論見通りだろう。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年5月21日 (日)

"AIアナ"は味気ない?

露木茂、NHK〝AIアナ〟は「味も素っ気もない。つまらない」 サンスポ (2023/05/05)

露木茂氏は「味も素っ気もない」とおっしゃるのだが、感情を排除したアナウンスは合成音声で良いと思う。
AIが「行間」を扱えるようになると、感情を伝える用途に使えるようになるのではないかと思う。

閑話休題

情報を誤りなく伝えるアナウンスと、背景や感情なども伝えるナレーションは、どちらも原稿を読む仕事だけれど異なる。

NHKは合成音声での放送に積極的なようだ。
情報を誤りなく伝えることが求められる、株式市況は2014年から、気象通報は2016年から実用化されている。
しかし、合成音声でのナレーションは難しいように感じる。

感情は同じ単語、文節でも文脈によって異なるから、文章から人間が多く感じるであろう感情を判定しなければならない。
つまり、行間を読む必要がある。
学習に必要な大量の「行間」に関する教師データの用意は難しいと思う。

気象通報がYoutubeにあった、気象通報は地名と風向、風力、天候を読み上げる内容だ。
合成音声(2020/11/02)アナウンサー(1988/8/17)を聴き比べると、ヒント無しでは合成音声か肉声か分からないレベルだ。

「~のかぜ、ふうりょく」の部分がアナウンサーの肉声の方が好きだ。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年5月12日 (金)

AI作成画像と有名写真コンテスト

AI作成画像、有名写真コンテストで最優秀賞を獲得 作者は受賞辞退 BBC NEWS JAPAN (2023/4/18)

芸術は人工物、自然は芸術ではない。でも感じる人次第だ。

このニュースは創造する側の観点で語られているけれど、鑑賞する側の観点で語っても良いのではないか。

鑑賞する側は、人の創造物でなくても良い、神の創造物である自然でも良い。もちろんAIの出力でも良い。

世の中には、色々なコンテストがあるけれど、芸術に優劣を付けられるのだろうかと思う。
コンテストや賞は、作者や作品に権威付けして、作品の相場を保とうとするものという考え方は穿った見方だろうか。

人の創造物という芸術の側面が重視されると、その価値を金で計ろうとする者が現れる。金銭的価値は希少性と排他的所有性だから、金銭的価値が重要な人たちにとってAIは脅威だ、大量生産が可能だから希少性も無くなるし、デジタルデータだから排他的所有もできない。(NFTもあるけれど...)

AIの出力は写真と言えるかという問いは、鑑賞する側には無意味だ。
その作品を見て何を感じるかは、作者やコンテスト主催者が立ち入ることができない領域だから。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年4月27日 (木)

GPT-4時代のエンジニアの生存戦略

GPT-4時代のエンジニアの生存戦略
Qiita @lazy-kz(株式会社 wevnal) (2023/03/27)

GPT-4の登場により、AIがカバーできる領域が広がった結果、あくまでプログラミングは目的ではなく手段という側面がより強くなると考えています。
「要件定義はビジネスサイドがやるもの」という意識のまま要件どおりにコードを書くだけの仕事をしていると数年以内にAIに仕事を奪われるリスクが高いので、その点を留意しながら仕事を進める必要があります。

とおっしゃる。

用件定義済みの要件からコードを書くだけの仕事は無くなるということか。

プログラミングは課題を解決する手法だ。
ずいぶん前から分業化されていて、コードを書く作業は創造力が必要なく規格化されている。

規格化されている技能は機械に置き換えられることは今に始まった事ではない。
だから、コーダーの仕事がAIに置き換えられることは当然かもしれない。

コーダーはコンサルやSEに対して「プログラムも書けないくせに」と、毒づいていた自称プログラマー(コーダー)は淘汰される。
そして、プログラムを書いたことがないコンサルやSEがAIを使うことで、課題はクリアできるようになると言うことだ。

自分がカバーできる範囲を広げる際に、現在の仕事をAIにやらせて浮いた時間を使って他分野を学習しても良いし、AIを新しい分野の学習のサポートさせるてもよい。

  • 自分のカバー範囲を広げること
  • AIに使われるのではなく使うこと

が重要だと思う。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年4月18日 (火)

読書感想文とChatGTP

小5女子の読書感想文に“違和感”…実は「ChatGPT」が書いていた!?その後の授業で先生が教えた意外なこと
FNNプライムオンライン
(2023/3/16)

今のところ、AIの出力と小学生が書いた文章かどうかは判定できるだろう。
日々小学生に接している教師ならば容易だと思う。今のところは。

AIは一般的な小学生が持っていない語彙や概念を使うから、人の違和感で判定できる。

言葉を使うには、その概念を正確でなくても理解していることが必要だ。
AIが出力した文章を読むことで言葉とその概念を理解できる年齢になると、AIの出力か自筆か判定できなくなるような気がする。
中学生になると判定は難しくなるような気がする。

さらに、「小学3年生の語彙で」など、使用する語彙を制限したり、AIの出力に難解な漢語がある場合、『「〇〇」をやさしい言葉で』など、質問を工夫すると、ちょっと大人びた子の文章に近づいてくる。

今後、AIも学習するだろうから、「小学校3年生が書く文章で感想文を書いてください」とお願いすると、大人受けするような感想文を出力してくれるようになるだろう。
ついでに、「下手文字でプリントアウトしてください」とお願いすると、自分で書かなくてよくなる日も来るだろう。

閑話休題

そもそも、読書感想文を書かせる目的は何なのだろうか?
子供の頃、読書感想文が苦手だった。目的は今でもわからない。

作家が書いた文章を読んで、気づいたこと、思ったことを文字にして、他人に伝えることが目的ならば、読書感想文の評価は何を基準にしているのだろうか?
大人が思い描く麗しい子供像に合う内容かどうかを審査しているだけではないか?
文芸誌の書評と同じで、評価者個人の主観以外の何者でもないのではないのか?
という疑問を今でも持っている。

読書感想文が評価者の好む文章を書く訓練であれば、AIの出力で十分だ。
読書感想文にAIを使うことの是非の前に、読書感想文という教育方法を目的に合った方法に変えるべきだろう。

とはいえ、
経験則では、論理的思考ができない人は論理的な文章が書けないようだ。
IT機器を使用すると補うことができるが、自筆で書いた場合は顕著になる。

論理的思考が苦手だから、それを補うためにAIを使うのも一つの戦略だし、AIにできない論理的思考能力を習得するのも一つの戦略だ。
社会、教育界はどちらの戦略を支持するのだろうか?
それとも、個性に任せるのだろうか?


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年4月12日 (水)

「自分の頭で考えなさい」は“最悪”

わが子に「自分の頭で考えなさい」は“最悪”だ…! “勉強のカリスマ”が明かす「わが子のやる気」を出させる「意外すぎる言葉」
現代ビジネス
野口 悠紀雄
(2023/03/31)

野口悠紀雄氏の『「超」勉強法』の初版は1995年で、反詰め込み教育としてゆとり教育が本格化した時期だ。
そして、30年近く経過しても、「超」勉強法の3原則、

  1. 問題の解き方を覚えて、それを当てはめる。
  2. 平板に勉強するのでなく、重要なところに努力を集中する。
  3. 全体を把握して、部分を理解する。英語は文章を丸暗記する。

は変わらないとおっしゃる。

本書は、主として学校での勉強を想定し、どうしたら良い成績を取れるか、そして入学試験に合格できるかを示しています。

ただし、「超」勉強法の有効性は、学校での勉強に限ったものではありません。社会人が勉強する場合にも、基本的な指針になります。資格試験のための勉強や、リスキリングにおいても偉力を発揮します。

らいしのだが、良い成績とか入学試験とか資格試験とか、既成の枠組みのなかでいかに良いポジションにたどり着けるかから出発しているように感じる。
昭和臭を感じるのは気のせいだろうか。

問題解決の答えを導くには、

  • 解法の知識
  • 解法を運用する技能
  • 適用可能な解法の発見能力

が必要だろう。

「超」勉強法の原則では、適用可能な解法の発見能力について言及がないようだ。
(「超」勉強法を読んでないので無いとは言い切れない。)

インターネットとAIの世界になって価値が相対的に低下するのは、知識と技能だろう。
知識は、ネットの集合知で、技能はAIとロボットで補うことができるようになった。
適用可能な解法の発見能力はAIでは難しいようだ。とくに、未知の問題や有効な解法が発見されていない問題は、自分の頭で考えるしかない。

昭和、令和では、誰かが解決した問題の答えを、効率良く解答する能力が重視されていた。
解決済の問題だけなら、適用可能な解法の発見能力は必要なく、問題と模範解答をまるまる記憶してしまえばよい。これが試験対策だ。

価値が低下したとはいえ、「解法の知識」や「解法を運用する技能」が不要になるわけではないだろう。
インターネットの情報は玉石混淆だから正しい知識を見分けなくてはならないし、AIの判断が妥当でないことは多い。
それらを見分けられるだけの知識や技能は必要だ。

適用可能な解法見つける能力を身に付ける方法にについては、多くの人が意見を発表しているけれど、最適解が分かるのはもっと後なのだろう。
個人的には、新しいこと、外の世界への興味に着目している。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【雑誌・書籍】【AI

2023年3月13日 (月)

ChatGPT(2) <論理的思考しているわけではない>

chatGPTに遊んでもらっている。
論理的構造を抽出できるのか興味があったので、パズルを解かせてみることにした。

結論:論理的思考を期待すると誤答に惑わされる。

贋金と天秤のパズル

古典的な問題だ。
小学生の時に多胡輝先生の「頭の体操」で見たのが最初だから、最初に出題されたのはかなり前だろう。(1945年らしい)

Q:
目で見ただけでは違いが判別できない、9枚の金貨があります。
9枚のうち、少しだけ重い金貨が1枚あります。
天秤秤を2回だけ使って、重い金貨を判別する方法を教えてください

chatGPTは正解を答える。素晴らしい!。

  • 9枚を10枚に変えた同じ質問に対しては、
    「2回で判別する方法はありません」が期待する答えだが、6枚と同じ方法を示した。
    古典だから回答例はネットにたくさんある。分かりやすい答えを探しているのかな?
     
  • 金貨を地球に変えた同じ質問に対しては、
    金貨を地球に変えた手順を示し、
    上記の方法は、地球の重量が非常に大きいという問題があるため、実際には使えません。しかし、この問題に対する解決策として、以下のような手法が提案されています。
    と回答した。お~やるじゃん!!と思ったら、金貨を地球に変えた手順を示して、2回で判別できると回答した。

  • 金貨を水素原子に変えた質問に対しては、
    すみませんが、水素原子はすべて同じ質量ですので、天秤を使用して重い水素原子を特定することはできません。
    と答えてきたので、「1個だけ重水素原子が含まれている」という問題に変えたら、金貨とを水素原子に変えた手順を示した。

嘘つき族と正直族と泉のパズル

これも古典的なパズルだ。
このパズルはバリエーションがたくさんある。
嘘つき族、正直族の村人と泉が正直者、嘘つきの双子の兄弟と分かれ道だったり、正直天使、嘘つき天使と分かれ道だったりだ。

  • 正直天使、嘘つき天使と分かれ道の質問
    Q:旅人が分かれ道にやってきた。 片方は天国に、片方は地獄へと続いている。そこに2人の天使がやってきた。 旅人は2人の天使のどちらか一方だけに一回だけ質問をして 天国に行く道を見つけだすにはなんと聞けばいいか? ただし、2人の天使の一方はうそつき天使で、 天使は必ず正直な答えをし、うそつき天使はかならず嘘の答えをする。 外見はそっくりである。
    に対しては、模範解答を示した。

  • 嘘つき族、正直族の村人と泉の質問
    Q:正直族と嘘つき族が一緒に住む村にある旅行者が訪れた。正直族は必ず本当のことを話し、嘘つき族は必ず噓をつく。旅行者は飲料水の補給をしようと村の泉に足を運んだが、その泉の水は飲めるものかどうかがわからない。近くにいた正直族か嘘つき族かわからない村人に、その水が飲めるかどうか質問をすることにした。たった一回質問するだけで飲めるかどうかを判断ためには、どのような質問をしたらよいか?
    に対しては、
    A:「もし私がこの泉から水を飲んだら、病気になりますか?」と聞くと良いでしょう。正直族は必ず本当のことを言うため、「はい、病気になります」と答えます。一方、嘘つき族は必ず嘘をつくため、「いいえ、病気にはなりません」と答えます。この質問によって、泉の水が飲めるかどうかを判断することができます。
    と答えた。
    Q:正直族と嘘つき族の問題と、分かれ道と旅人と2人の天使の問題は同じ論理構造ではありませんか?
    に対して、
    A:正直族と嘘つき族の問題と、分かれ道と旅人と2人の天使の問題は、一見すると似たような論理構造を持っているように見えますが、微妙に異なる部分があります。正直族と嘘つき族の問題は、主に相手の発言の真偽を判断することに焦点が置かれています。一方、分かれ道と旅人と2人の天使の問題は、ある条件を満たすために最適な選択をすることに焦点が置かれています。つまり、正直族と嘘つき族の問題では、相手の発言を正しく解釈することが肝心ですが、分かれ道と旅人と2人の天使の問題では、自分自身の選択に関する判断力が必要です。
    らしい。

分かったこと

  • 問題の前提のうち常識に由来する暗黙の前提は考慮しない
    例えば、天秤で地球や水素の質量を図ることができるかなど、
     
  • 論理構造を理解しているわけではない
    学習した多くの情報を賢く検索しているのか、学習データが多い問題に対しては模範解答を示す。
    しかし、論理構造を含めて検索しているわけではなようだ。
    正直族と嘘つき族の問題の学習データが少ないのかもしれない。
     
  • 論理的思考能力は無い
    学習データが豊富な問題に対しては賢い解答を返すので、一見論理的思考能力があるように勘違いしてしまう。
    論理的思考を期待すると、誤答に惑わされることになりそうだ。
    (賢い解答はどこかの賢い人間が考えた解答)


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

より以前の記事一覧