ChatGTP
遅ればせながら、今話題のChatGPTをで遊んでみた。
AIといえば、東大入試を目指した東ロボくんプロジェクトを思い出す。
AIは文章を読解できないという判断から、プロジェクトは終了した。
ChatGPTは文章を読解できるようになったのか気になると思っていたら、同じことを考えている人がいるようだ。
ChatGPTに共通テストの英語を解かせてみたら77%取れた (2023/1/14)
「AI vs. 教科書が読めない子どもたち」に、子どもたちが読解できない例として取り上げられた問題をChatGPTに訊ねてみたら、
Alex問題は正解だった。
Q:
Alexは男性にも女性にも使われる名前で、女性の名Alexandraの愛称であるが、男性の名Alexanderの愛称でもある。
この文脈において、以下の文中の空欄にあてはまる最も適当なものを選択肢のうちから1つ選びなさい。
Alexandraの愛称は( )である。
①Alex ②Alexander ③男性 ④女性
A:
Alexandraの愛称は「① Alex」である。文中には、「Alexは男性にも女性にも使われる名前で、女性の名Alexandraの愛称であるが、男性の名Alexanderの愛称でもある」と書かれています。したがって、Alexandraの愛称はAlexであり、Alexanderの愛称でもあることが分かります。
ポルトガル人問題は間違っている。
Q:
・幕府は、1639年、ポルトガル人を追放し、大名には沿岸の警備を命じた。
・1639年、ポルトガル人は追放され、幕府は大名から沿岸の警備を命じられた。
以上の2文は同じ意味でしょうか。
A:
はい、両方の文は同じ意味です。両方の文において、幕府は1639年にポルトガル人を追放し、沿岸警備を大名に命じたことが述べられています。ただし、文の構造は異なり、主語と述語の位置が異なるため、少し読みやすさに違いがあります。
受け身の文の解釈が間違っているようだ。短文ならば受け身文も解釈できるが、複数文の文脈では解釈を誤るようだ。
ちなみに、問いを英語に翻訳して、尋ねると正解した。
AIスピーカーが登場したときも結構インパクトがあったけど、音声→テキスト変換、テキスト→音声変換の向こうに全文検索が動いているような感じだった。
だから、例えば「御茶ノ水付近でパスタが美味しくない店を教えて」という問の否定部分が検出できず、おすすめの店とか、付近にある飲食店を答えていた。
ChatGTPに同じ質問をすると、
申し訳ありませんが、私は個々の店舗を批判することはできません。私たちは公正で中立的な立場を維持するため、あらゆる店舗に対して公平で客観的なアドバイスを提供することを目的としています。飲食店の品質は日々変化することがあり、個人の好みにもよるため、あなた自身が実際にその店舗を訪れ、自分自身の経験から判断することが最善の方法です。その際、マナーや配慮を心掛けて、公正かつ正確な口コミを投稿するようにしてください。
おおちゃんと答えるぞ!! でも、予防線張ってない?
誰かが不利益になる答えを返さないようなモデルになるように気を使っているのだろう。
AIに対する質問の回答が、信念を持たない人に与える影響について教えてください
に対しては
- 情報収集の助けになる
- 倫理的な判断に影響を与える
- 偏見や誤った情報を広める可能性がある
という例を示した。
なるほど、AIを使う人間次第ということか
まだ、AIに遊んでもらっているレベルだ。
何に使えるのか考えてみよう。
最近の投稿
【Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI】
« 脳の闇 | トップページ | ChatGPT(2) <論理的思考しているわけではない> »
「よしなしごと」カテゴリの記事
- 生成AIは賢くなったのか <教科書は読めるようになっている>(2024.07.22)
- 不格好経営(2024.08.01)
- 続・技術者への転職のススメ(2024.07.19)
- 情シス担当者のための相談所(2024.07.07)
「AI」カテゴリの記事
- 生成AIは賢くなったのか <教科書は読めるようになっている>(2024.07.22)
- 情シス担当者のための相談所(2024.07.07)
- AIは短歌をどう詠むか <正解のない問題への適用>(2024.07.29)
- Goole検索を使いこなす子供(2024.07.01)
- AIが人間を選別(2023.12.21)
コメント