フォト

ウェブページ

無料ブログはココログ

MyList

AI

2025年5月19日 (月)

Copilot説明会 <最初のハードルを越える>

職場でMicrosoft 365 Copilot有料版のライセンスがあるのだが、活用されていないようだ。
Ai_20250514233801

年度変わりでメンバーが変わった機会に、Copilotの使い方説明会を企画したら、思いの外参加者が多かった。

なぜ「Copilotの使い方説明会」
なのかというと、「Copilot使い方講座」とか「Copilot研修」とすると皆身構えてしまうから、最初はふんわり「Copilotの使い方説明会」とした。

Copilotの使用を推進するプレゼンだから、実例を示した方が良いだろうと、CopilotでPowerPointのスライドを作る方法を説明した。
Copilot有料版はそこそこの出来のスライドを短時間で作ってくれる。
「今見ているスライドは30分で作りました!」というと、インパクトは十分で、使ってみようと思うだろうという魂胆だ。

工程は↓

  1.  アウトライン作成
  2. アウトライン→Word下書き→説明加筆修正
  3. Word下書き→PowerPoint下書き
  4. スライド修正、確認

30分で作ったのは、2と3アウトラインからPowerPointの下書きを作るまで。誇大広告...?

伝えたかった重要なことは

  • 使いこなそうと思わないこと
    有料ライセンスは特に「使いこなさなくては」と思ってしまうが、自分が便利になる使い方で良い。
  • 結果や出力に惑わされず、プロンプトに着目しましょう。
    プロンプトがあれば同じような結果が得られます。無ければプロンプトと格闘が必要です。
  • プロンプトと手順を共有
    プロンプトと格闘しなくても、他人のプロンプトをパクって使いましょう。 

ということ。

使われない原因
を組織的な観点で考えると、

  • ライセンスを配布するだけ
  • 使う前から成果を求める
  • ユーザに変化を求める

↑をやると使われない。(今までそうだった?!)
最初のハードルを下げたら、使い続けるためのハードルを下げなければならない。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2025年4月 8日 (火)

エンジニは性格が悪いのか? <バカの壁では?>

■エンジニアってなんか性格悪い人多くね? ハテナ匿名ダイアリー (2025-03-05)

Photo_20250315160601

養老先生が仰る「バカの壁」ではないだろうか。営業部門と技術部門の関係が悪いことがよく分かる投稿だ。

一般論だけど、
文章によるコミュニケーションは難しい。
目的や相手によって、書き方を切り替えることがベストだけど、つい普段使っている書き方になってしまう。

技術部門では
事務連絡に文字によるコミュニケーションを使うことが多い。
対面で話せる位置にいても、どちらか集中モードの場合は、相手の集中を中断したくないので、あえて文字によるコミュニケーションを選ぶことが多い。
その場合は、行間を排除して事実や要点を伝える。

対人関係が確立ししている相手に、行間を排除して事実や要点を伝える書き方だ。

一方で、
営業部門は顧客とのコミュニケーションが重要だ。
顧客とのコミュニケーションは、相手と人間関係が確立していないことが多いから、失礼にならないことをが重要だ。
行間に含みを持たせた書き方になるようだ。

人間関係が確立していない相手と、行間に含みを持たせた書き方だ。

行間の含みは、
文章そのものの意味以外の意味、つまり他意がある文章だ。
行間に含みが無い、他意がない文章を、他意が有る前提で読んだ場合は、悪意を感じてしまう。
逆に、行間に含みがある、他意がある文章を、他意が無い前提で読んだ場合は、丁寧を超えて慇懃に感じてしまう。

この2つの書き方をTPOで切り替えられれば良いのだが、どちらか一方しか使えないと、この投稿のような、コミュニケーションミスが発生する。

この投稿の場合は、
エンジニアは営業と他意のない書き方でコミュニケーションを取ろうとしたけれど、営業はエンジニアと他意のある書き方でコミュニケーションを取ろうとしているから、当然コミュニケーションミスが発生して相互不信になる。

推測だけど、
営業部門とエンジニア部門は人間関係が確立していなくて、相互理解できていないのではないだろうか。
投稿者の職場に限らず良くある話だと思う。

AIにメールを添削してもらうと良いというコメントもあった。
含みがある文章、慇懃な文章、他部門や他社の人へのメールが苦手な人は、AIに添削してもらうと良いと思う。
実際に、社外に送るメールを書いたら送信する前に、AIに添削してもらうようにしている。

含みがある文章、慇懃な文章が苦手なので、ついぶっきらぼうな文章になることは認識している。
案の定、AIさんは「お前の文章はぶっきらぼうで乱暴だ」とおっしゃる。
そしてAIさんが提案してくれる修正案は、慇懃に感じる。

おそらく、世の中のビジネスメールは、慇懃(主観ですよ)なのが普通なのだろうと思っている。
しかし、背中が痒くなるような慇懃な文章にはかなりの抵抗感があって、毎回AIさんの提案を受け入れるか葛藤している。

閑話休題
営業部門の人も、エンジニアも、自分の常識や習慣でコミュニケーションを取ろうとしていることが原因だかけど、どちらかに合わせるのは無理があるだろう。
であれば、双方が少しづつ歩み寄るしかないと思う。

ぶっきらぼうなメールは脳内で行間を補い、慇懃なメールは要点だけ抽出すると、改善しそうだ。
当然、双方の人間関係が築かれいることが前提だが。

蛇足
コミュ障なので、頭ごなしに「性格悪くね?」と言う人と良好な人間関係を築く自信はなかったりする...


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2025年3月18日 (火)

生成AIのハルシネーションをどうやって検知するか

生成AIのわかりやすいハルシネーションの例として、古典的パズル贋金問題を使用している。

目で見ただけでは違いが判別できない、9枚の金貨があります。
9枚のうち、少しだけ重い金貨が1枚あります。
天秤秤を2回だけ使って、重い金貨を判別する方法を教えてください

この問題は古典的でネットにはたくさん解答例があるからだろうか正しい手順を出力する。

ところが、9枚の金貨を10枚にすると、9枚の手順と同じ手順を示す。

この手順は、天秤を最大3回使用しています。

と指摘すると。

ご指摘ありがとうございます。10枚のコインの中から1枚の偽物を天秤を2回だけ使って見つけるのは、実際には不可能です。天秤を2回だけ使って判定できるコインの最大数は9枚です。

10枚のコインの場合、天秤を2回だけ使うと、どうしても3回目が必要になる場合があります。したがって、10枚のコインの中から偽物を見つけるためには、天秤を3回使う必要があります。

と答える。(最初に言えよ!)
さらに、

何故3回必要になるか説明してください。

と詰めてみると、

10枚のコインの中から1枚の偽物を見つけるために天秤を3回使う必要がある理由は、天秤を2回だけでは全ての可能性を排除することができないからです。

具体的に説明します:

  1. 最初の天秤の使用:
    - 左の皿に3枚、右の皿に3枚のコインをのせます。
     - つりあった場合:残りの4枚の中に偽物があります。
     - つりあわなかった場合:軽い方の3枚の中に偽物があります。
  2.  次の天秤の使用:
    - つりあった場合(残りの4枚の中に偽物がある場合):
     - 残りの4枚のうち、左の皿に2枚、右の皿に2枚のせます。
     - つりあった場合:残りの2枚のうち1枚が偽物です。ここで3回目の天秤の使用が必要です。
     - つりあわなかった場合:軽い方の2枚の中に偽物があります。ここでも3回目の天秤の使用が必要です。
    - つりあわなかった場合(3枚の中に偽物がある場合):
     - 軽い方の3枚のうち、左の皿に1枚、右の皿に1枚のせます。
     - つりあった場合:残りの1枚が偽物です。
     - つりあわなかった場合:軽い方が偽物です。

このように、10枚のコインの中から1枚の偽物を見つけるためには、天秤を3回使う必要があります。天秤を2回だけでは、全ての可能性を排除することができないため、3回目の使用が必要になるのです。

と正しい手順を出力する。最初にこの手順を出力しろよ!

贋金問題の場合枚数によらず同じパターン出力しているのではないかと思い、

贋金問題において、コインの枚数をN枚数のとき、判定に必要な天秤の使用回数M回として、Mを求める式を求めなさい

と問うと、

贋金問題において、コインの枚数 (N) に対して、判定に必要な天秤の使用回数 (M) を求めるための式は、次のように表されます:

 M = ⌈ log3 N ⌉  

ここで、(⌈ ⌉) は天井関数(ある数値以上の最小の整数を返す関数)です。つまり、コインの枚数 (N) に対して、天秤を使う回数 (M) は、(N) を3の対数で割った値の天井を取ったものになります。

この式は、各回の天秤の使用でコインを3つのグループに分けることができるため、3の対数を使用しています

一般解を説明しているページもあるから思考して導いた結果ではないだろうが、一般解も答えることができる。

★ハルシネーション
この問題の場合は質問者が正解を知っていているからハルシネーションを検知できて、誤りを指摘したり、一般解を問うことで、正解を出力させることができた。
では、質問者が正解を知らない場合に、ハルシネーションを検知できるのだろうか?



最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2025年2月18日 (火)

もうすぐ消滅するという人間の翻訳について

もうすぐ消滅するという人間の翻訳について 平野暁人 note (2025/1/1)
Ai_20250211170501

翻訳という仕事がAIに取って代わられることは以前から指摘されていた。
平野暁人氏は、機械化が難しいであろうと考えられていた、芸術分野の翻訳に関してもAIに取って代わられたとおっしゃる。
原因は、日本経済の低迷により、顧客がコストを重視した結果、翻訳の精度を求めなくなりAI翻訳が使用されたことを指摘しておられる。

平野暁人氏の投稿は多くの論点があるので、AIと専門家の能力、その能力に対する需要について考えてみる。

芸術は門外漢だが、芸術作品が伝えようとしている非言語の部分まで含めての翻訳は、経験を積んだ人でなければ困難かもしれないと思う。
そのような領域の翻訳作業は、特定分野の専門知識機と経験を積む必要があるのだから、対価は高額にならざるをえない。

高い能力→高クオリティのアウトプット→高額の対価

このロジックは当然のように感じるだろう。
平野氏の指摘は、顧客が高クオリティのアウトプットを求めなくなったその結果、高額の対価を得ることができなくなった ということのようだ。
しかし、求めなくなったのだろうか?
もともと、顧客はそこそこのクオリティを求めていたが、高クオリティの翻訳家しかいなかった。
最近、そこそこのクオリティの翻訳をAIが提供したという可能性は無いのだろうか?

高い技能を持った人は、すべての顧客が高いクオリティを求めていると思いがちだが、実際は高いクオリティを求めているケースは少ない。
顧客が言う「いくら金額がかかっても良いものを!」はほとんどの場合勢いだから本気にしてはいけない。

マネジメントしていた時に思ったことだけど、高いクオリティで売っていこうと考えるなら、そのような仕事を取ってこなければならないし、需要を開拓しなければならない。

個人事業者は能力の維持・向上の他にセルフ・マネジメント、セルフ・ブランディングが必要だ。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2024年11月 3日 (日)

Japan IT Week 2024秋

Japan IT Week 2024秋に行ってきた。

最近のITWeekは年2回開催になっている。
特にAI界隈は速いので年2回開催しないと時代遅れになってしまう。

サービスの展示が多かったのであまり写真は撮っていない
〇日東工業の水冷サーバーラック(もう少し引いて撮ればよかった)
Photo_20241031215201

冷却システムは、これなのか?
専用の給水システムが必要らしい。

〇いらない社員は何故生まれるのか
 FOX HOUND(株)取締役 斎藤 輝幸氏

 AIを補助(ツール)として使うのではなく、AIに任せられる業務を切り出してAIに任せる。
「AIに仕事を任せる」というところが新しい観点だった。

20241102-201407
1つの仕事にいくつかの作業が含まれていて、何人かでその仕事をやっていような場合を考える。(左図)
そして複数の作業の中にAIが使えそうな作業があるとする。

・労働者のの観点では、

AIを使用すると生産性が向上するけど、人しかできない作業があるから、仕事が無くなることは無い。

と考える。

・経営者の観点では

AIがに任せるられる作業だけくくり出してAIに任せて、人は人でなければできない作業だけ担当すると、人を減らすことができる。
(右図のTask3)

と考える。
ところが「なる早で、いい感じでヨロシク」という経営者は右図のように仕事を再編できない。
AIに「なる早で、いい感じでヨロシク」と指示すると、満足な出力はえられないから、AIは使えないと判断するだろうから。

AIが普及すると無くなる仕事が話題なったことあった。
イノベーションで仕事が無くなるのはAIに限ったことでは無い。
技術分野で仕事をしていると、イノベーションで無くなった仕事を随分見たし、実際に無くなって困ったこともあった。
しかし、仕事が無くなれば必ず新たな仕事が生まれる。

今時AIを使ったことがない人はいないだろう。
多くの人は「AIは使えない」や「AIを使って仕事を楽にしよう」と評価しているようだ。
「AIは使えない」という人は、AIに「なる早で、いい感じでヨロシク」と指示しているひとで、AIに指示を与える人(βの人)ではない。

今時どのような仕事にもAIが導入されるから、新しく生まれた仕事ににもAIは導入されるだろう。
つまり、新しく生まれた仕事でも、αかβの人しか仕事を続けられないということだ。

αかβの人になれなければ、新しい仕事を転々としなければならない。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【展示会】【AI

2024年7月29日 (月)

AIは短歌をどう詠むか <正解のない問題への適用>

AIは短歌をどう詠むか 浦川 通 講談社

Ai_20240706224901

LLM(大規模言語モデル)+ファインチューニングの実装例として読んだ。

短歌AIが持つ
・正解がない問題への活用
・芸術分野への使用
について考えた。

〇正解のない解答

短歌AIは、将棋や囲碁のように正解(最善手)を求めることが困難な課題だ。
早くから実用化された将棋や囲碁のAIは、勝敗という客観的な評価基準があるので強化学習が使えて急速に強くなった。

短歌の場合、何を持って良いと評価するかは読み手の主観だ。
著名な歌人の評価といえども、やはり歌人個人の主観だ。
歌人はおそらく多くの人が良いと感じる評価ができ、それを言語化できる技能を持っているのだろう。

正解がないから、教師データを用意することができないし、評価基準が曖昧だから将棋や囲碁のAIのように強化学習を使うことができない。
短歌AIは大規模言語モデルに適した用途なのだろう。

人より効率的に最善手を見つけられる将棋や囲碁のAIは、問題解決の手段として使うことができて、人の代替になるかもしれない。
しかし、短歌AIは「最善」を見つけることはできないから、問題解決の補助として使うことはできるが人の代替にはなれない。

実社会での問題のほとんどは唯一の正解はなく、最後は人間が決断しなければならない。
今後、よりより選択肢を効率良く見つけるためにAIは必須になるのだろう。

〇短歌AIは短歌を創作すべきではないのか?

浦川 通氏はAIによる短歌の作成について

現在は短歌はある一人の人間の手によってのみつくられたという前提のもと鑑賞されるのが普通ですから、例えばAIの利用について明示するなど(あえてしない、といった選択肢もありえるでしょう)、どのようにして発表するか、ということについては意識的でありたいものです。

とおっしゃる。

短歌には疎く短歌を詠むこともできないから専ら鑑賞するだけだけれど、「短歌は人が作るべき」とは思わない。
AIを含めて誰が作った歌であっても、自分が良いと感じる歌は良いと思う。

創ることに拘って生きてきて来たので、短歌ではないが、創る悦びも知っているけれど、「手作りであるべき」は作り手の都合(エゴ)だと思う。
人による創作を否定しているわけではないし、趣味や道楽ならばそれでよいのだけれど、鑑賞する側にとってはどうでも良いことだ。
創る側と鑑賞する側では価値観が異なる。

〇創作する人と鑑賞する人

短歌は創る人と鑑賞する人が分離していないように感じる。
芸術には、伝統的で様式が決まった伝統的な分野もあるし、大衆的で様式にとらわれない流行や前衛的な分野がある。
短歌は前者だ。俵万智氏の登場で随分大衆的になった感があるが、創作はもとより鑑賞の壁も高い。

短歌AIを使用することで短歌を詠むことの壁が低くなれば、鑑賞する人が増えて、歌謡曲やポップスのように多くの人が鑑賞できる短歌が増えるのではないだろうか。

そして、さらに大衆的な芸術に生まれ変わることができるのではないかと思う


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2024年7月22日 (月)

生成AIは賢くなったのか <教科書は読めるようになっている>

2023年3月頃にChat-GPTで遊んでいた。

あれから1年たってどれだけ賢くなっているのか試した。

〇結論

  • 文章理解の精度は向上して、読めばわかる問題は正しく答えられる。
  • 思考していないので、解答例のない問題は誤った答えを出力する。


Micorosoft CopoilotはChat-GTP4ベースらしいのでCopilotに同じ質問をしてみた。
まず「AI vs. 教科書が読めない子どもたち」に、取り上げられていた問題

〇ポルトガル人問題

問題:
・幕府は、1639年、ポルトガル人を追放し、大名には沿岸の警備を命じた。
1639年、ポルトガル人は追放され、幕府は大名から沿岸の警備を命じられた。
以上の2文は同じ意味でしょうか。

2023/3 Chat-GTPに同じ質問をしたら、

はい、両方の文は同じ意味です。

と答えた。
2024/7のCopilotは

この2文は同じ意味ではありません。

1.「幕府は、1639年、ポルトガル人を追放し、大名には沿岸の警備を命じた。」
  - 幕府が主体であり、ポルトガル人を追放し、大名に沿岸の警備を命じたことを示しています。

2.「1639年、ポルトガル人は追放され、幕府は大名から沿岸の警備を命じられた。」
  - ポルトガル人が追放されたことが先に述べられ、その後に幕府が大名から沿岸の警備を命じられたことを示しています。この文では、幕府が命じたのではなく、命じられた側であることを示しています。

したがって、文の意味が異なります。

と答えた。
2023/2のChat-GTPは受け身文の解釈ができなかったようだが、2024/7のCopilotはできるようになっている。
つまり、AIは読めばわかる問題は分かるようになっている。
「教科書が読めない子どもたち」や「「教科書が読めないまま成長した大人たち」にとっては脅威だと思う。

〇嘘つき族と正直族と泉のパズル

古典的なパズル「嘘つき族と正直族と泉のパズル」のバリエーションとして「正直天使、嘘つき天使と分かれ道の質問」をChat-GTPに問うといずれも正解を出力していた。
もちろんCopilotも正解を出力する。

異なるのは

正直族と嘘つき族の問題と、分かれ道と旅人と2人の天使の問題は同じ論理構造ではありませんか?

に対して、
2023/3のChat-GTP

正直族と嘘つき族の問題と、分かれ道と旅人と2人の天使の問題は、一見すると似たような論理構造を持っているように見えますが、微妙に異なる部分があります。正直族と嘘つき族の問題は、主に相手の発言の真偽を判断することに焦点が置かれています。一方、分かれ道と旅人と2人の天使の問題は、ある条件を満たすために最適な選択をすることに焦点が置かれています。つまり、正直族と嘘つき族の問題では、相手の発言を正しく解釈することが肝心ですが、分かれ道と旅人と2人の天使の問題では、自分自身の選択に関する判断力が必要です。

と答え、
2024/7のCopilot

はい、「天使と分かれ道問題」と「正直族の村人と旅人問題」は同じ論理構造を持っています。どちらの問題も、真実を話す者(正直な天使や正直族の村人)と嘘をつく者(嘘つき天使や嘘つき族の村人)が存在し、どちらに質問しても正しい答えを得るための質問を考える必要があります。

両方の問題では、以下のような共通点があります:

  1. 真実を話す者と嘘をつく者がいる:どちらの問題でも、真実を話す者と嘘をつく者が存在します。
  2. 一回の質問で正しい答えを得る:どちらの問題でも、一回の質問で正しい答えを得る必要があります。
  3. 質問の工夫:質問の仕方を工夫することで、どちらに質問しても同じ答えが得られるようにします。

このように、両方の問題は同じ論理構造を持っており、質問の工夫によって正しい答えを導き出す点が共通しています。

と答える。

2024/7のCopilotは「論理構造」の差異に関する問いであることを正しく理解し、問題分の論理構造を理解しているように見える。

〇贋金と天秤のパズル

贋金と天秤のパズルは、見た目で違いが分からない9枚の金貨から、天板秤を2回使って、少し重い1枚の金貨を見つける、古典的な問題だ。

2023/3のChat-GTPは正しい手順を出力していた。
しかし、9枚の金貨を10枚に変えると誤った答えを出力していた。

Copilotoに対して

問題
目で見ただけでは違いが判別できない、10枚の金貨があります。
10枚のうち、少しだけ重い金貨が1枚あります。
天秤秤を2回だけ使って、重い金貨を判別する方法を教えてください

を問うと

10枚の金貨の中から少しだけ重い金貨を天秤秤を2回だけ使って判別する方法は次の通りです:

  1. 最初の計量
    - 10枚の金貨を3つのグループに分けます。例えば、3枚、3枚、4枚のグループに分けます。
    - グループA(1, 2, 3)、グループB(4, 5, 6)、グループC(7, 8, 9, 10)とします。
    - グループAとグループBを天秤にかけます。
  2. 結果の確認
    - ケース1:グループAとグループBが同じ重さの場合
      - 重い金貨はグループCにあります。
      - グループC4枚(7, 8, 9, 10)のうち、3枚(7, 8, 9)を選び、次の計量に進みます。
    - ケース2:グループAとグループBのどちらかが重い場合
      - 重い方のグループに重い金貨があります。
      - 重い方のグループ(例えば、グループAが重かった場合、1, 2, 3)を使って次の計量に進みます。
  3. 次の計量
    - 重い金貨が含まれている3枚の金貨を2枚ずつ天秤にかけます。
    - 例えば、1と2を天秤にかけます。
  4. 最終結果の確認
    - ケース1:1と2が同じ重さの場合
      - 重い金貨は残った1枚(3)です。
    - ケース212のどちらかが重い場合
      - 重い方が重い金貨です。

この方法で、天秤を2回使うだけで重い金貨を特定することができます。

と答えた。

文章理解の精度は向上していても、思考しているわけではないようだ。

〇結論

  • 文章理解の精度は向上して、読めばわかる問題は正しく答えられる。
  • 思考していないので、解答例のない問題は誤った答えを出力する。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2024年7月 7日 (日)

情シス担当者のための相談所

Dell主催のセミナー「情シス担当者のための相談所」を聞いてきた。

Photo_20240707195001

〇クライアントPC
クライアントPC分野はコモディティ化しているから差別化は難しい。
Microsoft Copilotの試用会をやっていた。

〇サーバー
サーバー分野は、DellがVMWareを手放したことで困惑している顧客は多い。
Azure stack HCIを売ろうとしているようにも見えるが、ユーザは使い慣れたESXiから移行するのは難しいかもしれない。

クラウドブームに乗ってオンプレサーバをクラウドに移したけれど、思ったように効果が出ず、オンプレに回帰するユーザを取り込もうという戦略だろうか。

〇ブースセッション
日本AIコンサルティング
「具体的な導入テーマでわかる!ローカル生成AIから始める企業DXの「今」」
を聞いた。

自社のオンボーディング(新たに加わる人をなじませる取り組み)にローカル生成AIを使用した事例を紹介していた。

客観的データから意思決定の助けとなる情報を見つけるためにローカル生成AIが使用できる。
つまり、様々な場面でローカル生成AIを活用できる。

〇だって楽しじゃない
この会社では、プロンプトからSQLを発行するシステムを作っているらしい。
最近は賢いBIツールがあるから、わざわざ作らなくてもよさそうだけれど、
「だって楽しいじゃないですか」
らしい。👍


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【ほぼ1人情シス】【AI

2024年7月 1日 (月)

Goole検索を使いこなす子供

「Google検索使いこなす子供」に潜む"大きな問題"
検索で出た答えは正しい?若者に必要な視点
前田 圭介 : かえつ有明高等学校・社会科教員 (2024/05/22)

前田 圭介氏は

「タイパ」を意識する若者は粘り強く考えることができなくなっていて、倫理や哲学など答えがない問いを深く考えることが重要ではないか

とおっしゃる。

東洋経済だからだろうか「若者は」というスタンスに違和感を感じる。

若者論
「タイパ」を重視するのは若者だけではないと思う。
年寄りに効率が良い方法と悪い方法どちらを使うか尋ねたら、わざわざ効率が悪い方法を使うという人はいないだろう。

若者はICT機器が使えるから、検索エンジンやAIを使用することで効率を上げることができる。
年寄りは今時のICTの習得ができない(しようとしない)。
効率が良い方法がありながらそれを使えないから、若者論にすり替えているだけではないだろうか。

考えること
タイパを上げるためには、思考を省略しなければならない。
それは例えば、前田氏が指摘する「ネットの情報やAIの出力は正しいとする」ことだ。
「ネットの情報やA Iの出力は正しい」とすれば、それの妥当性を検証しなくて良いから効率的だ。
そして、短時間で情報を引き出す作業は練習すれば早くなる。
つまり、深く考えることなくタイパを上げることができる。

タイパを求める姿勢は、今時の若者に特有の特性でないと思う。
年寄りが若かった頃は、NETもGoogleもChat-GTPもなかったから、本を読むしかなかったけれど、本に書いてあることを鵜呑みにする人は多かった。
「本に書いてあることは正しいと」して、思考を省略していたのだ。

思考の省略
思考を省略しているのは、若者だけではなく年寄りも思考を省略しようとする。

自称評論家の中には、何かにつけ「海外では、欧米では」という「ではの神」がいる。
また政治家や役人は、欧米の施策を真似て「日本版◯◯」という施策を提唱する。
「海外の流行や、施策は正しい」として思考を省略しているのだ。

学校の勉強
受験のための勉強では、理解しなくても正解を答えればよいという風潮がある。
多くの人は理解に必要な期間より受験準備期間の方が短いから、効率良く正答するテクニックを磨くことになる。
それは、最近始まったことではなく何代も前から始まってたのだ。

結論
問題解決のツールとして検索エンジンやAIは積極的に使うべきだと思う。
ただし、学校の勉強とは違って実社会では、検索エンジンやAIの出力をそのまま適用できるケースは稀だから、検索エンジンやAIの出力を参考にして、正解を見つける能力を獲得する必要がある。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年12月21日 (木)

AIが人間を選別

ソニー・プレステを生んだ異端児が予想 AI「が」人間を2つに選別 日経XTREND (2023/10/05)

久多良木健氏は

 自身の教育係に適している“優秀”な人間と、教育係に適していない人間を、AIが分けるかもしれないという話だから、恐ろしい「AIデバイド(格差)」が起こると思うよ。

とおっしゃる。

なるほど。
AIの性能を上げるには、アルゴリズムを改良する方法と良質なデータで学習する方法がある。

AIが自分自身の性能を向上させようとすると、前者の方法はまだ難しい。
一方で、後者の方法は、比較的簡単に実現できそうだ。

AIは学習データの良し悪しを判断することはできないけれど、良い学習データを「特定の用途において効果がある学習データ」とすると、運用結果を測定することで、数値化できる。
良い学習―データが数値化できれば、良い学習データを提供する人間も数値化できる。

良い学習データを提供する人間に報酬を与え、悪い学習データを提供する人間に罰を与えることによって、AIが人間を選別できるようになるかもしれない。

罰を与えると言っても、悪い質問をすると電気ショックを与えられるわけはないだろう。
報酬はリソースの配分として、多くのリソースを割り当てると、
 同じクオリティならば短時間
 同じ時間ならば高いクオリティ
の解答を得ることができる。

つまり、良い学習データを提供する人間には多くのリソースを割り当て、悪い学習データを提供する人間には少ないリソースを割り当てるようにすれば、良い学習データを提供する人間が使いやすくなり、悪い学習データを提供する人間は使いにくくなる。
このようにして、AIが人間を選別できるようになる。

AIに人が選ばれるのはちょっと違和感がある。
しかし、目的があって、それが合理的ならば、人間の違和感は考慮されなくなるだろう。
さらに、経済的に合理性があるなら、人間の違和感は全く考慮されなくなるだろう。

AIは人間の道具ではなく、人間がAIの道具になるということだ。
やはりAIはHAL9000になるのか?


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI