フォト

ウェブページ

無料ブログはココログ

MyList

AI

2024年7月29日 (月)

AIは短歌をどう詠むか <正解のない問題への適用>

AIは短歌をどう詠むか 浦川 通 講談社

Ai_20240706224901

LLM(大規模言語モデル)+ファインチューニングの実装例として読んだ。

短歌AIが持つ
・正解がない問題への活用
・芸術分野への使用
について考えた。

〇正解のない解答

短歌AIは、将棋や囲碁のように正解(最善手)を求めることが困難な課題だ。
早くから実用化された将棋や囲碁のAIは、勝敗という客観的な評価基準があるので強化学習が使えて急速に強くなった。

短歌の場合、何を持って良いと評価するかは読み手の主観だ。
著名な歌人の評価といえども、やはり歌人個人の主観だ。
歌人はおそらく多くの人が良いと感じる評価ができ、それを言語化できる技能を持っているのだろう。

正解がないから、教師データを用意することができないし、評価基準が曖昧だから将棋や囲碁のAIのように強化学習を使うことができない。
短歌AIは大規模言語モデルに適した用途なのだろう。

人より効率的に最善手を見つけられる将棋や囲碁のAIは、問題解決の手段として使うことができて、人の代替になるかもしれない。
しかし、短歌AIは「最善」を見つけることはできないから、問題解決の補助として使うことはできるが人の代替にはなれない。

実社会での問題のほとんどは唯一の正解はなく、最後は人間が決断しなければならない。
今後、よりより選択肢を効率良く見つけるためにAIは必須になるのだろう。

〇短歌AIは短歌を創作すべきではないのか?

浦川 通氏はAIによる短歌の作成について

現在は短歌はある一人の人間の手によってのみつくられたという前提のもと鑑賞されるのが普通ですから、例えばAIの利用について明示するなど(あえてしない、といった選択肢もありえるでしょう)、どのようにして発表するか、ということについては意識的でありたいものです。

とおっしゃる。

短歌には疎く短歌を詠むこともできないから専ら鑑賞するだけだけれど、「短歌は人が作るべき」とは思わない。
AIを含めて誰が作った歌であっても、自分が良いと感じる歌は良いと思う。

創ることに拘って生きてきて来たので、短歌ではないが、創る悦びも知っているけれど、「手作りであるべき」は作り手の都合(エゴ)だと思う。
人による創作を否定しているわけではないし、趣味や道楽ならばそれでよいのだけれど、鑑賞する側にとってはどうでも良いことだ。
創る側と鑑賞する側では価値観が異なる。

〇創作する人と鑑賞する人

短歌は創る人と鑑賞する人が分離していないように感じる。
芸術には、伝統的で様式が決まった伝統的な分野もあるし、大衆的で様式にとらわれない流行や前衛的な分野がある。
短歌は前者だ。俵万智氏の登場で随分大衆的になった感があるが、創作はもとより鑑賞の壁も高い。

短歌AIを使用することで短歌を詠むことの壁が低くなれば、鑑賞する人が増えて、歌謡曲やポップスのように多くの人が鑑賞できる短歌が増えるのではないだろうか。

そして、さらに大衆的な芸術に生まれ変わることができるのではないかと思う


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2024年7月22日 (月)

生成AIは賢くなったのか <教科書は読めるようになっている>

2023年3月頃にChat-GPTで遊んでいた。

あれから1年たってどれだけ賢くなっているのか試した。

〇結論

  • 文章理解の精度は向上して、読めばわかる問題は正しく答えられる。
  • 思考していないので、解答例のない問題は誤った答えを出力する。


Micorosoft CopoilotはChat-GTP4ベースらしいのでCopilotに同じ質問をしてみた。
まず「AI vs. 教科書が読めない子どもたち」に、取り上げられていた問題

〇ポルトガル人問題

問題:
・幕府は、1639年、ポルトガル人を追放し、大名には沿岸の警備を命じた。
1639年、ポルトガル人は追放され、幕府は大名から沿岸の警備を命じられた。
以上の2文は同じ意味でしょうか。

2023/3 Chat-GTPに同じ質問をしたら、

はい、両方の文は同じ意味です。

と答えた。
2024/7のCopilotは

この2文は同じ意味ではありません。

1.「幕府は、1639年、ポルトガル人を追放し、大名には沿岸の警備を命じた。」
  - 幕府が主体であり、ポルトガル人を追放し、大名に沿岸の警備を命じたことを示しています。

2.「1639年、ポルトガル人は追放され、幕府は大名から沿岸の警備を命じられた。」
  - ポルトガル人が追放されたことが先に述べられ、その後に幕府が大名から沿岸の警備を命じられたことを示しています。この文では、幕府が命じたのではなく、命じられた側であることを示しています。

したがって、文の意味が異なります。

と答えた。
2023/2のChat-GTPは受け身文の解釈ができなかったようだが、2024/7のCopilotはできるようになっている。
つまり、AIは読めばわかる問題は分かるようになっている。
「教科書が読めない子どもたち」や「「教科書が読めないまま成長した大人たち」にとっては脅威だと思う。

〇嘘つき族と正直族と泉のパズル

古典的なパズル「嘘つき族と正直族と泉のパズル」のバリエーションとして「正直天使、嘘つき天使と分かれ道の質問」をChat-GTPに問うといずれも正解を出力していた。
もちろんCopilotも正解を出力する。

異なるのは

正直族と嘘つき族の問題と、分かれ道と旅人と2人の天使の問題は同じ論理構造ではありませんか?

に対して、
2023/3のChat-GTP

正直族と嘘つき族の問題と、分かれ道と旅人と2人の天使の問題は、一見すると似たような論理構造を持っているように見えますが、微妙に異なる部分があります。正直族と嘘つき族の問題は、主に相手の発言の真偽を判断することに焦点が置かれています。一方、分かれ道と旅人と2人の天使の問題は、ある条件を満たすために最適な選択をすることに焦点が置かれています。つまり、正直族と嘘つき族の問題では、相手の発言を正しく解釈することが肝心ですが、分かれ道と旅人と2人の天使の問題では、自分自身の選択に関する判断力が必要です。

と答え、
2024/7のCopilot

はい、「天使と分かれ道問題」と「正直族の村人と旅人問題」は同じ論理構造を持っています。どちらの問題も、真実を話す者(正直な天使や正直族の村人)と嘘をつく者(嘘つき天使や嘘つき族の村人)が存在し、どちらに質問しても正しい答えを得るための質問を考える必要があります。

両方の問題では、以下のような共通点があります:

  1. 真実を話す者と嘘をつく者がいる:どちらの問題でも、真実を話す者と嘘をつく者が存在します。
  2. 一回の質問で正しい答えを得る:どちらの問題でも、一回の質問で正しい答えを得る必要があります。
  3. 質問の工夫:質問の仕方を工夫することで、どちらに質問しても同じ答えが得られるようにします。

このように、両方の問題は同じ論理構造を持っており、質問の工夫によって正しい答えを導き出す点が共通しています。

と答える。

2024/7のCopilotは「論理構造」の差異に関する問いであることを正しく理解し、問題分の論理構造を理解しているように見える。

〇贋金と天秤のパズル

贋金と天秤のパズルは、見た目で違いが分からない9枚の金貨から、天板秤を2回使って、少し重い1枚の金貨を見つける、古典的な問題だ。

2023/3のChat-GTPは正しい手順を出力していた。
しかし、9枚の金貨を10枚に変えると誤った答えを出力していた。

Copilotoに対して

問題
目で見ただけでは違いが判別できない、10枚の金貨があります。
10枚のうち、少しだけ重い金貨が1枚あります。
天秤秤を2回だけ使って、重い金貨を判別する方法を教えてください

を問うと

10枚の金貨の中から少しだけ重い金貨を天秤秤を2回だけ使って判別する方法は次の通りです:

  1. 最初の計量
    - 10枚の金貨を3つのグループに分けます。例えば、3枚、3枚、4枚のグループに分けます。
    - グループA(1, 2, 3)、グループB(4, 5, 6)、グループC(7, 8, 9, 10)とします。
    - グループAとグループBを天秤にかけます。
  2. 結果の確認
    - ケース1:グループAとグループBが同じ重さの場合
      - 重い金貨はグループCにあります。
      - グループC4枚(7, 8, 9, 10)のうち、3枚(7, 8, 9)を選び、次の計量に進みます。
    - ケース2:グループAとグループBのどちらかが重い場合
      - 重い方のグループに重い金貨があります。
      - 重い方のグループ(例えば、グループAが重かった場合、1, 2, 3)を使って次の計量に進みます。
  3. 次の計量
    - 重い金貨が含まれている3枚の金貨を2枚ずつ天秤にかけます。
    - 例えば、1と2を天秤にかけます。
  4. 最終結果の確認
    - ケース1:1と2が同じ重さの場合
      - 重い金貨は残った1枚(3)です。
    - ケース212のどちらかが重い場合
      - 重い方が重い金貨です。

この方法で、天秤を2回使うだけで重い金貨を特定することができます。

と答えた。

文章理解の精度は向上していても、思考しているわけではないようだ。

〇結論

  • 文章理解の精度は向上して、読めばわかる問題は正しく答えられる。
  • 思考していないので、解答例のない問題は誤った答えを出力する。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2024年7月 7日 (日)

情シス担当者のための相談所

Dell主催のセミナー「情シス担当者のための相談所」を聞いてきた。

Photo_20240707195001

〇クライアントPC
クライアントPC分野はコモディティ化しているから差別化は難しい。
Microsoft Copilotの試用会をやっていた。

〇サーバー
サーバー分野は、DellがVMWareを手放したことで困惑している顧客は多い。
Azure stack HCIを売ろうとしているようにも見えるが、ユーザは使い慣れたESXiから移行するのは難しいかもしれない。

クラウドブームに乗ってオンプレサーバをクラウドに移したけれど、思ったように効果が出ず、オンプレに回帰するユーザを取り込もうという戦略だろうか。

〇ブースセッション
日本AIコンサルティング
「具体的な導入テーマでわかる!ローカル生成AIから始める企業DXの「今」」
を聞いた。

自社のオンボーディング(新たに加わる人をなじませる取り組み)にローカル生成AIを使用した事例を紹介していた。

客観的データから意思決定の助けとなる情報を見つけるためにローカル生成AIが使用できる。
つまり、様々な場面でローカル生成AIを活用できる。

〇だって楽しじゃない
この会社では、プロンプトからSQLを発行するシステムを作っているらしい。
最近は賢いBIツールがあるから、わざわざ作らなくてもよさそうだけれど、
「だって楽しいじゃないですか」
らしい。👍


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【ほぼ1人情シス】【AI

2024年7月 1日 (月)

Goole検索を使いこなす子供

「Google検索使いこなす子供」に潜む"大きな問題"
検索で出た答えは正しい?若者に必要な視点
前田 圭介 : かえつ有明高等学校・社会科教員 (2024/05/22)

前田 圭介氏は

「タイパ」を意識する若者は粘り強く考えることができなくなっていて、倫理や哲学など答えがない問いを深く考えることが重要ではないか

とおっしゃる。

東洋経済だからだろうか「若者は」というスタンスに違和感を感じる。

若者論
「タイパ」を重視するのは若者だけではないと思う。
年寄りに効率が良い方法と悪い方法どちらを使うか尋ねたら、わざわざ効率が悪い方法を使うという人はいないだろう。

若者はICT機器が使えるから、検索エンジンやAIを使用することで効率を上げることができる。
年寄りは今時のICTの習得ができない(しようとしない)。
効率が良い方法がありながらそれを使えないから、若者論にすり替えているだけではないだろうか。

考えること
タイパを上げるためには、思考を省略しなければならない。
それは例えば、前田氏が指摘する「ネットの情報やAIの出力は正しいとする」ことだ。
「ネットの情報やA Iの出力は正しい」とすれば、それの妥当性を検証しなくて良いから効率的だ。
そして、短時間で情報を引き出す作業は練習すれば早くなる。
つまり、深く考えることなくタイパを上げることができる。

タイパを求める姿勢は、今時の若者に特有の特性でないと思う。
年寄りが若かった頃は、NETもGoogleもChat-GTPもなかったから、本を読むしかなかったけれど、本に書いてあることを鵜呑みにする人は多かった。
「本に書いてあることは正しいと」して、思考を省略していたのだ。

思考の省略
思考を省略しているのは、若者だけではなく年寄りも思考を省略しようとする。

自称評論家の中には、何かにつけ「海外では、欧米では」という「ではの神」がいる。
また政治家や役人は、欧米の施策を真似て「日本版◯◯」という施策を提唱する。
「海外の流行や、施策は正しい」として思考を省略しているのだ。

学校の勉強
受験のための勉強では、理解しなくても正解を答えればよいという風潮がある。
多くの人は理解に必要な期間より受験準備期間の方が短いから、効率良く正答するテクニックを磨くことになる。
それは、最近始まったことではなく何代も前から始まってたのだ。

結論
問題解決のツールとして検索エンジンやAIは積極的に使うべきだと思う。
ただし、学校の勉強とは違って実社会では、検索エンジンやAIの出力をそのまま適用できるケースは稀だから、検索エンジンやAIの出力を参考にして、正解を見つける能力を獲得する必要がある。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年12月21日 (木)

AIが人間を選別

ソニー・プレステを生んだ異端児が予想 AI「が」人間を2つに選別 日経XTREND (2023/10/05)

久多良木健氏は

 自身の教育係に適している“優秀”な人間と、教育係に適していない人間を、AIが分けるかもしれないという話だから、恐ろしい「AIデバイド(格差)」が起こると思うよ。

とおっしゃる。

なるほど。
AIの性能を上げるには、アルゴリズムを改良する方法と良質なデータで学習する方法がある。

AIが自分自身の性能を向上させようとすると、前者の方法はまだ難しい。
一方で、後者の方法は、比較的簡単に実現できそうだ。

AIは学習データの良し悪しを判断することはできないけれど、良い学習データを「特定の用途において効果がある学習データ」とすると、運用結果を測定することで、数値化できる。
良い学習―データが数値化できれば、良い学習データを提供する人間も数値化できる。

良い学習データを提供する人間に報酬を与え、悪い学習データを提供する人間に罰を与えることによって、AIが人間を選別できるようになるかもしれない。

罰を与えると言っても、悪い質問をすると電気ショックを与えられるわけはないだろう。
報酬はリソースの配分として、多くのリソースを割り当てると、
 同じクオリティならば短時間
 同じ時間ならば高いクオリティ
の解答を得ることができる。

つまり、良い学習データを提供する人間には多くのリソースを割り当て、悪い学習データを提供する人間には少ないリソースを割り当てるようにすれば、良い学習データを提供する人間が使いやすくなり、悪い学習データを提供する人間は使いにくくなる。
このようにして、AIが人間を選別できるようになる。

AIに人が選ばれるのはちょっと違和感がある。
しかし、目的があって、それが合理的ならば、人間の違和感は考慮されなくなるだろう。
さらに、経済的に合理性があるなら、人間の違和感は全く考慮されなくなるだろう。

AIは人間の道具ではなく、人間がAIの道具になるということだ。
やはりAIはHAL9000になるのか?


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年12月12日 (火)

Chat-GTPが先生に <独習にChat-GTPを使う>

日経コンピュータ 11/23の特集は「Chat-GTPが先生に」


★AIチャットは独習ができる人に取っては、強力なツールだが、独習することができない人にとっては効果は限定的だ。
★NETを使って初心者の知識でも理解できる情報を見つける能力は、AIチャットでも必要だ


pythonでのプログラミングの学習にAIチャットを使うという企画。
プログラミング経験の無い日経コンピュータの記者2人が挑戦している。
1人は独習、もう一人はプログラミングを習得した人のサポートがある。

初心者が学習する場合サポーターがいた方が理解が早いという(当たり前の)結果だ。
注目すべきは、独習の場合AIチャットは有効ではないということ。

AIチャットの解答には専門用語が多く含まれるから、初心者は読めるけれど理解できない。
サポータや講師は、相手の理解度に応じて専門用語を噛み砕いてくれるけれど、AIチャットは相手が初心者であることを斟酌できない。

AIチャットに専門用語の解説させようとすると、別の専門用語が登場して、わからないことが増えてくることはよくある。
「概要を100字で」とか「1行で」、「小学生がわかるよレベルで」「小学生の語彙で」などプロンプトを工夫する必要がある。

閑話休題

「わかる」ためには

  1. わからないことがわからない
  2. わからないことがわかる
  3. わかる

という段階が必要だ。

「わからないことがわからない」→「わからないことがわかる」と
「わからないことがわかる」→「わかる」では
必要とする情報は異なるから、それを得るためにAIチャットに与えるプロンプトは異なる。

「わからないことがわかる」→「わかる」の段階では、
AIチャットの出力の誤りを発見したり、情報をお取捨選択することができるだろう。
ところが、
「わからないことがわからない」→「わからないことがわかる」の段階では
AIチャットの出力の誤りを発見したり、情報を取捨選択することは難しいだろう。
つまり、AIチャットの出力を自分の知識の範囲で理解できる出力にできるかどうかが重要だ。

よく考えると、
これは、AIチャットを使わない場合も同じことだ。
これまで、「わからないことがわからない」→「わからないことがわかる」状態の時には、知っている人に聞いたり、入門書を読んだり、NETで検索したりしていたが、最近はAIチャットに尋ねる方法が登場した。

知っている人や入門書は、初心者でもわかるように、情報を取捨選択してくれるが、NETの検索やAIチャットは初心者でもわかるように、情報を取捨選択してくれない。
だから、NETを使って初心者の知識でも理解できる情報を見つける能力は、AIチャットでも必要だ。
自分がやっていた作業をAIチャットにやらしたら効率は良くなる。

AIチャットは、自分が望む答えを与えてくれるドラえもんのような存在ではなく自分が望む情報を効率良く探すためのツールでしかない。
つまり、AIチャットは独習ができる人に取っては、強力なツールだが、独習することができない人にとっては効果は限定的ということだろう。

主題から逸れるけれど、
ヘルプデスク的な仕事を長くやっていて感じているのは、Googleは与えるキーワードが同じなら、同じ結果が出力される。(今はGoogleの検索結果は恣意的だけど)
それは、地方でも都会でも同じだし、初心者が入力してもベテランが入力しても同じだ。
なのに、なぜ、見つけられないのだろうかと思っていた。

見つけられない人は、
「わからないことがわからない」→「わからないことがわかる」の段階を
1人で超えることができないのだろう。

おそらく、これまでの教育が
「わからないことがわからない」→「わからないことがわかる」段階
を軽視してきたことで、
誰かがあらかじめ用意した「わからないこと」に対する答えをひたすら記憶することで「わかったつもり」になる習慣が染み付いているからではないかと思う。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年8月31日 (木)

反AI <何に反対しているのだろうか?>

消された少女の“反AI”マーク 「無断改変したのは俺です」 毎日新聞 (2023/8/17)

結論

  • AIは能動的に創作しない
  • 新しい技術を使ったからといって創作物の価値が向上するとは限らない
  • 反AIの人と反・反AIの人は何に反対しているのだろうか

芸術分野でのAIの使用に反対するために描いたイラストを、AI使用に賛成する人がAIを使用して変えて、挑発的なメッセージと共に公開したという記事。

反AIの人は、

「芸術は気持ちや伝えたいことを表現するもの。AIは他人の作品を切り刻むだけで、芸術ではない」

と考えて、イラストを投稿したらしい。

これに対して、反・反AIの人が
AI反対のイラストをAIに入力して作成したイラストと、

 「元の数千倍可愛くて売れそうな絵‼」「『売れる絵』を出せるAIを否定しているんですか」

のようなメッセージと共にブログに公開したらしい。(伝聞です。確認できませんでした)

考えてみた。

★著作権については考慮していません。
★私は反AIでも、反・反AIでもありません。

AIは能動的に創作しない
引っかかったのは

技術をAIに踏みにじられた

の部分。
反AIの人が踏みにじられたのはAIにではなく反・反AIの人の行為にだと思う。

反AIのイラストを描いた人は、「AI」が能動的にイラストを出力すると考えているのではないだろうか?

アニメや映画では、AIやAIを搭載したロボットに人格があるかのように描かれることが多いから、現在のAIにも意思や人格があって能動的に活動すると思っている人は多い。

プロ棋士と囲碁ソフトとの対局をAI vs 人間のように煽るメディアの影響もあるだろう。
AI vs 人間の対局ではなく、自分の頭で囲碁を打つ vs コンピュータを使って囲碁を打つの対局だ。

今のところ、AIは意志を持たないし、創作しない。
あくまで、意識を持っているのは人であり、AIは人が与えた入力と指令に従って結果を出力する。

だから、反・反AIの人が投稿したイラストは、人の創造によるものだ。
AIに何らかの指示を与え、AIの出力を選別する作業を、満足する結果が得られるまで、行っているのではないだろうか?

だとすれば、その行為はAIを道具として使った創作活動ではないだろうか?
それは芸術ではないのか?

つまり、この対立構造は、AI vs AIを使わない芸術家ではなく、AIを使う芸術家 vs AIを使わない芸術家との対立だ。

芸術と経済性
芸術は純粋に芸術だけでは存在できず、少なからず経済活動と関係があるので、芸術と経済性を完全に切り離して考えることはできない。

毎日新聞の記事によると反AIの人は、

「長年培ってきた技術をAIに踏みにじられたように感じる」。女性は悔しさをにじませた。

らしい。
この感情は純粋に芸術的な側面ではなく、自身が獲得した、売れる・ウケるイラストを描く技術の価値がAIによって低下することに対する感情ではないだろうか。

また、反・反AIの人は

 「元の数千倍可愛くて売れそうな絵‼」「『売れる絵』を出せるAIを否定しているんですか」

らしいので、絵を経済価値で評価しているようだ。
反AIの人も、反・反AIの人も絵の経済価値を重視しているようだ。

技術は新しい技術の前に陳腐化する。それはAIに限らない。
そして新技術を使うと生産効率が向上する。

工業製品のようにアウトプットが一定ならば、生産効率が向上すると経済価値も向上する可能性は高い。
しかし、イラストを工業製品ではなく芸術的な創作物と捉えるとアウトプットは均一ではない。

また、芸術は鑑賞する人がいるから、鑑賞する人によってその評価は様々だ。
つまり、新しい技術を使ったからといって創作物の価値が向上するとは限らない。

AIを使っても使わなくても
AIを使っても使わなくても『売れる絵』が出せるとは限らないし、AIを使っても使わなくても『売れる絵』が出せないとは限らない。
売れる、売れないではないならばどちらも芸術だと思う。

反AIの人と反・反AIの人は何に反対しているのだろうか?

まとめると

  • AIは能動的に創作しない
  • 新しい技術を使ったからといって創作物の価値が向上するとは限らない
  • 反AIの人と反・反AIの人は何に反対しているのだろうか

毎日新聞の記事が見えなくなったときのためのアーカイブへのリンク(https://archive.is/cUDrw


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年6月 5日 (月)

さつきあい <AIで作成されたグラドル>

週刊プレーボーイがAIで作成されたグラビアアイドルをデビューさせたらしく、炎上している。
賛否両論あるようだ。

〇著作権侵害問題
今は引退した実在のグラビアアイドルに似ているという意見がある。
人の顔を覚えることが苦手なオヤジが見比べた感想は、似ているような似てないような...

週刊プレイボーイのTwitterでは
「オトコの理想をギュギュッと詰め込んだ“たぬき顔”の“妹系美少女”」
らしい。
学習に使用したデータを公表していないので、特定のモデルの画像を多く学習させ〇〇似の画像を作ろうとしたのか、たぬき顔妹系美少女を作ったら、実在のモデルに似たのかは不明だ。
いずれにしても、たぬき顔妹系美少女モデルの誰かに似てくるのではないだろうか。

著作権、肖像権の問題に興味があったので調べてみたら、こんなサイトと見つけた。

著作権に詳しい福井弁護士はChatGPTをどう見る?
利用するにあたり重要な4個の視点と3個の著作権問題
 骨董通り法律事務所 代表 福井 健策 (2023/05/30)

著作権法では「他人の著作物を機械学習など解析できる」が、「著作権者の利益を不当に害することとなる場合は、この限りでない」らしい。
つまり、ケースバイケースで判断するということか?

〇AI出力の著作権
AIの出力には著作権は無いのかと思っていたのだが通説では、

「単純な指示だけでAIが自動生成したものは著作物ではない」
「人間がAIをツールとして自らの創作的寄与で作品を作ったなら著作物」
らしい。

とすると、さつきあい はおそらく単純な指示ではなくAI絵師や呪文者が創作的寄与しているのだろうから、著作物だろう。
著作物であれば、写真集で商売ができる。その代わりに、著作権侵害問題に対応しなければならない。

生成系AIを使ったグラビアアイドルの創造はメリットもリスクもよくわからないことが多いが、炎上したので、集英社としては目論見通りだろう。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年5月21日 (日)

"AIアナ"は味気ない?

露木茂、NHK〝AIアナ〟は「味も素っ気もない。つまらない」 サンスポ (2023/05/05)

露木茂氏は「味も素っ気もない」とおっしゃる。
AIが「行間」を扱えるようになると、感情を伝える用途に使えるようになるのではないかと思う。

閑話休題

情報を誤りなく伝えるアナウンスと、背景や感情なども伝えるナレーションは、どちらも原稿を読む仕事だけれど異なる。

NHKは合成音声での放送に積極的なようだ。
情報を誤りなく伝えることが求められる、株式市況は2014年から、気象通報は2016年から実用化されている。
しかし、合成音声でのナレーションは難しいように感じる。

感情は同じ単語、文節でも文脈によって異なるから、文章から人間が多く感じるであろう感情を判定しなければならない。
つまり、行間を読む必要がある。
学習に必要な大量の「行間」に関する教師データの用意は難しいと思う。

気象通報をYoutubeで見つけたた。気象通報は地名と風向、風力、天候を読み上げる内容だ。
合成音声(2020/11/02)アナウンサー(1988/8/17)を聴き比べると、ヒント無しでは合成音声か肉声か分からないレベルだ。

「~のかぜ、ふうりょく」の部分がアナウンサーの肉声の方が好きだ。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2023年5月12日 (金)

AI作成画像と有名写真コンテスト

AI作成画像、有名写真コンテストで最優秀賞を獲得 作者は受賞辞退 BBC NEWS JAPAN (2023/4/18)

芸術は人工物、自然は芸術ではない。でも感じる人次第だ。

このニュースは創造する側の観点で語られているけれど、鑑賞する側の観点で語っても良いのではないか。

鑑賞する側は、人の創造物でなくても良い、神の創造物である自然でも良い。もちろんAIの出力でも良い。

世の中には、色々なコンテストがあるけれど、芸術に優劣を付けられるのだろうかと思う。
コンテストや賞は、作者や作品に権威付けして、作品の相場を保とうとするものという考え方は穿った見方だろうか。

人の創造物という芸術の側面が重視されると、その価値を金で計ろうとする者が現れる。金銭的価値は希少性と排他的所有性だから、金銭的価値が重要な人たちにとってAIは脅威だ、大量生産が可能だから希少性も無くなるし、デジタルデータだから排他的所有もできない。(NFTもあるけれど...)

AIの出力は写真と言えるかという問いは、鑑賞する側には無意味だ。
その作品を見て何を感じるかは、作者やコンテスト主催者が立ち入ることができない領域だから。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI