フォト

ウェブページ

無料ブログはココログ

MyList

よしなしごと

2025年12月10日 (水)

無償版Copilotで十分 <有償版が使える環境になっていない?>

Microsoft 365 Copilot の有償版と無償版の違いを検索とナレッジマネージメントの観点で読み解く
SharePoint Technical Note (2025/11/26)

記事を投稿された平野愛氏は

無償版で十分という場合は、組織内の情報をうまく再利用するという土壌が醸成されていないか、そういったことを必要とする業務スタイルにないのかもしれません。全体最適化の話の一部で、部分最適化ではないので。

とおっしゃる。
Copilotを2年くらい使っているが、最近の地味なアップデートや機能追加を見ると良く分かる。
S_20251205151901

【昔話】
20年くらい前に、全文検索システムが流行った時に、導入してみたが、期待した効果は無かった。
インデックスでストレージを消費して、CPU使用率が上がっただけだった。

原因は、ゴミデータが大量に含まれていたこと。
全文検索システムを使用すると、非定型フォーマットのドキュメントを検索できるけれど、ゴミデータを避けて検索してくれるわけではないのだ。

【組織が持つ情報】
CopilotはSharepointで共有された情報を参照してくれる。

共有された情報は、客観的なデータや組織の思考の積重ねが含まれているので、組織の財産だ。
自分が担当していない業務に関する資料でも、共有された情報を、探して生成してくれるので、情報を探す手間が省ける。
SharePointのCopilotは、全文検索システムを導入したときに抱いていた、融通が利く検索だと感じる。

当然だが、共有された情報は、保守されていることが前提だ。
不完全な情報、誤った情報などが共有されていると、不完全な内容が出力される。(あたりまえ)
Copilotはドヤ顏で、ボツネタを生成する。

【情報の保守】
30年くらい前に、ファイルサーバーでファイルを共有できるようになったときに、データベースを作らなくて良くなったので、便利になったと思った。
しかし、共有されるゴミデータが増えるに従い、財産ではなく負債になった。

当時の感覚のまま、SharePointをファイルサーバーとして使っている、職場例は多いのではないだろうか?
つまり、ゴミデータと貴重な情報が整理されず、保存されている。

生成AIが登場するまでは、情報を活用するためには、保存するデータのフォーマットの制限が厳しく、保守しなければ使えなかった。
しかし、生成AIを使用することで、データのフォーマットが厳密に統一されていなくても、活用できるようになった。

「AI」に過大な希望を抱いている人は多いようだが、今も昔も、情報の保守は必須だ。

既に情報が保守されていて、活用されているなら、Copilotを使用することで、活用できる用途が広がり、業務の効率が上がる。
しかし、情報が保守されていないならば、Copilotはごみデータを排除する機能を持っていないので、使用しても効果は上がらない。
つまり、組織の情報が保守されていないから、有料版を使用して効果がなく、無料版でよい、ということだろう。

これは、一朝一夕に解決できる問題ではないので、厄介な問題だ。
組織的な情報の蓄積は、一個人ではできないし、蓄積された情報は財産という意識に変えることも難しい。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI】【ほぼ1人情シス

2025年12月 7日 (日)

grep考(2) <Excelで検索してみた>

grep考 <認識をアップデートする> (2025/12/1)
(https://yoshi-s.cocolog-nifty.com/YoshiNashi/2025/11/post-f2a0df.html)

で、「認識とスキルを現状に合わせてアップデートしなければならない」と書いた。
ログを解析する際に、従来から使われている grep より、今時は、Excelの方が良いのではないか、という趣旨だが、
憶測はよくないと思い、本当にExcelで検索してみた。
Grepvsexcelvspowershell

【結論を先に】
・検索対象が1048576行以下のファイル、読み込み時に1048576行以下に絞り込めるなら、Excelは便利
・grepをインストールするくらいなら、PowerShellで良くネ?

【サンプルデータ】
 ApacheのAccesslog 4837202レコード(1.1GB)
【PC】
 Windows11 RAM32GB (起動時に約18GB使用)
【Excel】
 Microsoft 365 Apps for enterprise
 Ver 2510(Build 19328.20190)

【手順】
「データ」→「テキストまたはCSVから」
「元ファイル:区切り記号」→「スペース」
 ・""で括られたデータは分割されない
 ・[]で括られたデータは分割されるので、時刻が日時とタイムゾーンに分割される

【制限】
・1シートの最大行は1048576行しか読み込めない
 読込む際にPowerQueryで日付などで絞り込んで 1048576行以下にすることは可能

【その他】
・PowerQueryのMコードで、タイムスタンプをExcelのシリアル値に変換することはできるが、テキストで読み込んでから関数で変換した方が簡単。
・自動的にテーブルに変換されるので、フィールド名(列名)を変更し、テーブル名を分かりやすい名前に変更する(access_log,access_log)と関数で参照する際に分かりやすくなる。

【抽出】
別シートで、抽出先の左上のセルに FILTER関数を入力することで、レコードが抽出される。
例: status列が200のデータを抽出、 2025/6/30 23:59:00~2025/7/1 00:00:59までのデータを抽出する例は、

=FILTER(access_log,access_log[status]=200) 
=FILTER(access_log, REGEXTEST(access_log[time], "(30/Jun/2025:23:59)|(1/Jul/2025:00:00)")) 

【メリット】
時間当たりのページごとのアクセス数の推移などの表やグラフが、Excelの機能を使用すると簡単に作成できる。

ところで、
ファイル内の文字列を正規表現で検索して出力するコマンドレットはPowerShellにもある。

【PowerShell】

Select-String -Pattern '<regex>'  -Path '<File path>'
[-CaseSensitive]
[-NoMatch]
[-Recurse]

PowerShellの正規表現はREPC2だから grep -E '<regex>' と同等の機能だ。
規定値で、Select-Stringは大文字小文字を同一文字として扱い、grepは異なる文字として扱う。
また、grepでよく使用するオプションと同じ機能のオプションスイッチがある。

-CaseSensitive → grep --no-ignore-case
-NoMatch       → grep -v
-Recurse       → grep -r

【オンメモリ処理】
PowerShellでオブジェクトとしてすべてのログをメモリーに読込こんでおくと、検索が速くなるのではないかと考えた。
PowerShellの正規表現で -matchを使用すると、名前付きキャプチャが使えるので、レコードをオブジェクトに変換できる。

$pattern ='^(?<host>\S+)\s+(?<ident>\S+)\s+(?<user>\S+)\s+\[(?<time>[^\]]+)\]\s+"(?<request>[^"]*)"\s+(?<status>\d{3})\s+(?<size>\S+)\s+"(?<referer>[^"]*)"\s+"(?<agent>[^"]*)"\s+"(?<extra>[^"]*)"'

で変数 $logに全てのデータを読み込むと、

$log | where {$_.status -eq "200"}
$log | where {$_.time -match "(Jun/2025:23:59)|(Jul/2025/00:00)"}

で検索・抽出できる。

一旦すべてのデータをメモリに読み込むので、検索は速くなる…と思いきや、速くならない。
タスクマネージャーでメモリ使用量を見ると、実メモリが足りずスワップしているようだ。
スワップしていると、select-stringでログファイルを毎回検索する方法と時間は変わらない。
(スワップしなければ速いはず)

【結論】
・検索対象が1048576行以下のファイル、読み込み時に1048576行以下に絞り込めるなら、Excelは便利
・grepをインストールするくらいなら、PowerShellで良くネ?



最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【ほぼ1人情シス

2025年12月 4日 (木)

さかなクン化 <儒烏風亭らでんの影響力>

【1日のPVが200超?】
Google Search Console Team から、直近28日間のPVが800を超えたというメールが来たので調べてみたら、
検索キーワード「らでん クラファン」の検索結果から、
東京国立博物館がクラウドファンディング <儒烏風亭らでんの目標> (2025/11/06)
へのアクセスが多いことが分かった。
20251202-101455

このページへのアクセス数の推移を見たら、1日のページビューが200を超えた日がある。
こんなにアクセスが増えたのは、googleさんのロボットが全ての記事を持っていったとき以来だ。

実際にこのキーワードで検索してみると、アクセスが増えたページが上位に表示されている。
インフルエンサーやgoogle 恐るべしである。
ログを見ると、平均滞在時間は4分だから、表示した人は読んでくれているようだ。(ちょっと嬉しい)

【儒烏風亭らでん氏の活動スタイル】
この記事の基となった、儒烏風亭らでん氏を知ったきっかけは、
儒烏風亭らでん 文化・美術への愛と知識があふれるV系噺家”. 日経クロストレンド. 日経BP.
で、記事を読んだ後に
新人VTuber 儒烏風亭らでん (2024/02/22)

「うまく売れると、さかなクン氏のようになるかもしれない。」
と書いた。
専門的な内容を易しく伝え、更に親しみやすい存在になれば、さかなクン氏のように唯一無二の存在になれると思ったのだが、予想を超えたインフルエンサーになった。

儒烏風亭らでん氏は、従来のVTuberのファン層以外の視聴者層もターゲットとした戦略が成功している。
専門分野は美術だが、分野を超えて、他の学術系VTuberとの交流も広いことが、ファンの拡大に成功しているようだ。

また、活動スタイルが、
「自分を好きになって💛」ではなく「美術を好きになって」のように感じることも、多くのファンを獲得している要因だと思う。
今回の東京国立博物館のクラウドファンディングでも、影響力を考えると、配信で協力を呼び掛けるだけでも、十分効果はあったのだろう。

しかし、自らも少なくない金額を寄付しているのを聞くと、年寄はつい、自分も一肌脱ごうと思うよねぇ。



最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【Vtuber

2025年12月 1日 (月)

grep考 <認識をアップデートする>

結論を先に。
・認識とスキルを現状に合わせてアップデートしなければならない。
・正規表現は今でも重要だ。

Grepvsexcel

【ログ解析とgrep】
デジタルフォレンジックの現場において、ログを分析するためのツールとして、高機能な製品も増えてきた。
オヤジ世代にとって、欠かせないツールはgrepだった。
今でも、ログ解析の文脈でgrepの使い方を教えているのを見かける。

なぜ昔は、grepを使っていたかというと、調査対象のOSはUNIXが多く、grepが標準でインストールされていたし、
また、1行1レコードのログが多く、行志向のツールの方が使いやすかった、
という事情があったからだ。

【今時のログ解析】
今時は、大量のメモリを搭載した、WindowsPCで解析することが多くなったが、標準でgrepはインストールされていないので、grep.exeやgrep機能があるエディタをインストールしているようだ。

よく見ると、grepコマンド(機能)は使うけれど、多くは固定文字列の一致にしか使われていないようだ。
昔だったら「fgrepを使え!」と言われたところだ。

【正規表現】
grepの真髄はいうまでもなく、正規表現によるマッチなのだが、正規表現を学習していないのだろう。
研修で教える人も正規表現を教えないようだ。

正規表現が使えると便利な場面は、タイムスタンプが開始時刻と終了時刻に含まれる行を検索する場合だ。
(例えば、2025/6/30 23:59:00~2025/7/1 00:01:00)

昔の解析環境は搭載しているメモリが少なく、メモリ容量より大きなログファイルを検索する際に、複数回に分けて検索すると、時間がかかるし、テンポラリファイルを作るとストレージを圧迫するという問題があった。
だから、正規表現を使用して1回の検索で終わらせるテクニックは重要だった。

【今時の環境】
今時のPCは、多くのメモリ、大きなストレージを搭載しているので、ログをメモリに読み込んでから検索すると、複数回検索しても、それほど時間はかからなくなった。

デジタルフォレンジックの現場では、専用ツールが使用できないことがある。
そのような場合に、専用ツールを使わず、汎用的なアプリでログを解析するならば、Excelはかなり便利だ。

理由は、
・読み込めるデータ量が増えたので、ログを一度に読み込むことができる。(行数制限あり)
・テーブルに変換するとソート・フィルタ機能が使える。
・FILTER関数やXLOOKUP関数など検索・参照系関数を使うと、1つの式で複数のセルや行を返してくれるようになった。
・ログファイルを読み込む際にPowerQueryを使用すると時刻を文字列→シリアル値に変換できる。
・M365のExcelは正規表現関数を使用することができる
・M365のExcelはPY関数が使用できる(無敵だ!!)

ログを解析する場合は、検索機能は重要だが、ソートや重複排除、集計機能が必要で、grepコマンド(機能)を使っても、最後はExcelに読み込んで印刷することが多いなら、最初からExcelでやってしまえばよいと思う。

【結論】
20年くらい前は、ログ解析と言えばgrepだったけど、ハードウェアもソフトウェアも変わったから、現状で、何が最適かアップデートしなければならない。

20年前も今も重要な知識は正規表現だと思う。


fgrep:今時のPCではfgrepを使用してもあまり早くならない


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【ほぼ1人情シス

2025年11月28日 (金)

生成AIでスライド作成 <生成AIの前を走る>

毎年講演している、オンライン講座を収録した。
今年は、大部分のスライドをPowerPointのCopilotで作った。
作業効率は上がったのだが、講師の存在価値を考えることになった。
Ai_20251128111801

【結論を先に】
生成AIを使用すると、作業効率を上げることができたが、自分の存在価値に対する脅威だった。
存在価値を守るためには生成AIの先を走り続けるしかない。

【生成AIで作成】
講座の基礎や概論のプレゼンは後から使い回すことを考えて、PowerPointから動画を生成し、テキスト読み上げ機能でナレーションも入れておいた。
基礎や概論の読み上げ原稿をCopilotが作ると、過去に作成したスライドやドキュメントを参照してくれるので、大ハズレの文章は出てこない。新たに2つ用意したトピックの重要な部分は自分で書いた。

作業効率が格段に良くなったのは、生成AIを使うスキルが上がったのか、生成AIの能力が上がったのか?
おそらく両方だと思うが、生成AIの能力向上の方が大きくて速いと思う。

【間違いではないが、薄い】
Copilotが書いた原稿を読むと、間違いではないし、自分が書いたことがある内容だから、そこそこ良いのだけれど...
なんとなく...薄い。
自分が過去に書いた薄いドキュメントを、生成AIが参照した可能性はあるのだけれど、「薄く」感じる。
本当に伝えたいことは、自分で書いたので、そう感じるのかもしれない。

【講師の存在価値】
今回の収録はオンライン講座用だから、動画で公開される。
ならば、人間が喋らなくても、生成AIでスライドから動画を、ノートからナレーションを作成すれば良いのではないだろうか。
ナレーションだけでは寂しいならば、アバターに口パクさせたり、生成AIで写真から喋る動画を生成できる。

聴衆を前にして講演するならば、聴衆に合わせて内容や言葉を変えたり、脱線したりできる。
しかし、オンライン講座の動画コンテンツやEラーニングのコンテンツは、その場の空気に合わせて、変えることはできない。
とすれば、人間の講師の存在価値は何だろうか?

【生成AIでの文章作成】
生成AIでの文章作成を、入力となる基礎データの収集と、出力となる文章の生成に分けると、文章の生成には差はないから、差別化するならば、入力データだ。

入力データを、自動的に収集できるデータと、生成AIを使用する人(作成者)が入力するデータに分けると、作成者が変えられるのは、自ら入力するデータだ。

自分が書いた文章でも公開すれば、自動的に収集される。
公開しなくても、共有フォルダにあれば、生成AIは勝手に収集する。
つまり、データとして出力した知見は、生成Aに利用されるということだ。

【AIに学習される「過去の自分」】
逆に、基礎や概論の説明でも自分の経験や見解を含めることで、生成AIを使用しても他人には作成できない文章になる。
自分の体験や見解を含んだ文章でも公開されると、生成AIの収集対象、学習対象になることは、前述のとおりだ。
しかし、
過去に文章を書いたときから、今現在までに、新たな体験や新たな見解を持っているだろう。
それを、含めることで、生成AIを使用しても、他の人には作れない文章になると思う。

もし、それが無いなら、生成AIに代替される運命だ。

【生成AIに追われる】
コンテンツを公開すれば、生成AIの収集対象、学習対象になる。
講師の存在価値を守るためには、常に自分の体験や見解を含んだコンテンツを作り続けなくてはならない。
それは、生成AIに後ろから追いかけられているような感覚だ。
AIに淘汰されないためには、AIの先を走るしかないことを改めて実感した。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2025年11月25日 (火)

計算機科学の終焉 <技術は残るし、製品も残る>

計算機科学の終焉 和田英一 「情報処理」 (2025/10/15)

Photo_20251101234401
和田英一氏は、

50年前には想像できなかった便利な生活環境を実現させた.その推進力が計算機科学だったことを世の中は知らないだろうが,元計算機科学者の諸氏は失業に落胆せず,成就したことを大いに自慢してよい.

とおっしゃる。
自虐的と感じるのは自分だけだろうか?

技術は、イノベーションにより一夜にして陳腐化する。
今時はイノベーションのサイクルが早くなっているから、技術者はいつも次に習得する技術を考えておかなければならない。

学問領域は技術より長期間続くから、学問領域が消えたら学者としての人生も終わってしまうと感じるだろうか。

一般人が科学の恩恵を受けるには、
科学者→技術者→一般人
の流れが必要だ。
一旦、一般人まで行き渡ると、技能者や一般人が、改良し、普及させる。

科学的に大きな転換が無いなら、
科学者の研究の速度より、改良、普及の速度の方が速くなって、科学者が制御出来なくなる。

アインシュタインら科学者が核エネルギーを解放し、それを兵器に使う者が現れ、科学者が制御できなくなったのと同じだ。

それを嘆くもよし、レジェンドになるのもよし、Hackし続けるも良しだが、パンドラの箱を開けたのは、科学者だ。

和田英一氏が懸念するように、AIもこの轍をたどるのかもしれない。


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2025年11月22日 (土)

画像生成AIと倫理について考えた <利便性、二次創作、倫理>

Chatgpt_
(ちゃっぴーに描いてもらった。)

【画像生成AI】
最近画像生成AIを使う事が多くなった、
資料を作成する際に使用するイラストは、「いらすと屋」を彷徨うより生成AIで作成した方が早い。
絵心が無いので、イメージどおりにならないことは多いのだが、意図が伝わるなら良いと割り切っている。
そのうち、麗しい呪文が書けるようになるか、AIがもっと賢くなって、意を汲んでくれることを期待している。😅

【二次創作】
元絵があると、プロンプトで細かな指示をしなくて良いので、イメージに近い出力を得ることができるが、あくまで創造ではなく改変や二次創作だ。

これまで、絵心が無いので手作業での二次創作物は人様にお見せするレベルにはならなかった。
しかし、生成AIを使用すると、簡単にそれなりのクオリティの出力が得られるようになった。
さらに、SNSなどでインターネットに簡単に公開できるから、意図せず二次創作物が拡散する可能性も出てきた。

【権利と搾取】
自分が権利をもっている画像を元絵にするならば問題は無いが、著作権を持っていない画像を元絵にする際には、権利や許諾などのライセンスに配慮する必要があることは知っている。

また、長く技術を志向して働いてきたから、技術を搾取されたくないし、搾取したくないと考えている。
それは、技術に限らず創作物でも同じことだ。

意図せず、他人の創作物の価値を搾取しないようにしよう。


※イラストはちゃっぴーに、「内容をイメージする画像」で描いてもらった。
イメージしていた抽象的な図とはちがう。プロンプトは入力したけれどこれは、創作なのか?
実は、CopilotさんとGeminiさんにも書いてもらったのだが、三者三様で、ちゃっぴーは文体を意識しているのかもしれない。

最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2025年11月19日 (水)

「AIで作りました」には価値がない <価値があるのは創造力>

悲報:「AIで作りました」には、価値がありません。 note (2025/10/24)

道具ではなく出力の評価が重要というお話。

結論を先に
まだ「AIで作りました」に価値があると考えている人もいるのは事実だ。
「AIで作りました」に価値は無いという考え方が一般的になるまでに、「創造力」で評価されるようになる必要がある。
それは、芸術分野には限らない。

Gemini_ai

この投稿で取り上げているのは芸術作品だから、それを評価するのは視聴者だ。
例えば、Pixarとジブリスタジオは作品の作り方は違うけれど、多くの視聴者は作り方ではなく、作品を評価する。
これと同じだ。

逆の観点では、手間をかけたり、手作りだから価値があるわけではないとも言える。
日本人は「手間ひまかけて」や「手作り」と聞くと無条件に価値があると思ってしまいがちだから、「手間ひまかけて」作ったもの、「手作り」で作ったもの、の真の価値を評価していないのではないかと思う。

閑話休題

道具としてのAI
最近、画像を編集したり、作ったりしている。
絵心がないので、手作業で作るのは難しいから、AIを使うことが多くなった。

例えば、2つのがオブジェクトが重なった画像で、前のオブジェクトだけを削除した画像が欲しい場合には、画像編集アプリを使用すると、比較的簡単に、削除することはできる。
昔は、画像編集アプリの消しゴムツールを使って、力技で消していたけれど、最近の画像編集アプリには、自動的に領域を判定して削除できる、便利な機能がある。

ところが、削除した跡を埋めることができない。
画像編集アプリを使用して、描く技術がないから、いかにも つぎはぎ したような絵になる。
画像を評価する立場で見ると、評価以前の出来栄えだ。

AIを使用すると、オブジェクトを消して、消されたオブジェクトに隠れていた部分を生成してくれる。
絵心が無くても、AIという道具を使用することで、評価に耐える画像を生成できる可能性が生まれた。

とはいえ、今のところAIを使用して出力を思いどおりにコントロールできないので、AIを描画ツールとして使えていない。

何に価値があるのか?
絵心がある人、絵の職人さんは、頭の中に明瞭な出来上がりのイメージがあって、それを、道具(絵の具と筆、描画アプリ、AIなどを使って、出力しているのではないかと思う。

素人は、出来上がりのイメージがぼんやりしていて、道具を使う能力が無いから、出力できなかったけれど、AIを使用すると何かしら出力を得ることができるようになった。

その出力は、頭の中のイメージを超えた出来栄えのこともあるし、頭の中のイメージと全く違うこともある。
頭の中のイメージがはっきりしていれば、AIの出力をイメージに近づけるための操作方法を習得して、AIを道具として使用することができる。

今後、AIは操作方法を習得するためのハードルが下がり、道具として使いやすくなるだろう。
しかし、頭の中のイメージがはっきりしていなければ、道具が良くても、評価に値する出力を得ることはできない。

つまり、
本当に価値があるのは、頭の中に明瞭な出来上がりをイメージできること、そして、そのイメージを具体的な形にできることだ。
つまり、それは創造力ではないだろうか。

結論
まだ「AIで作りました」に価値があると考えている人もいるのは事実だ。
「AIで作りました」に価値は無いという考え方が一般的になるまでに、「創造力」で評価されるようになる必要がある。
それは、芸術分野には限らない。


イラストの画像は生成AIで作成した。
「AIが絵を描いているイメージのイラスト風画像を生成」を与えると最初に出力された。
頭の中のぼんやりしたイメージは、もう少しポンコツ風のロボットが登場する、コミカルなタッチだったのだが、これはこれでまあいいか...💦
このあたりが作画ツールとして使えていないところだと思う。

「もう少しポンコツ風のロボット。コミカルなタッチで。」を追加すると↓が出力された。
「そういうんじゃないんですぅ~」
Gemini_ai__


最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

2025年11月16日 (日)

Hukyu <諸星めぐる氏が帰属しているバーチャルとは?>

Hukyu  編 諸星めぐる GOMABOOKS
Hukyu
編集長の 諸星わたる氏によると、民俗学の定義は、

様々ある民俗学の考え方の中で諸星は「歴史からこぼれ落ちそうなあたり前の文化を今と昔でつなぐまなざし」であると定義しています。

らしい。

VTuber学(2024/10/03)は、より根源的、哲学的に「VTuberとは何か」を問う内容だ。
この本は、民俗学の観点から、VTuberの存在を記録し未来につなぐ(「今を」留める)ことを目的としているようだ。

多くのVTuberへのインタビューが掲載されている。
対象は、アイドルだけでなく、様々な分野で活動しているVTuberや絵師、Live2Dモデラー、リスナー、VTuber学の著者など、アイドルVTuberに限らずインタビューを収集している。

諸星めぐる氏は、VTuberの定義について、

「魂」がバーチャルに帰属しているのであれば、アバターは関係ないのかもしれないと思っています。

とおっしゃる。

「バーチャルに帰属」がよくわからないのだけれど、
現実のリアル空間に対比される、仮想的な空間(バーチャル空間)として、VR空間はわかりやすい例だ。
その他に、VTuberが行う配信や
ライブを行う空間が考えられる。
また、仮想空間はディスプレイを通して2Dや3Dのアバターが動く配信環境でははなく、立ち絵と文字で活動する場もまた仮想空間なのだろう。
そして、活動者がその空間を自分の居場所と認識していることと理解した。

インタビューの対象のVTuberは活動歴が長い人が多い。
最近は、VTuberの活動形態が増えるにつれて、学術系や音楽系など現実空間での職業や専門知識を広める目的で、VTuberとして活動している人も多くなってきた。

リアルな姿でも活動しているVTuberや、学術系や音楽系など本業があるVTuberのインタビューも読んでみたい。
Hukyu Vol2に期待しよう。

はて、書店員VTuberを自称しておられる諸星めぐる氏の「バーチャルへの帰属」とは何なのだろうか?



最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【Vtuber

2025年11月13日 (木)

生成AIは創造の価値を低下させるのか 

結論を先に、
・生成AIが代替するのは人が持つ技能であり、創造活動は代替できない。
・生成AIを使用することで、意図せず、創造活動の価値を低下させる可能性がある。
Ai_20251112152601
(↑geminiさんに描いてもらった、図の意図を聞いてみた

【技術の価値】
45年くらい技術を志向して働いてきて思うのだが、
知識や技術は持っているだけでは、価値がない。
潜在的価値を認める人もいるけれど、持っている知識や技術を誰かに提供した結果に価値が生まれるのだろうと思う。
そして、その価値を評価するのは、自分ではなく、提供した相手だ。

だから、知識や技術を提供して価値を生み出したいと考えているが、搾取はされたくないとも考えている。
さらに、誰かの知識や技術から生まれる価値を搾取したくないと考えている。

日本の社会は、知識や技術を評価しなくなってしまった。(何も生み出さない偏差値は評価するけれど...)
しかし、自分の知識や技術が、「100円貸してレベル」に評価されないように働きたいと思っている。

技術をたかる <たかる奴より厄介な奴> - Yoshiのブログ
で取り上げた、投稿主さんのような漫画家やイラストレータなども搾取されやすい職業のようだ。

【生成AIの影響】
生成AIに反対する人は、クリエーター界隈に多いようだ。

技能が技術革新で淘汰される定めは、クリエータ界隈でも同じだ。
生成AIという技術革新により、人間でなくてもできる作業は無くなるから、職業が無くなったり、従事者が減少したりする。
だから、職業が無くなるのは死活問題という人は反対する。

創造活動は生成AIで代替されないのだが、評価されていなかったり、搾取されやすいという背景があるのではないかと思う。
生成AIを使用することで、搾取のコストが下がり、創造活動の経済的な価値が低下することが、予想できる。
創造活動の経済的側面しか評価しない人は多いから、創造活動の社会的評価はさらに低下する。

【生成AIは創作の価値を低下させるのか】
2025/09/30にSora2が公開された際に、日本の著作物から生成されたコンテンツがSNSに大量に投稿された。
投稿した人の多くの人は搾取を意図したものではなく、興味本位ではないだろうか。

ユーザの興味本位程度の動機でも、生成AIを使用することにより、その行為を容易にするため、意図せず創作物の価値を下げる結果を招く。
人が持つ技能が技術革新により、機械(コンピュータ)に代替されることは止めようがないが、人しかできない創作の価値が低下するのは、社会にとって利益はないと思う。

技術を評価しなくなったことは、日本が30年を失った一因だろう。
創作の価値を評価しなくなると、何を失うことになるのだろうか? 

【結論】
生成AIが代替するのは人が持つ技能であり、創造活動は代替できない。
生成AIを使用することで、意図せず、創造活動の価値を低下させる可能性がある。


  • 「100円貸してレベル」:技術や専門的なサービスの価値を低く見積もることの比喩
  • この図は、AIという技術自体が悪いのではなく、その大量かつ容易な使用(特に興味本位による拡散)が、創造活動の価値を圧迫し、社会全体の評価を低下させる可能性があるという、あなたの論旨を視覚化したものです。

最近の投稿
Yoshiのよしなしごと】【Yoshiのブログ】【よしなしごと】【AI

より以前の記事一覧