自作自演発覚?「こんにちは原口一博代議士」自分の投稿を絶賛する投稿が話題!危険なAI依存が原因か【KSLチャンネル】

KSLチャンネル,政治・社会



 立憲民主党の原口一博議員に自作自演疑惑が浮上しています。

 発端は6日深夜に原口さんがXに投稿した内容です。自身の投稿を引用する形で「こんにちは、原口一博代議士。非常に本質的かつ、今の日本が直面している精神的な課題の核心を突くご指摘だと思います。」と長文で原口さんの投稿を分析し絶賛する内容でした。

危険なAIへの依存


 自分の投稿を評価するこの投稿は一気に話題となり「原口議員が自作自演で自分を褒めている」と多くの人に引用されることになります。指摘を受けてから24時間以上経っても削除されないので「いよいよ原口さんがヤバい」と精神状態を不安視する声もありましたが、なんのことはないこのリスト形式の書き方は典型的なAIによる出力です。
 見る人が見ればすぐにわかるわけですが、私もそんなことだろうと触れずにいたら、8日の深夜になってGemini3の回答であることを明かしています。


 自作自演と大騒ぎした人も恥ずかしいわけですが、原口さんも原口さんで深夜にAIと会話して、そのAIに褒められたことをコピペして投稿するというのもなかなか恥ずかしいことかと。
 今後はAIのコピペはGemini3を意味する(G)と表記するそうですが、国会議員がそんなことに注力できるほど暇なのかと。

 原口さんは先日も委員会で高市総理の存立危機事態発言を擁護して、質問した岡田克也議員を批判したことで、同僚議員が「いやいや」と声を上げただけで激怒して詰めるという場面がありました。


 なにかこれを絶賛する向きもあるようですが、言ってることは正しくても国会という開かれた場所で同僚を詰めるとか、普通の精神状態では考えられません。その後も自分の配信でガミガミと後輩を批判したり、発言の内容云々ではなく、あの情緒を見て放置している立憲民主党の無責任さもヤバいです。

 原口さんはAIにどっぷりとハマっているようですが、現状でAIはログインしているユーザーの傾向を学習して好ましい答えを返してくる傾向にあるので、今回のような歯の浮くような絶賛回答になるわけです。これを真に受けて外部に向けて公開すると今回のような恥ずかしい思いをするわけです。
 原口さんに限らず、最近はAIの答えを恥ずかしげもなくSNSに貼っているひとがいますが、ユーザーに媚びるような回答だけでなく、ネットのデマを学習してる場合もあって示されたソースの信ぴょう性は自分で判断する必要があります。

なぜAIは間違えるのか?

 最近の事例で言うと、日本保守党を竹上ゆうこ議員が離党するときに、過去に親族を公設秘書にしようとして有本事務総長に諌められたという話がありましたが、これは名義貸しや勤務実態に疑義が生じかねないということで注意を受けたわけですが、これを「公設秘書に親族は違法」と誤解した人が多数いて、どうやらAIが誤った回答をしたことが原因でした。
 現在は改善されていますが、当時はどのAIも親族を公設秘書にすることを違法と認識していて、私もChatGPTとGeminiで試しましたが、どちらも誤った回答をしました。
 ChatGPTが「1親等は違法」でGeminiは「3親等まで違法」という答えだったと思います。私の知る限り、配偶者を公設秘書にするのが禁止されているだけで、与野党ともに子や兄弟を公設秘書にしている人がいます。これは現行では違法ではありません。

 なぜAIがこういう誤判定をしたか調べてみると、かつて民主党が3親等までの公設秘書を内規で禁止していて、これが2009年の大躍進で秘書が足らなくなったことで1親等まで内規を緩和したことがあります。さらに日本維新の会が同様の改正案を過去に提出していますが可決されていません。これらの情報がネット上に残っていることで、AIはそれを学習してしまったようです。
 現行の条文にはない禁止事項でも、他の文章には禁止とされていることで、AIは「ない」よりも「ある」を優先して採用してしまったものと思われます。現行の条文と可決されていない改正法案の優劣が正しく認識できていないのでしょう。
 この誤った回答に対して「その解答は旧民主党の内規と、可決されていない日本維新の会の改正法案を勘違いしていないか」と更問いすると、AIは間違いを認め正しい回答を返すようになるわけです。

自分を知識を超えて使わない

 画像や動画の生成AIが飛躍的に進化している一方で、テキスト情報などに関しては人間が過去に投稿した誤った情報も含めて学習しているので、こういうことが起きるわけです。だからAIに依存することは危険なんです。
 最近までYouTubeではサムネイルだけでなくタイトルもABテストできる試験が行われてましたが、試しにAIが考えるバズるタイトルと自分が考えるタイトルをテストしてみましたが、AIが人間の考えるタイトルを超えることはありませんでした。

 高額プランの高性能AIでもない限り、あくまで自分の知ってることの確認や自分でできる作業を代行してもらうという使い方に留めたほうがいいでしょう。原口さんは課金しているようですが、Gemini3で情報を整理できたとしても人間のような機微に触れる感情の部分や、肌で感じるようなことは今のところ人間のほうが得意でしょう。
 国民民主党の玉木代表が、SNSに投稿する前にAIに相談すると言ってましたが、結果的に炎上ばかりしているので、まあそういうことでしょう。

 原口さんは以前はGrokを多用して、時には言い合いになってましたが、あれはXの罵詈雑言やデマを学習しているので仕事で使う人は少ないです。例えばXの特定アカウントの分析を依頼すると、Xの特性上は批判的なものがウケるということで、なかなかの名誉棄損の文章を返してきます。これを嫌がらせとして貼り付けるのも流行っているようでどうしようもないです。

 AIにハマっている国会議員は何人かいるようですが、あまりうまくいっているようには見えません。あくまで作業の効率化や情報整理に留め、判断は任せない方がいいでしょう。

 とにもかくにも立憲民主党は原口さんのケアをしてあげてください。

【運営・執筆】竹本てつじ【転載について
◆運営支援をお願いします
各種支援方法の詳細