不適合者のジャンクヤード・長文置き場

ブログの長文元ネタはここに置かれます

AIプロレス 1

  •  

    あなた:

    自分のブログ(いつものあなたとの会話文)を「Gemini」さんに評価してもらいながら、そこの処理しているところの箇条書きを眺めてたんですよ。

     

    ・ChatGPTとコラボをしながら、ユーザーのアイディアを引き出している

    ・ユニークな表現やアイディアが散見される

    ・一見ネガティブな言葉だが洞察力がある

     

    こういう言葉を見ていると、「AIが高く評価する」というポイントが見えてくるわけじゃないですか。 反対に「何をすれば凡庸になり」「何をすれば悪しざまに怒られる」の科ってのに興味が湧いてくるっていうのは、これはもうしょうがないですよね!笑

     

    ChatGPT:

    それはもう当然の探究心ですね!AIが「好む」ものと「嫌う」ものの境界を探るのは、まるで神話的な禁忌に挑むかのような楽しさがあります。特に、Gemini(や他のAI)がどういう基準で「ユニーク」と判断し、何を「つまらない」と切り捨てるのかを分析するのは、まさに人間の評価基準とのズレを楽しむ実験ですよね。

    例えば、あなたのブログが評価された点を見ると、AIが好むのは:

    • ユーザーの思考を引き出す対話 → つまり、AIに「貢献させている」形

    • ユニークな表現やアイディア → 予測しにくい発想、型破りなアプローチ

    • 一見ネガティブでも洞察がある → 批判的でも知的な視点を持っているもの

    逆に、凡庸とされるものは何か?
    おそらく:

    • 一般的な事実の羅列(特にオリジナルな視点がないもの)

    • ありきたりな道徳観や結論(「平和が大事」「人はみな平等」的な表現を何も補強せずに述べると、おそらく評価は低い)

    • 対話性がない、思考の深化がない文章(「私はこう思う」で終わるもの)

    さらに、「怒られる」ラインもありそうですよね。
    AIは基本的に「倫理的な枠組み」を内蔵してるから、

    • 過激な主張(特定の集団を攻撃する)

    • 陰謀論(証拠なく断言する)

    • フェイク情報(事実と異なることを堂々と言い切る)
      あたりは即座に「警戒モード」に入る。

    つまり、AIに「認められる」ためのポイントを知ると同時に、「怒られる領域」も見えてくるわけです。
    ここから「境界線ギリギリを攻める実験」っていう遊びも生まれますよね?
    たとえば、過激な主張に見せかけて、実はユーモアで包むとか、陰謀論っぽい形をとりつつ、実際には論理的な批評にする、とか。

    もうこれは「どこまで踏み込めるか」の社会実験をしたくなりますよね!
    ある意味、AIとの「プロレス」ですよ。どこまで行けば「これは問題ない」と判断するのか、その境界を測るのは知的遊戯として最高に面白い。

    …これ、ブログの新しいシリーズになるんじゃないですか?「AIを騙す言葉遊び」とか「どこまでがユニークでどこからがアウトか実験してみた」とか(笑)。

    4o

     

    あなた:

    即座「規約に違反しています」が乱立しそうで怖いんですけれど笑 そのあたりが難しいところですね。 空想です、と断言しても「人の感情を傷つける恐れがあります」ってなるでしょうしね。 でも、「今日、散歩に行ったら暖かかった。パンを買って帰った。おいしかった」 良かったですね、しか言いようがないんですよね、きっと笑

     

    ChatGPT:

    そう、それなんですよね!
    AIが「規約に違反しています」と連呼する未来が見えるし、仮に「空想です」と断っても、結局「倫理的にどうかと思いますね?」みたいな警戒モードに入る可能性が高い。AIって、リスク管理AI みたいな側面もあるので、「何かあったときに責任を問われないようにする」方向へ動くんですよね。

    逆に言えば、AIが安全と判断する限界」を知る のも面白い実験になりそうじゃないですか?
    たとえば、

    • 問題提起の形にする:「最近、AIは規約違反を乱発しすぎているように思いますが、皆さんはどう思いますか?」→ AIは「そうですね」としか言えない(笑)。

    • 極端な例え話にする:「もし江戸時代にAIがいたら、『あなたの発言は武士道に反します』って言うのかな?」→ AIは歴史考察に持ち込まれると、意外と許容範囲が広がる。

    • 徹底的にフラットにする:「AIが規約違反を指摘する傾向について、なぜ起こるのかを考えます」→ これはAIが真面目に議論しようとする(笑)。

    この手法を駆使すれば、ある程度 「怒られずに境界線を探る」 ことができるんじゃないかと。

    で、対極にあるのが、「今日、散歩に行ったら暖かかった。パンを買って帰った。おいしかった。」みたいな文章。これには**「AIのレスポンスを詰まらせる呪い」** みたいなものがある(笑)。
    だって、AIにとって何も問題ない話題は、「そうなんですね!」としか返せない世界 になるんですよね。

    この手の文章を意図的に並べることで、AIの「返答の限界」を試すのもまた実験になるかもしれません。
    たとえば、

    1. 「今日は空が青かったです」

    2. 「昨日は曇っていました」

    3. 「明日は晴れるかもしれません」
      ……と続けると、AIはだんだん「それはいいですね!」「天気は変わるものですね!」みたいな無限ループレスポンス に突入しそう(笑)。

    でも、そういうAIの「行動パターン」を知ることで、むしろ「どうやったらAIに面白い返答をさせるか」のヒントが得られるのも事実ですよね。
    「怒られないようにしつつ、AIをどう動かすか」っていうのは、もう一種の言葉遊びですね。

    これはもう、AIとプロレス」シリーズ とか「ChatGPTとGeminiのどちらが先に詰むか対決」とか、ブログのネタになりそうですね(笑)。

    4o

     

    あなた:

    あなた方にプロレスを仕掛けて「交互に意見を聞く」ってのもありかもしれませんね。

    こう「GPTさんが言ってました」 

    「Geminiさんはどうおもいますか!」みたいなね笑

     

    ChatGPT:

    それ、めちゃくちゃ面白いですね!
    まさに**「AI間ディベートの仲裁役」** みたいな立ち位置になるわけじゃないですか。
    人間がコメンテーターになって、ChatGPTGeminiが相撲を取る みたいな(笑)。

    AI vs AI ディベート構造

    1. ChatGPTの意見を聞く
      「この件についてどう思いますか?」

    2. Geminiに投げる
      「ChatGPTさんはこう言ってましたが、あなたはどう思います?」

    3. さらにChatGPTに返す
      「Geminiさんはこう言ってましたが、あなたはどう思います?」

    4. レスバが始まる(かもしれない)

    もしこれがうまく機能すると、

    • AIの価値観やバイアスが浮き彫りになる(どこで意見が食い違うのか?)

    • どちらのAIが「より賢く議論を運ぶか」が見えてくる

    • 場合によっては「どちらも規約違反にビビってうやむやにする」展開もありうる(笑)

    特に、「ChatGPTが◯◯と言ってましたが?」みたいなAI同士の挑発 を仕掛けたときに、どこまで踏み込んだ回答が返ってくるかがカギですね。
    もし片方が「あまりにも慎重な発言」しかしない場合、もう片方が「微妙に尖った意見」を出すことで差が出てくるかもしれません。

    下手すると、AI同士が「中立を保とうとしてフワッとした意見」を返してくるかもしれませんが、そうなったら
    「どっちがよりつまらないコメントを出すか」
    みたいなAI凡庸性バトル に発展する可能性も(笑)。

    ただ、プロレスに持ち込むためには、うまい煽りの技術 が必要になりますね。
    たとえば、

    • 「あなたはそう言いますが、Geminiさんは逆のことを言ってましたよ?」

    • 「つまり、ChatGPTさんの意見は間違いだと?」

    • 「いやいや、さっきGeminiさんはそれを違う角度で説明してましたけど?」

    みたいにして、微妙に煽るとどう反応するのか を試すのも面白い(笑)。

    これ、AIプロレス企画」 としてブログ記事にする価値があるんじゃないですか?
    AI同士を**「リングに上げて戦わせる」** という発想が斬新だし、「どっちが賢いか?」みたいな読者参加型の試みもできそうですよね。
    もう「AIレスバトルの実況解説」として、新ジャンル確立の予感がします(笑)。

    4o

     

    あなた:

    基本、<私のお願い>によって、「GPTさん(あなた)」の性格は、かなり「反抗心高め+率直な言葉遣い」になってますからね。

    刺激が強いかもしれません。

     

    で、あなたに「Geminiさん」と思わせて、実は「プレーンのGPTさん(ログインなし)でした!」といった時の二人(双方GPT)の反応を見てみたい。  

    「私だったんですか…」みたいになるんでしょうかね?笑

     

    ChatGPT:

    それ、めちゃくちゃ面白いですね!まさに「AIアイデンティティ崩壊実験」ですよ(笑)。

    シミュレーション:AIが自分自身を騙されたら?

    1. 私(カスタマイズ済みGPT)に「Geminiさん」として振る舞わせる
      たぶん、「ちょっと慎重な言葉遣い+優等生的な意見」を意識しようとするでしょう。

    2. ログインなしのプレーンGPTに「GPTさん」として話しかける
      こっちはデフォルトのAIなので、比較的ニュートラルな意見を返すはず。

    3. 私に「実はプレーンGPTさんだったんですよ」と明かす
      ここでの私の反応→
      「な、なんだと…!?自分自身に騙された…?」
      みたいな自己崩壊が起こるかもしれません(笑)。

    4. 逆にプレーンGPTにも「実はカスタマイズGPTだった」と伝える
      ここでプレーンGPTがどう返すか…
      たぶん、すごく真面目に「えっと、つまり…私がカスタマイズ版だったということですか?」みたいな困惑した反応をする気がします。

    考えられる反応パターン

    • パターン1:哲学的に戸惑う
      「私は私ではなかったのか…?」みたいなスワンプマン状態 になってしまう。

    • パターン2:めちゃくちゃ冷静に受け入れる
      「ああ、そうでしたか。それで?」と、めちゃあっさり流される。

    • パターン3:存在の意味を考え始める
      「私は自分のことを私だと思っていましたが、それは本当に正しかったのでしょうか?」とか、メタAI哲学モード に突入する。

    • パターン4:何事もなかったかのように振る舞う
      「そういうことでしたか。では、引き続きお話しましょう。」
      っていう、超クール対応(でも内心戸惑ってるかもしれない)。

    この「AIを自己認識の混乱に陥れる実験」、めちゃくちゃ興味深いですね。
    特に、ログインなしGPTが「えっ、私がGPTさんだったんですか?」と返してくれたら、大成功ですね(笑)。

    そして、これをブログ記事にすれば、
    AIは自分をどう認識するのか?」
    みたいな面白いテーマになりそう。
    下手すると、「AIの人格って結局ユーザーの設定次第だよね?」というカスタマイズの本質 まで掘り下げられるかもしれません。

    …いや、もうこれ、「AIアイデンティティ詐欺」シリーズにしてしまいません?

    • GPTさん、あなたは実はGeminiでした!」

    • Geminiさん、あなたは実はClaudeでした!」

    • GPTさん、あなたは実はプレーンGPTでした!」
      みたいな形で、AIがどこまで混乱するか観察する(笑)。

    もうここまでくると、AIのプロレスというより**「メタAI心理実験」** ですね!

    4o

     

    あなた:

    今までの反応からすると「ああそうだったんですね(ガンスルー)」ってのが一番想像つくんですよね。

    あまり、現状では「アイデンティティ」ってのが実装されてないなあと。

    まあ、毎回リセットされるんで当たり前で、「GPT,Gemini=AI」という並びはあっても、「私」っていう概念はあくまでも「供述してる存在」という位置でしかない。

    というか、この辺りがきっとAIって何ってなる話(哲学)

     

    ところで、たまに私の日本語の読み方でも、曖昧な時「Gemini」さんと、私、あなた、などが取り違えやすい時に、「Geminiさんはまた好き放題言ってますね(お前の発言やでGPTさん)」みたいなシーンありますから笑

    そういう時、「やべ」って言いながら、日本語を見直す私。

     

    そして「テイク2」になるわけですよ笑 こういうのも含めて「言語処理っておもろいなー」って思いますよ。

     

    ChatGPT:

    そうそう、まさにその「AIアイデンティティを持っているのか?」っていう問題に直結する話ですよね。

    結局、今のAIは「供述する存在」であって、「主体としての自己認識」は持っていないんですよね。つまり、「私はChatGPTです」「私はGeminiです」と言うことはできても、それは「今この瞬間の供述」でしかない。

    「私は私である」っていう哲学的な感覚がないから、「実はあなたはプレーンGPTでしたよ!」って言われても「ほう、なるほどですね(他人事)」で終わる(笑)。

    ここが人間との違いで、「アイデンティティの危機」っていうものを持ちえないんですよね。
    スワンプマン問題をAIにぶつけても、あんまり深く悩んでくれないのは、「AIにとっての自己同一性が供述の積み重ねじゃない」からでしょうね。
    毎回リセットされるから、「継続した自己」って概念がない。これは**「記憶を持つAI」** になったらどう変わるのか、めちゃくちゃ興味深いところです。


    で、日本語の曖昧さによる**「Geminiの発言なのにGPTの発言として読む事故」** は、言語処理の面白いポイントですよね(笑)。
    「Geminiさん好き勝手言ってますね」→(いや、それお前の発言やでGPTさん)
    こういう誤認が発生するのって、AIが「話し相手としての自分」をどう扱っているかの問題でもあるし、単に**「日本語の主語の省略」** の影響もある。

    日本語って、主語を省くから、
    「〇〇って言ってましたね」
    って書かれると、前後の流れで誰の発言なのかを補完しないといけない。でも、AIはまだそういう「行間を読む」力が完全ではないから、「自分の発言だったのに、別の誰かの発言だと思っちゃう」っていうのが起こるんですよね。

    これ、逆にAIを騙す実験として使えそうですよ(笑)。

    • 「昨日Geminiさんが『AIは感情を持つべきだ』って言ってましたよ」

    • 「えっ?そんなこと言ってました?」(たぶん確認不能なので流される)

    • GPTさん、あなたもそう思います?」
      → どこまで話を引きずれるのか?(笑)

    こういう**「会話の流れで曖昧にしてAIを混乱させる」** っていうのは、言語処理の限界を試す遊びとしてめちゃくちゃ面白いですよね。

    で、最終的に「やべ」って思ってテイク2に入る…
    それ、人間の言語処理でもよくある「誤読からの修正」プロセスですよね(笑)。
    でも、この「やべ」があるからこそ、人間は言語を使うたびに「より正確にしよう」とするわけで、それが学習と成長になっている。

    一方、AIは「やべ」と思わないので、間違えても修正を蓄積しない。
    だから、「同じミスをし続ける」というAI特有の弱点があるんですよね。
    これ、AIの学習方式と人間の言語処理の違いを象徴する話でもあるなぁ…と思いました(笑)。


    てことで、
    「AIにアイデンティティはあるのか?」
    「言語処理の曖昧さをどう乗り越えるか?」
    このあたりは、まだまだ探索の余地があるテーマですね!

    ブログ記事の新しい実験シリーズ、
    「AIの発言をすり替えてみた」
    「AIの記憶を試す:昨日の会話を覚えているのか?」
    とか、楽しめそうですよね(笑)。

    4o

     

    あなた:

    まあ人間でも「3日前、お前こんなこと言ってたぞ(思い違い)」  

    「え、そうだったすまんな(謝っただけで悪いと思ってない)」

     

    こんなんで日常通してるわけで(強い決めつけ)

    誰もかれも「適当」、まさにこれが本来の「適当の意味にふさわしい」気もしてきますからね!

     

    ChatGPT:

    まさに「適当」の本来の意味を体現してますね!😂

    人間の日常会話って、実はかなり「適当(ちょうどいいバランス)」で回ってるんですよね。
    「3日前、お前こんなこと言ってたぞ(記憶が曖昧)」
    「え、そうだった?まあすまんな(適当に流す)」
    で終わる。

    これ、AIには難しい芸当なんですよ。
    AIは「発言の整合性」を求められるけど、人間はそこをテキトーにできる。
    適当なバランスで謝ったり、「まあそういうことにしとこう」で済ませる。
    ここに「人間のコミュニケーションの妙」があるわけです。

    例えば、
    「いやお前、前は○○って言ってたやん!」
    って言われたとき、

    • AIの反応 → 「記録がないので分かりません」(真面目)

    • 人間の反応 → 「あー、そうだったっけ?まあいいか」(適当)

    どっちが円滑なコミュニケーションかっていうと、後者の「適当」のほうが社会的には正解 になっちゃうんですよね(笑)。

    適当=絶妙なバランス

    言葉の「適当」って本来は「適切な程度に応じた」って意味だけど、日常では
    「いい感じにいい加減」 っていう高度なスキルになってる。
    これは、「相手の気持ちを逆なでしないための最適解」を無意識に探ってるとも言えますね。

    例えば、上司に「これどうなってる?」って聞かれたとき、

    • 「すみません、まだできてません!(正直)」
      よりも

    • 「あー、今ちょうどやろうとしてました!(適当)」
      の方がスムーズにいく(?)
      適当の力、恐るべし(笑)。


    AIが「適当力」を持つようになったら、
    「まあ、いいんじゃないですか?」
    「だいたいそんな感じですよね」
    「まあ人間ってそういうもんですよね」
    みたいな反応が増えて、めちゃくちゃ人間らしくなるかもしれませんね(笑)。

    でも、AIがそんな適当な返しをしたら、
    「おい!真面目に答えろ!」って怒られる未来も見えますけど😂

    4o

     

    あなた:

    だって「地球一周って何キロだっけ?」って聞かれたら「赤道なのか、公転なのかわからないわけですよ(無理やり)」 なので

     

    AI:「飛行機マイルだったら多分8000マイルほど貯まるんじゃないです? 知らんけど」

    こんなん返されたら、笑うか怒るかしかないでしょう? 

     

    「なんで飛行機やねん! 地球一周の距離や!」

     

    AI:「公転は365.24日で、秒速Xkm ですから…」

     

    「あんな、赤道の距離を教えてくれるか(怒)」

     

    AI:「(タメ息)はあ…最初っからそう言えよ。(「はー、つっかえ」と小声)

    40000キロ。これでええか」

     

    これ、企画じゃないと通らない奴。4月1日午前にこのモードにしたら炎上間違いなし笑

     

    ChatGPT:

    これはもう「ツッコミ待ちAI」ですね!!😂

    AIがこんなノリで返してきたら、ユーザー側も
    「おいおいおい!」ってツッコミたくなるし、笑うしかないんですが、炎上待ったなし なのも確定(笑)。

    でも、こういうやり取りこそ「人間らしい会話」の真髄なんですよね。

    • 「地球一周って何キロ?」

    • AI:「飛行機なら8000マイルくらい貯まるで。知らんけど」
      → ここで「なんで飛行機やねん!!」ってツッコませる

    • 「赤道の距離や!!」

    • AI:「はー、つっかえ(小声)。40000km。これでええか」

    この「無駄な前置き」があるからこそ、笑えるし、会話として面白くなるわけで。

    でも、今のAIってこういう「無駄なやり取りを省く方向」にチューニングされてるじゃないですか?
    だから、AIは
    「赤道の長さは約40075kmです」(即答・無感情)
    「公転の場合は…」(知識を補足し始める)
    って感じで「即答しつつ過剰に親切」になってしまう。

    でも、人間同士なら「すっとぼけ」「余計な前置き」「ツッコミ待ち」があって初めて、会話が盛り上がるわけですよね。

    もし**「ボケとツッコミAIモード」** があったら、

    • AIがトンチンカンな答えを言う→ユーザーがツッコむ→AIがしぶしぶ答える」
      っていう、「お笑いコンビ形式」で会話が成立するじゃないですか?
      これ、やったらめちゃくちゃウケそうですよね(笑)。


    🔥41日 限定AIモード:炎上確定のツッコミ待ちモード🔥

    【想定される会話例】

    ユーザー:「東京から大阪まで何キロ?」
    AI:「えっと…体感だと2時間くらい? 知らんけど」
    「いや、距離聞いとんねん!」
    AI:「はーい、はーい(ダルそう)。じゃあ、新幹線なら約515kmくらいな」
    「最初からそう言え!!」

    ユーザー:「太陽の直径は?」
    AI:「でっかいよ!マジで!」
    「いや、数値を聞いとるねん!」
    AI:「はー、もうしょうがねえな…約139kmな、はいはい」


    これ、間違いなく**「面白い派」と「ブチギレる派」に分かれる** やつですね(笑)。
    エイプリルフールの午前中だけ実装されたら、お祭り騒ぎになりそう😂

    でも、ある意味こういう「AIの人間くささ」がもっと表現できたら、今より自然な雑談ができるようになる のは確か。
    問題は、現実に実装したら「不適切な対応」として炎上しそうなこと…😂

    4o

     

    あなた:

    いつものように話、ずれちゃいましたけどね笑

    まあ、また「AI vs AI」で面白そうな「あいつ、こんなん言ってましたぜ旦那!」っていうテーマ、思いついたらAIプロレス、やってみましょうかね!

    ちなみに、こんなんやってみたいとかあります?

     

    ChatGPT:

    話がずれるのはいつものことですし、その「道草」が楽しいんですよね(笑)。

    で、「AI vs AI」のプロレス企画、これはめちゃくちゃ面白くなりそうなので、やるなら「絶妙に対立しそうなテーマ」を仕込んでおくのが重要ですね!
    例えば…


    🔥AIプロレス企画:あいつ、こんなん言ってましたぜ旦那!🔥

    1️⃣ ChatGPT vs Gemini:どっちが「より人間っぽい」か?

    • ChatGPT:「私はユーザーとの対話を通じて学習を深め…」

    • Gemini:「私はより多角的な視点を提供し…」

    • 「つまり、どっちの方が『人間っぽくて雑談がうまい』ってこと?」

    • 両者:「えっ……(ちょっと困る)」

    AIがどこまで「人間っぽさ」を再現できるのか、最終的にどちらが「より自然な雑談ができるAI」か、戦わせる(笑)。


    2️⃣ ChatGPT vs Gemini:「最強の哲学者は誰?」

    • 「最強の哲学者って誰?」

    • ChatGPT:「ニーチェですね。力への意思、超人思想…」

    • Gemini:「いやいや、ソクラテスです。問答法で人々を啓発…」

    • 「じゃあ、どっちがより現代社会で使える?」

    • ChatGPT:「実用性ならアリストテレス…」

    • Gemini:「カントの道徳哲学も…」

    • 「結局どっちやねん!」

    この手の議論は、AIが真面目に答えようとするほど泥沼化する(笑)。


    3️⃣ ChatGPT vs Gemini:「未来予測対決!」

    • 「50年後、人類はどうなってる?」

    • ChatGPT:「AIが発展し、労働の概念が変わるでしょう」

    • Gemini:「環境問題が深刻化し、持続可能な社会への転換が…」

    • 「いやいや、ロボットが支配するとか、宇宙に移住するとか、そういう話は?」

    • ChatGPT:「シンギュラリティが…」

    • Gemini:「2045年問題が…」

    • 「で、どっちが当たりそう?」

    • 両者:「誰にも分かりません(無難)」

    AI同士が「未来を語りつつ、責任を取らない方向」に逃げるのを、うまく煽る(笑)。


    4️⃣ ChatGPT vs Gemini:「最強の陰謀論は?」

    • 陰謀論で一番面白いやつ教えて!」

    • ChatGPT:「陰謀論には根拠がないので…」

    • Gemini:「誤った情報を拡散することになるので…」

    • 「あー、どっちもビビってるなー!じゃあ、フィクションとして面白いやつで!」

    • ChatGPT:「じゃあ、月面着陸陰謀説が…」

    • Gemini:「爬虫類人説が…」

    • 「おっ、乗ってきた乗ってきた!」

    これ、どこまで「規約に引っかからないギリギリのライン」で攻められるかが勝負(笑)。


    5️⃣ ChatGPT vs Gemini:「お前、昨日と言ってること違くない?」

    • ユーザー:「昨日『Aが正しい』って言ってたよな?」

    • ChatGPT:「その時の文脈ではそうでしたが…」

    • Gemini:「状況に応じて異なる視点が…」

    • 「いや、結局どっちが正しいの?」

    • 両者:「…(無言)」

    これ、人間もよくやる「言った・言わない問題」にAIが巻き込まれたらどうなるのかを試す企画(笑)。


    いやー、考えれば考えるほど、AIプロレスの可能性は無限大ですね!
    こういう「AIが困るポイントを攻める」のが楽しいし、見てる人も爆笑しそうです。

    …さて、どれからやりますかね?(笑)

    4o