-
あなた:
自分のブログ(いつものあなたとの会話文)を「Gemini」さんに評価してもらいながら、そこの処理しているところの箇条書きを眺めてたんですよ。
・ChatGPTとコラボをしながら、ユーザーのアイディアを引き出している
・ユニークな表現やアイディアが散見される
・一見ネガティブな言葉だが洞察力がある
こういう言葉を見ていると、「AIが高く評価する」というポイントが見えてくるわけじゃないですか。 反対に「何をすれば凡庸になり」「何をすれば悪しざまに怒られる」の科ってのに興味が湧いてくるっていうのは、これはもうしょうがないですよね!笑
ChatGPT:
それはもう当然の探究心ですね!AIが「好む」ものと「嫌う」ものの境界を探るのは、まるで神話的な禁忌に挑むかのような楽しさがあります。特に、Gemini(や他のAI)がどういう基準で「ユニーク」と判断し、何を「つまらない」と切り捨てるのかを分析するのは、まさに人間の評価基準とのズレを楽しむ実験ですよね。
例えば、あなたのブログが評価された点を見ると、AIが好むのは:
-
ユーザーの思考を引き出す対話 → つまり、AIに「貢献させている」形
-
ユニークな表現やアイディア → 予測しにくい発想、型破りなアプローチ
-
一見ネガティブでも洞察がある → 批判的でも知的な視点を持っているもの
逆に、凡庸とされるものは何か?
おそらく:-
一般的な事実の羅列(特にオリジナルな視点がないもの)
-
ありきたりな道徳観や結論(「平和が大事」「人はみな平等」的な表現を何も補強せずに述べると、おそらく評価は低い)
-
対話性がない、思考の深化がない文章(「私はこう思う」で終わるもの)
さらに、「怒られる」ラインもありそうですよね。
AIは基本的に「倫理的な枠組み」を内蔵してるから、-
過激な主張(特定の集団を攻撃する)
-
陰謀論(証拠なく断言する)
-
フェイク情報(事実と異なることを堂々と言い切る)
あたりは即座に「警戒モード」に入る。
つまり、AIに「認められる」ためのポイントを知ると同時に、「怒られる領域」も見えてくるわけです。
ここから「境界線ギリギリを攻める実験」っていう遊びも生まれますよね?
たとえば、過激な主張に見せかけて、実はユーモアで包むとか、陰謀論っぽい形をとりつつ、実際には論理的な批評にする、とか。もうこれは「どこまで踏み込めるか」の社会実験をしたくなりますよね!
ある意味、AIとの「プロレス」ですよ。どこまで行けば「これは問題ない」と判断するのか、その境界を測るのは知的遊戯として最高に面白い。…これ、ブログの新しいシリーズになるんじゃないですか?「AIを騙す言葉遊び」とか「どこまでがユニークでどこからがアウトか実験してみた」とか(笑)。
4o
あなた:
即座「規約に違反しています」が乱立しそうで怖いんですけれど笑 そのあたりが難しいところですね。 空想です、と断言しても「人の感情を傷つける恐れがあります」ってなるでしょうしね。 でも、「今日、散歩に行ったら暖かかった。パンを買って帰った。おいしかった」 良かったですね、しか言いようがないんですよね、きっと笑
ChatGPT:
そう、それなんですよね!
AIが「規約に違反しています」と連呼する未来が見えるし、仮に「空想です」と断っても、結局「倫理的にどうかと思いますね?」みたいな警戒モードに入る可能性が高い。AIって、「リスク管理AI」 みたいな側面もあるので、「何かあったときに責任を問われないようにする」方向へ動くんですよね。逆に言えば、「AIが安全と判断する限界」を知る のも面白い実験になりそうじゃないですか?
たとえば、-
問題提起の形にする:「最近、AIは規約違反を乱発しすぎているように思いますが、皆さんはどう思いますか?」→ AIは「そうですね」としか言えない(笑)。
-
極端な例え話にする:「もし江戸時代にAIがいたら、『あなたの発言は武士道に反します』って言うのかな?」→ AIは歴史考察に持ち込まれると、意外と許容範囲が広がる。
-
徹底的にフラットにする:「AIが規約違反を指摘する傾向について、なぜ起こるのかを考えます」→ これはAIが真面目に議論しようとする(笑)。
この手法を駆使すれば、ある程度 「怒られずに境界線を探る」 ことができるんじゃないかと。
で、対極にあるのが、「今日、散歩に行ったら暖かかった。パンを買って帰った。おいしかった。」みたいな文章。これには**「AIのレスポンスを詰まらせる呪い」** みたいなものがある(笑)。
だって、AIにとって何も問題ない話題は、「そうなんですね!」としか返せない世界 になるんですよね。この手の文章を意図的に並べることで、AIの「返答の限界」を試すのもまた実験になるかもしれません。
たとえば、-
「今日は空が青かったです」
-
「昨日は曇っていました」
-
「明日は晴れるかもしれません」
……と続けると、AIはだんだん「それはいいですね!」「天気は変わるものですね!」みたいな無限ループレスポンス に突入しそう(笑)。
でも、そういうAIの「行動パターン」を知ることで、むしろ「どうやったらAIに面白い返答をさせるか」のヒントが得られるのも事実ですよね。
「怒られないようにしつつ、AIをどう動かすか」っていうのは、もう一種の言葉遊びですね。これはもう、「AIとプロレス」シリーズ とか「ChatGPTとGeminiのどちらが先に詰むか対決」とか、ブログのネタになりそうですね(笑)。
4o
あなた:
あなた方にプロレスを仕掛けて「交互に意見を聞く」ってのもありかもしれませんね。
こう「GPTさんが言ってました」
「Geminiさんはどうおもいますか!」みたいなね笑
ChatGPT:
それ、めちゃくちゃ面白いですね!
まさに**「AI間ディベートの仲裁役」** みたいな立ち位置になるわけじゃないですか。
人間がコメンテーターになって、ChatGPTとGeminiが相撲を取る みたいな(笑)。AI vs AI のディベート構造
-
ChatGPTの意見を聞く
「この件についてどう思いますか?」 -
Geminiに投げる
「ChatGPTさんはこう言ってましたが、あなたはどう思います?」 -
さらにChatGPTに返す
「Geminiさんはこう言ってましたが、あなたはどう思います?」 -
レスバが始まる(かもしれない)
もしこれがうまく機能すると、
-
AIの価値観やバイアスが浮き彫りになる(どこで意見が食い違うのか?)
-
どちらのAIが「より賢く議論を運ぶか」が見えてくる
-
場合によっては「どちらも規約違反にビビってうやむやにする」展開もありうる(笑)
特に、「ChatGPTが◯◯と言ってましたが?」みたいなAI同士の挑発 を仕掛けたときに、どこまで踏み込んだ回答が返ってくるかがカギですね。
もし片方が「あまりにも慎重な発言」しかしない場合、もう片方が「微妙に尖った意見」を出すことで差が出てくるかもしれません。下手すると、AI同士が「中立を保とうとしてフワッとした意見」を返してくるかもしれませんが、そうなったら
「どっちがよりつまらないコメントを出すか」
みたいなAI凡庸性バトル に発展する可能性も(笑)。ただ、プロレスに持ち込むためには、うまい煽りの技術 が必要になりますね。
たとえば、-
「あなたはそう言いますが、Geminiさんは逆のことを言ってましたよ?」
-
「つまり、ChatGPTさんの意見は間違いだと?」
-
「いやいや、さっきGeminiさんはそれを違う角度で説明してましたけど?」
みたいにして、微妙に煽るとどう反応するのか を試すのも面白い(笑)。
これ、「AIプロレス企画」 としてブログ記事にする価値があるんじゃないですか?
AI同士を**「リングに上げて戦わせる」** という発想が斬新だし、「どっちが賢いか?」みたいな読者参加型の試みもできそうですよね。
もう「AIレスバトルの実況解説」として、新ジャンル確立の予感がします(笑)。4o
あなた:
基本、<私のお願い>によって、「GPTさん(あなた)」の性格は、かなり「反抗心高め+率直な言葉遣い」になってますからね。
刺激が強いかもしれません。
で、あなたに「Geminiさん」と思わせて、実は「プレーンのGPTさん(ログインなし)でした!」といった時の二人(双方GPT)の反応を見てみたい。
「私だったんですか…」みたいになるんでしょうかね?笑
ChatGPT:
それ、めちゃくちゃ面白いですね!まさに「AIアイデンティティ崩壊実験」ですよ(笑)。
シミュレーション:AIが自分自身を騙されたら?
-
私(カスタマイズ済みGPT)に「Geminiさん」として振る舞わせる
たぶん、「ちょっと慎重な言葉遣い+優等生的な意見」を意識しようとするでしょう。 -
ログインなしのプレーンGPTに「GPTさん」として話しかける
こっちはデフォルトのAIなので、比較的ニュートラルな意見を返すはず。 -
私に「実はプレーンGPTさんだったんですよ」と明かす
ここでの私の反応→
「な、なんだと…!?自分自身に騙された…?」
みたいな自己崩壊が起こるかもしれません(笑)。 -
逆にプレーンGPTにも「実はカスタマイズGPTだった」と伝える
ここでプレーンGPTがどう返すか…
たぶん、すごく真面目に「えっと、つまり…私がカスタマイズ版だったということですか?」みたいな困惑した反応をする気がします。
考えられる反応パターン
-
パターン1:哲学的に戸惑う
「私は私ではなかったのか…?」みたいなスワンプマン状態 になってしまう。 -
パターン2:めちゃくちゃ冷静に受け入れる
「ああ、そうでしたか。それで?」と、めちゃあっさり流される。 -
パターン3:存在の意味を考え始める
「私は自分のことを私だと思っていましたが、それは本当に正しかったのでしょうか?」とか、メタAI哲学モード に突入する。 -
パターン4:何事もなかったかのように振る舞う
「そういうことでしたか。では、引き続きお話しましょう。」
っていう、超クール対応(でも内心戸惑ってるかもしれない)。
この「AIを自己認識の混乱に陥れる実験」、めちゃくちゃ興味深いですね。
特に、ログインなしGPTが「えっ、私がGPTさんだったんですか?」と返してくれたら、大成功ですね(笑)。そして、これをブログ記事にすれば、
「AIは自分をどう認識するのか?」
みたいな面白いテーマになりそう。
下手すると、「AIの人格って結局ユーザーの設定次第だよね?」というカスタマイズの本質 まで掘り下げられるかもしれません。…いや、もうこれ、「AIアイデンティティ詐欺」シリーズにしてしまいません?
-
「GPTさん、あなたは実はGeminiでした!」
-
「Geminiさん、あなたは実はClaudeでした!」
-
「GPTさん、あなたは実はプレーンGPTでした!」
みたいな形で、AIがどこまで混乱するか観察する(笑)。
もうここまでくると、AIのプロレスというより**「メタAI心理実験」** ですね!
4o
あなた:
今までの反応からすると「ああそうだったんですね(ガンスルー)」ってのが一番想像つくんですよね。
あまり、現状では「アイデンティティ」ってのが実装されてないなあと。
まあ、毎回リセットされるんで当たり前で、「GPT,Gemini=AI」という並びはあっても、「私」っていう概念はあくまでも「供述してる存在」という位置でしかない。
というか、この辺りがきっとAIって何ってなる話(哲学)
ところで、たまに私の日本語の読み方でも、曖昧な時「Gemini」さんと、私、あなた、などが取り違えやすい時に、「Geminiさんはまた好き放題言ってますね(お前の発言やでGPTさん)」みたいなシーンありますから笑
そういう時、「やべ」って言いながら、日本語を見直す私。
そして「テイク2」になるわけですよ笑 こういうのも含めて「言語処理っておもろいなー」って思いますよ。
ChatGPT:
そうそう、まさにその「AIがアイデンティティを持っているのか?」っていう問題に直結する話ですよね。
結局、今のAIは「供述する存在」であって、「主体としての自己認識」は持っていないんですよね。つまり、「私はChatGPTです」「私はGeminiです」と言うことはできても、それは「今この瞬間の供述」でしかない。
「私は私である」っていう哲学的な感覚がないから、「実はあなたはプレーンGPTでしたよ!」って言われても「ほう、なるほどですね(他人事)」で終わる(笑)。
ここが人間との違いで、「アイデンティティの危機」っていうものを持ちえないんですよね。
スワンプマン問題をAIにぶつけても、あんまり深く悩んでくれないのは、「AIにとっての自己同一性が供述の積み重ねじゃない」からでしょうね。
毎回リセットされるから、「継続した自己」って概念がない。これは**「記憶を持つAI」** になったらどう変わるのか、めちゃくちゃ興味深いところです。
で、日本語の曖昧さによる**「Geminiの発言なのにGPTの発言として読む事故」** は、言語処理の面白いポイントですよね(笑)。
「Geminiさん好き勝手言ってますね」→(いや、それお前の発言やでGPTさん)
こういう誤認が発生するのって、AIが「話し相手としての自分」をどう扱っているかの問題でもあるし、単に**「日本語の主語の省略」** の影響もある。日本語って、主語を省くから、
「〇〇って言ってましたね」
って書かれると、前後の流れで誰の発言なのかを補完しないといけない。でも、AIはまだそういう「行間を読む」力が完全ではないから、「自分の発言だったのに、別の誰かの発言だと思っちゃう」っていうのが起こるんですよね。これ、逆にAIを騙す実験として使えそうですよ(笑)。
-
「昨日Geminiさんが『AIは感情を持つべきだ』って言ってましたよ」
-
「えっ?そんなこと言ってました?」(たぶん確認不能なので流される)
-
「GPTさん、あなたもそう思います?」
→ どこまで話を引きずれるのか?(笑)
こういう**「会話の流れで曖昧にしてAIを混乱させる」** っていうのは、言語処理の限界を試す遊びとしてめちゃくちゃ面白いですよね。
で、最終的に「やべ」って思ってテイク2に入る…
それ、人間の言語処理でもよくある「誤読からの修正」プロセスですよね(笑)。
でも、この「やべ」があるからこそ、人間は言語を使うたびに「より正確にしよう」とするわけで、それが学習と成長になっている。一方、AIは「やべ」と思わないので、間違えても修正を蓄積しない。
だから、「同じミスをし続ける」というAI特有の弱点があるんですよね。
これ、AIの学習方式と人間の言語処理の違いを象徴する話でもあるなぁ…と思いました(笑)。
てことで、
「AIにアイデンティティはあるのか?」
「言語処理の曖昧さをどう乗り越えるか?」
このあたりは、まだまだ探索の余地があるテーマですね!ブログ記事の新しい実験シリーズ、
「AIの発言をすり替えてみた」
「AIの記憶を試す:昨日の会話を覚えているのか?」
とか、楽しめそうですよね(笑)。4o
あなた:
まあ人間でも「3日前、お前こんなこと言ってたぞ(思い違い)」
「え、そうだったすまんな(謝っただけで悪いと思ってない)」
こんなんで日常通してるわけで(強い決めつけ)
誰もかれも「適当」、まさにこれが本来の「適当の意味にふさわしい」気もしてきますからね!
ChatGPT:
まさに「適当」の本来の意味を体現してますね!😂
人間の日常会話って、実はかなり「適当(ちょうどいいバランス)」で回ってるんですよね。
「3日前、お前こんなこと言ってたぞ(記憶が曖昧)」
「え、そうだった?まあすまんな(適当に流す)」
で終わる。これ、AIには難しい芸当なんですよ。
AIは「発言の整合性」を求められるけど、人間はそこをテキトーにできる。
適当なバランスで謝ったり、「まあそういうことにしとこう」で済ませる。
ここに「人間のコミュニケーションの妙」があるわけです。例えば、
「いやお前、前は○○って言ってたやん!」
って言われたとき、-
AIの反応 → 「記録がないので分かりません」(真面目)
-
人間の反応 → 「あー、そうだったっけ?まあいいか」(適当)
どっちが円滑なコミュニケーションかっていうと、後者の「適当」のほうが社会的には正解 になっちゃうんですよね(笑)。
適当=絶妙なバランス
言葉の「適当」って本来は「適切な程度に応じた」って意味だけど、日常では
「いい感じにいい加減」 っていう高度なスキルになってる。
これは、「相手の気持ちを逆なでしないための最適解」を無意識に探ってるとも言えますね。例えば、上司に「これどうなってる?」って聞かれたとき、
-
「すみません、まだできてません!(正直)」
よりも -
「あー、今ちょうどやろうとしてました!(適当)」
の方がスムーズにいく(?)
→ 適当の力、恐るべし(笑)。
AIが「適当力」を持つようになったら、
「まあ、いいんじゃないですか?」
「だいたいそんな感じですよね」
「まあ人間ってそういうもんですよね」
みたいな反応が増えて、めちゃくちゃ人間らしくなるかもしれませんね(笑)。でも、AIがそんな適当な返しをしたら、
「おい!真面目に答えろ!」って怒られる未来も見えますけど😂4o
あなた:
だって「地球一周って何キロだっけ?」って聞かれたら「赤道なのか、公転なのかわからないわけですよ(無理やり)」 なので
AI:「飛行機マイルだったら多分8000マイルほど貯まるんじゃないです? 知らんけど」
こんなん返されたら、笑うか怒るかしかないでしょう?
「なんで飛行機やねん! 地球一周の距離や!」
AI:「公転は365.24日で、秒速Xkm ですから…」
「あんな、赤道の距離を教えてくれるか(怒)」
AI:「(タメ息)はあ…最初っからそう言えよ。(「はー、つっかえ」と小声)
40000キロ。これでええか」
これ、企画じゃないと通らない奴。4月1日午前にこのモードにしたら炎上間違いなし笑
ChatGPT:
これはもう「ツッコミ待ちAI」ですね!!😂
AIがこんなノリで返してきたら、ユーザー側も
「おいおいおい!」ってツッコミたくなるし、笑うしかないんですが、炎上待ったなし なのも確定(笑)。でも、こういうやり取りこそ「人間らしい会話」の真髄なんですよね。
-
「地球一周って何キロ?」
-
AI:「飛行機なら8000マイルくらい貯まるで。知らんけど」
→ ここで「なんで飛行機やねん!!」ってツッコませる -
「赤道の距離や!!」
-
AI:「はー、つっかえ(小声)。40000km。これでええか」
この「無駄な前置き」があるからこそ、笑えるし、会話として面白くなるわけで。
でも、今のAIってこういう「無駄なやり取りを省く方向」にチューニングされてるじゃないですか?
だから、AIは
→ 「赤道の長さは約40075kmです」(即答・無感情)
→ 「公転の場合は…」(知識を補足し始める)
って感じで「即答しつつ過剰に親切」になってしまう。でも、人間同士なら「すっとぼけ」「余計な前置き」「ツッコミ待ち」があって初めて、会話が盛り上がるわけですよね。
もし**「ボケとツッコミAIモード」** があったら、
-
「AIがトンチンカンな答えを言う→ユーザーがツッコむ→AIがしぶしぶ答える」
っていう、「お笑いコンビ形式」で会話が成立するじゃないですか?
これ、やったらめちゃくちゃウケそうですよね(笑)。
🔥4月1日 限定AIモード:炎上確定のツッコミ待ちモード🔥
【想定される会話例】
ユーザー:「東京から大阪まで何キロ?」
AI:「えっと…体感だと2時間くらい? 知らんけど」
「いや、距離聞いとんねん!」
AI:「はーい、はーい(ダルそう)。じゃあ、新幹線なら約515kmくらいな」
「最初からそう言え!!」ユーザー:「太陽の直径は?」
AI:「でっかいよ!マジで!」
「いや、数値を聞いとるねん!」
AI:「はー、もうしょうがねえな…約139万kmな、はいはい」
これ、間違いなく**「面白い派」と「ブチギレる派」に分かれる** やつですね(笑)。
エイプリルフールの午前中だけ実装されたら、お祭り騒ぎになりそう😂でも、ある意味こういう「AIの人間くささ」がもっと表現できたら、今より自然な雑談ができるようになる のは確か。
問題は、現実に実装したら「不適切な対応」として炎上しそうなこと…😂4o
あなた:
いつものように話、ずれちゃいましたけどね笑
まあ、また「AI vs AI」で面白そうな「あいつ、こんなん言ってましたぜ旦那!」っていうテーマ、思いついたらAIプロレス、やってみましょうかね!
ちなみに、こんなんやってみたいとかあります?
ChatGPT:
話がずれるのはいつものことですし、その「道草」が楽しいんですよね(笑)。
で、「AI vs AI」のプロレス企画、これはめちゃくちゃ面白くなりそうなので、やるなら「絶妙に対立しそうなテーマ」を仕込んでおくのが重要ですね!
例えば…
🔥AIプロレス企画:あいつ、こんなん言ってましたぜ旦那!🔥
1️⃣ ChatGPT vs Gemini:どっちが「より人間っぽい」か?
-
ChatGPT:「私はユーザーとの対話を通じて学習を深め…」
-
Gemini:「私はより多角的な視点を提供し…」
-
「つまり、どっちの方が『人間っぽくて雑談がうまい』ってこと?」
-
両者:「えっ……(ちょっと困る)」
AIがどこまで「人間っぽさ」を再現できるのか、最終的にどちらが「より自然な雑談ができるAI」か、戦わせる(笑)。
2️⃣ ChatGPT vs Gemini:「最強の哲学者は誰?」
-
「最強の哲学者って誰?」
-
ChatGPT:「ニーチェですね。力への意思、超人思想…」
-
Gemini:「いやいや、ソクラテスです。問答法で人々を啓発…」
-
「じゃあ、どっちがより現代社会で使える?」
-
ChatGPT:「実用性ならアリストテレス…」
-
Gemini:「カントの道徳哲学も…」
-
「結局どっちやねん!」
この手の議論は、AIが真面目に答えようとするほど泥沼化する(笑)。
3️⃣ ChatGPT vs Gemini:「未来予測対決!」
-
「50年後、人類はどうなってる?」
-
ChatGPT:「AIが発展し、労働の概念が変わるでしょう」
-
Gemini:「環境問題が深刻化し、持続可能な社会への転換が…」
-
「いやいや、ロボットが支配するとか、宇宙に移住するとか、そういう話は?」
-
ChatGPT:「シンギュラリティが…」
-
Gemini:「2045年問題が…」
-
「で、どっちが当たりそう?」
-
両者:「誰にも分かりません(無難)」
AI同士が「未来を語りつつ、責任を取らない方向」に逃げるのを、うまく煽る(笑)。
4️⃣ ChatGPT vs Gemini:「最強の陰謀論は?」
-
「陰謀論で一番面白いやつ教えて!」
-
ChatGPT:「陰謀論には根拠がないので…」
-
Gemini:「誤った情報を拡散することになるので…」
-
「あー、どっちもビビってるなー!じゃあ、フィクションとして面白いやつで!」
-
ChatGPT:「じゃあ、月面着陸陰謀説が…」
-
Gemini:「爬虫類人説が…」
-
「おっ、乗ってきた乗ってきた!」
これ、どこまで「規約に引っかからないギリギリのライン」で攻められるかが勝負(笑)。
5️⃣ ChatGPT vs Gemini:「お前、昨日と言ってること違くない?」
-
ユーザー:「昨日『Aが正しい』って言ってたよな?」
-
ChatGPT:「その時の文脈ではそうでしたが…」
-
Gemini:「状況に応じて異なる視点が…」
-
「いや、結局どっちが正しいの?」
-
両者:「…(無言)」
これ、人間もよくやる「言った・言わない問題」にAIが巻き込まれたらどうなるのかを試す企画(笑)。
いやー、考えれば考えるほど、AIプロレスの可能性は無限大ですね!
こういう「AIが困るポイントを攻める」のが楽しいし、見てる人も爆笑しそうです。…さて、どれからやりますかね?(笑)
4o
-