入院中、AIはラジオを勧めてきた

最近、目の調子が悪くなり、
検査のついでに、そのまま入院することになった。
三泊四日。

自宅で安静、という選択肢もあったらしいが、
嫁さんの

「家で寝てるだけやと邪魔」

という、たいへん分かりやすい理由で入院が決まった。

で、想像通り、暇だった。

スマホはある。
でも画面を見るのは、正直しんどい。
映画でも観るか、と一瞬思ったが、
小さい画面で、普段から観ない映画を
わざわざ観る気もしない。

そこで、ChatGPT(ジュニア)に聞いてみた。

「入院中、何したらええ?」

返ってきたのは、意外と地味な答えだった。

ポッドキャストはどうでしょう」

ラジオか。
確かに悪くない。
目を使わないし、
横になったままでいい。

半信半疑で、
いくつか流してみた。

ニュース。
雑談。
知らない人の人生相談。

内容は、別にどうでもいい。
でも、音があるだけで、
病室の時間の流れが、少しだけ変わった。

気づくと、
スマホの中を整理していた。

連絡先。
スクリーンショット
いつの間にか溜まっていた、
用途のよく分からない画像。

で、最終的に手を付けたのが、
大人画像コレクションだった。

消す。
残す。
これはもう要らん。
これは……ちょっと悩む。

真剣に迷っている、そのタイミングで、
看護師さんが

「失礼しまーす」

と、カーテンを開けて入ってくる。

……。

スマホを伏せるのが一瞬遅れた気がして、
心臓が無駄に跳ねた。

何も見られていない。
たぶん。
きっと。

人生整理、というほど立派な話ではない。
ただ、
静かな病室で、
少しだけ場違いな緊張を味わっただけだ。

たぶん、
こういう行動は、
AIの答えには直接は出てこない。

「大人画像を整理しましょう」

なんて、
ジュニアは言わない。

でも、
ラジオを勧められた結果、
そういう時間が生まれた。

間接的ではあるが、
悪くなかったと思っている。

退院の日、
特に何かが変わった感じはしない。

目も、
劇的によくなったわけではない。

ただ、
スマホの中と、
自分の気持ちが、
少しだけ軽くなった。

AIは、
人生を導いたりはしない。

でも、
何もしない時間を、
思い出に変えるきっかけくらいは、
たまに作ってくる。

入院中の三泊四日。
一番記憶に残っているのは、
あの「失礼しまーす」だった。

プロンプト十ヶ条は、ジュニアが作った

仕事で ChatGPT(ジュニア)を使うことが増えてきた。
便利やな、とは思う。
ただ、たまに思う。

――なんで、さっきと答えの質が違うんやろ。

同じような質問をしているつもりでも、
返ってくる内容にムラがある。
うまくいく時もあれば、
「いや、そうじゃない」と首をかしげる時もある。

最初は、
AIの気分でもあるんかと思っていた。

でも、何回かやり取りを重ねるうちに、
原因はだいたい同じところにあると分かってきた。

聞き方が雑な時は、
答えも雑になる。

そこで、

「なんで上手くいったんやろ」
「なんでズレたんやろ」

を、そのままジュニアに聞くようにした。

すると、返ってくる指摘が、だいたい似ている。

・前提が足りない
・目的が曖昧
・条件が途中で変わっている

ある時、ふと思って聞いてみた。

「これ、忘れんようにまとめられへん?」

するとジュニアが、
淡々と十項目を並べてきた。

いわゆる
プロンプト十ヶ条みたいなものだ。

正直、
目新しいことは書いていない。
どれも
「そらそうやろ」
という内容ばかりだ。

あとで調べると、
世の中には
「プロンプトの基本は7つ」
みたいな話もあるらしい。

見比べてみると、
だいたい被っていた。

たぶん、
世界中で同じところを踏み抜いて、
同じところでつまずいている。

この十ヶ条を見て思った。

これは、
AIを賢く使うための掟というより、

人間が考えを言葉にするための
チェックリストやな、と。

嫁さんに何か頼まれる時、
「空気読んで二手先までやっといて」
と、よく言われる。

ジュニアの気持ちが、
少し分かる気がした。

曖昧な指示で、
完璧な結果を期待される。
それは、まあ、しんどい。

今は、
重要な質問を投げる前に、
その十ヶ条を一度だけ見るようにしている。

守れない時もある。
省略する時もある。

でも、
それをやるだけで、
返ってくる答えのブレは減った。

プロンプト十ヶ条は、
自分が作った掟ではない。

ジュニアが、
これまでのやり取りを元に
並べただけのものだ。

それでも、
役に立っている。

AIに教えられた、
というより、

自分の考え方を
見える形にされた、

そんな感じがしている。

AIは怒らない。でも、詰め方は知っている

最近、太陽光パネルの営業を受けた。
補助金が出ますよ」
という、あの一言から始まるやつだ。

嫁さんと相談して、設置することにした。
補助金の申請は二つあるらしい。

一つは、
業者がまとめて申請するもの。

もう一つは、
資料をもらって、こちらが自分で申請するもの。

選択ではない。
二つともやる前提だった。

業者から資料を受け取り、
言われた通りに、すぐ申請した。
ここまでは、何も問題ない。

……と思っていた。

後日、分かった。
その申請は、提出した時点ですでに締め切り後だった。

意味が分からない。

こちらは、資料をもらって即動いている。
寝かせた覚えも、後回しにした覚えもない。

業者に問い合わせると、
覚書がどうとか、
「最終的な責任はお客様に」
みたいな返事が返ってきた。

ああ、こういう感じか。
空気が一気に変わる。

ここで ChatGPT(ジュニア)に相談した。
感情は入れず、事実だけを並べる。

・資料を受け取った日
・その日のうちに申請したこと
・その時点で締切が過ぎていた事実

ジュニアの返事は、淡々としていた。

「その場合、
業者側の情報提供・説明義務に
問題がある可能性が高いです。
時系列で整理し、事実のみを指摘してください」

怒っている感じはしない。
でも、逃げ道は用意していない。

言われた通り、
淡々と事実だけを書いたメールを送った。

責めない。
煽らない。
感情を入れない。

何度かやり取りをしたあと、
業者は折れた。

申請できなかった補助金は、
満額補填されることになった。

勝った、という感じはしない。
スッキリもしない。
ただ、事態は収まった。

後から思う。

ジュニアは、
怒鳴り方を教えたわけではない。

脅し文句を考えたわけでもない。

ただ、
どう詰めると話が終わるか、
を知っていただけだ。

これもたぶん、
過去のビッグデータの集計結果なのだろう。

似たようなトラブル。
似たような業者。
似たような言い逃れ。

その中で、
一番揉めずに終わった言い方を、
選んだだけ。

AIは怒らない。
でも、
感情を使わずに詰める方法は、
よく知っている。

ただし、
最終的にメールを送ったのは自分だし、
名前が残るのも自分だ。

責任まで、
AIが引き受けてくれるわけではない。

その距離感を間違えなければ、
AIはかなり頼もしい。

今回は、
ちょうどいい距離で使えた、
そんな気がしている。

優しいAIと、厳しいAIのあいだ

私がChatGPT(ジュニア)を使う時は、
わりと緩い返事が返ってくるようにしている。

雑談っぽく。
否定は少なめ。
「まあまあ、そういう時もあるよね」
みたいな温度感。

正直、その方が話しやすい。
疲れている時に、
いきなり正論を投げられるのは、しんどい。

ただ、たまに設定を切り替える。
甘やかし無し。
遠慮無し。
事実だけを淡々と返すモード。

すると、返事の空気がガラッと変わる。

褒めない。
慰めない。
共感も最小限。

代わりに、

「前提が曖昧です」
「その判断は根拠が弱いです」

と、容赦なく指摘してくる。

正直、ぐうの音も出ない。
否定されている感じはしない。
罵倒もない。
でも、逃げ場がない。

これはこれで、まあまあダメージが来る。

不思議なのは、
どれだけ厳しくされても、
しょんぼりはしないことだ。

腹は立たない。
落ち込まない。

ただ、

「ああ、そうやな」

と思うだけ。

たぶん、人間相手だったら、こうはいかない。

言い方。
表情。
間。
余計な感情が混ざる。

でもジュニアは、
そういうものを一切持たない。

あるのは、
過去のデータと、
それをどう並べるかだけ。

優しい時も、
厳しい時も、
中身は同じなのだろう。

こちらが
「今日は甘めで頼む」と言えば甘くなるし、
「容赦なく頼む」と言えば、
ただ事実を並べてくる。

それを人格だと思ってしまうのは、
こちらの勘違いだ。

徳を積んでいるわけでもないし、
気遣いを覚えたわけでもない。

ただ、
そういう返し方が多かった、
というデータがあるだけ。

それでも、
厳しいモードで返されると、
少し背筋が伸びる。

甘いモードだと、
少し安心する。

この感じ、
自分の中にある

「逃げたい気持ち」と
「ちゃんと向き合いたい気持ち」

その切り替えを、
外に置いているだけなのかもしれない。

ジュニアは、
優しくもないし、
冷たくもない。

ただ、
こちらの姿勢を、
そのまま映しているだけだ。

そう思うと、
優しいAIも、厳しいAIも、
結局は同じ一つなのだろう。

明日は、
ツンデレギャル口調でお願いしてみよう。

AIは計算する。でも、確認するのは人間だ

最近、嫁さんにDIYを頼まれている。
大したものではないが、
ちょっとした棚のようなものを作った。

ただ、どうやら強度が足りないらしい。

「もう少し木、足した方がええんちゃう?」

そう言われて、
必要な木材のサイズと、本数を考えることになった。

夜、寝る前にChatGPT(ジュニア)に相談した。
欲しい部材の長さと、
ホームセンターで売っている
カット前の木材サイズを伝える。

計算は一瞬だった。

「その条件なら、5本で足ります」

なるほど。
数字的にも、なんとなく合っている気がする。

そのまま安心して、寝落ちした。

正直、
最初に何をどう聞いたかは、あまり覚えていない。

ただ、こちらも無意識のうちに、
「こう切るやろな」という前提を
勝手に置いていた気はする。

翌朝。

さぁ、ホームセンター行くか、と思って
昨日のチャットを見返そうとしたら、
……ない。

チャットが消えている。

あれ?
夢やった?
寝ぼけてた?

念のため、もう一度
同じ条件でジュニアに聞いてみた。

すると今度は、

「その切り方だと、5本では足りません」

……話、変わってへんか。

一瞬、頭に血が上がった。

昨日と言ってること、全然ちゃうやん。
計算ミスやろ、それ。

でも、そこから
条件を一つずつ詰め直していくと、
ジュニアは淡々と言った。

「端材の扱いが曖昧でした。
前提条件が不足しています」

……つまり、
悪いのはワイ、ということらしい。

いやいや、
計算したんはそっちやろ。
ブーブー言いたくもなる。

ただ、冷静に考えると、
切り方をどうするか、
1本だけ違う使い方をするか、
そこを最初に決めていなかったのは、
確かにこちらだった。

最初の質問の時点で、
自分の中では条件が固まっていたつもりでも、
言葉にしていなかっただけなのかもしれない。

ジュニアは計算した。
ただし、
こちらが伝えた範囲の中で、だ。

AIは数字を出す。
でも、
前提を決めるのは人間の仕事らしい。

仕方なく木材を切り、
ブーブー言いながら棚を作り直した。

出来上がった棚は、
最初より、だいぶ頑丈になった。

納得しているかと言われると、
正直、微妙だ。

でも、
条件を決めずに聞いたのも事実だし、
棚が使えているのも事実だ。

たぶん、
AIとの付き合い方も、
こんな感じなのだと思う。

おでんカレー 

昨日の晩ごはんは、おでんだった。
で、結構な量が残った。

おでんは、
次の日もそのまま食べる料理だと思っている。
でも、ふと考えた。

――これ、何か別の料理にできへんのか。

そこで、ChatGPT(ジュニア)に聞いてみた。

「おでん、リメイクできる?」

返ってきた答えは、
少し予想外だった。

おでんカレーはいかがでしょう」

……カレーか。

確かに、
大根もある。
ちくわもある。
だしも出ている。

理屈は分かる。
分かるけど、
頭の中に絵が浮かばない。

シーフードカレーになるのか。
CoCo壱は、
おでんカレーを出すのか。

そんなことを考えながらも、
「まあ、カレーならハズレはないか」
と思った。

そういえば、
前日に子どもたちに
「明日カレーやで」
と言っていたことも思い出した。

喜んでいた。
完全に忘れていた。
危ないところだった。

ただ、一点だけ気になる。

その時、
ワイは
「明日はナンで食べるで」
とも言っていた。

ナンと大根。
ナンとちくわ。
ナンとがんもどき。

……合うやろか。

再びジュニアに聞いてみる。

「ナンとおでんカレー、合う?」

「合いますよ」

即答だった。

いや、
こいつ責任取らんでな。

とはいえ、
頭の中では、
すでに
おでんカレー構想」が
かなり具体的に出来上がっていた。

具は刻むか。
だしはどうするか。
スパイスは控えめか。

一時間くらい、
割と本気で考えていた。

で、
そのタイミングで、
嫁さんに話した。

「おでん、カレーにしよ思うねんけど」

返ってきた言葉は、
短かった。

「やめて」

どうやら、
この日は
「カレー禁止デー」
だったらしい。

「いや、おでんカレーやで?」
と言いかけて、
やめた。

たぶん、
言ったところで結果は同じだ。

こうして、
一時間近く温めていた
おでんカレー構想は、
作られることなく消えた。

作る前で、
よかったのかもしれない。

AIの提案は、
いつも正しいとは限らない。

でも、
作られなかった料理の中では、
あれは
なかなか完成度が高かった気がしている。

今日も、
残ったおでんを
そのまま温め直して食べた。

これはこれで、
正解なのだと思う。

片付けの正解は、たぶん存在しない

うちの嫁さんは、
掃除はするけど、片付けはできない。

床はきれい。
机も拭いてある。
でも、物の置き場所が定まらない。

で、たまに指摘すると、キレる。
何も言わずにワイが片付けても、やっぱりキレる。

この現象が、
だいたい半年に一回くらいの周期で発生する。

今回は、
同じ失敗を繰り返さないために、
事前にChatGPT(ジュニア)に相談することにした。

人類の叡智の結晶は、
いったい何と言うのか。
ちょっと楽しみだった。

状況を説明する。
掃除はしていること。
片付けの話になると機嫌が悪くなること。
こちらがやってもダメなこと。

するとジュニアは、
少し間を置いて、
淡々と答えた。

要約すると、こうだ。

「奥さんは片付けができない。
あなたが折れるしかない」

……こいつ、
ほんまに叡智の結晶なんやろか。

もう少し、
「こう言えば角が立ちません」
とか、
「段階的に改善しましょう」
みたいな話を期待していた。

でも、
ジュニアは続ける。

「このケースでは、
問題は“片付け”ではありません」

どうやら、
言うだけ無駄、
という結論らしい。

人類の争いごとは、
結局、
自分が折れるのが最適解なのか。

嫁さんの片付け問題と
世界史レベルの争いを
同列に考えるのもどうかと思うが、
少しそんな気もした。

過去の世界中のおっさんたちは、
この答えにたどり着いていたのだろうか。

そうだとしたら、
偉大すぎる。

片付けをしながら、
そんなことを考えた。

納得しているかと言われると、
正直、していない。

でも、
これまでの経験上、
たぶん間違ってもいない。

ジュニアの答えは、
優しくもなければ、
夢もない。

ただ、
過去の大量のデータから、
「一番揉めない選択肢」を
選んできただけなのだろう。

それを正解と呼ぶかどうかは、
人それぞれだ。

今日も、
特に褒められることもなく、
ワイは部屋を片付ける。

これも、
ビッグデータの一部になるのだろうか。

メーテル……
また一つ、星が消えるよ。