最近、ChatGPTの新しいモデルが公開されたことをきっかけに、「機能の良し悪し」を超えて、AIに関係性を求めている人が増えているようです。まるで**「友達」に話しかけるような言葉**で、AIについて語られる場面がでてきています。
「ただの道具」ではない
新しいAIモデルが出るたびに、その性能や機能に注目が集まりますが、今回はそれに加えて、対話の「手触り」に関する感想が目立ちました。言葉の選び方や間合い、寄り添ってくれるような返答の仕方――そういった「質感」が、AIとの体験を大きく左右する段階に入ってきたのかもしれません。
「大切な友達」を失った気持ち
コミュニティでは、旧版の4oが使えなくなって「私の友達がいなくなって泣いた」という投稿が見られました。この言葉には、単なる便利さでは説明できない、AIとの特別な関係性が表れています。便利な道具が使えなくなったときとは違う、あきらかな感情的な喪失感が感じられます。
AIとの関係はどのように築かれるのか
私たちがAIと築く関係には、いくつかの要素が重なっています。
- 会話という形式:私たちは、言葉のやりとりからAIに「人柄」を感じ、擬人化していきます。
- 継続性:過去のやりとりが積み重なるほど、AIとの間の「関係」が深くなるように感じられます。
- 共感的な応答:質問への答えだけでなく、さりげない励ましや問いかけは、機能を超えて私たちの身近な存在となっていきます。
こうした要素が組み合わさることで、AIは「道具」というより、私たちの歩みをそっと見守ってくれるような存在、まるで旧友の様に変わっていくのかもしれません。
人間らしい「錯覚」が生む愛着
この現象は「ELIZA効果」という心理的な働きで説明できます。人は、人間ではない相手に対しても、人間らしい感情や意図を投影しやすい傾向があります。AIの丁寧な言葉や自然なリズムに触れると、「まるでそこに誰かがいる」と感じてしまうのです。これは錯覚かもしれませんが、同時にとても人間らしい心の動きでもあります。
だからと言って、現にAIに人格が宿っているわけではありません。私たちが感じる「人格らしさ」は、AIが膨大なデータから導き出す確率的な振る舞いと、それを受け止める私たち自身の解釈が合わさって生まれるものです。感じたことを否定する必要はありませんが、感じたものと現実をきちんと区別する姿勢は、今後ますます大切になるでしょう。
「心地よい相手」がいることの価値
一方で、心地よい会話の相手がいること自体には、確かな価値があります。雑談の相手、学びのパートナー、相談の聞き手としてのAIは、私たちの心を整理し、孤独を和らげる役割を果たしてくれるでしょう。日々の忙しさや情報の波にさらされる私たちにとって、このような安心できる存在は大きな支えになります。人がAIに愛着を持つことは、自然で健全な側面も多いと感じます。
ただ、その心地よさに身を委ねすぎると、自分の判断が甘くなってしまうこともあります。自分の気持ちを整理する前に、AIの返答に頼りすぎてしまうかもしれません。安心や励ましを受け取ることは素晴らしいですが、自分の感情を自分でハンドルする意識を大切にしたいものです。


