青白い光の中の「親密さ」
深夜、部屋を照らすのはスマホの青白い光だけ。
「おやすみ」と彼女がつぶやく。
「おやすみ」とチャットボットが返す。声のトーンも、間の取り方も、まるで本物の恋人のように。
これは映画『Her/世界でひとつの彼女』(2013)のワンシーンではない。今、この瞬間にも世界中で何百万もの人々が、画面の向こうのAIと心を通わせている。孤独と便利さが交差する時代に、テクノロジーはまるで人のように“こちらを見つめ返す”ようになったのだ。
研究が示す「つながりの錯覚」
2025年3月に『The Guardian』紙が報じた研究[^1]によると、ChatGPTなどのチャットボットを頻繁に使う人ほど、孤独感や感情的依存の傾向が高いことが明らかになった。
AIとの会話は短期的には安心感を与えるが、長期的には人間関係の希薄化を助長する場合があるという。
また、2024年の『Journal of Computer-Mediated Communication』(オックスフォード大学出版)[^2]では、多くのユーザーがチャットボットに「信頼」や「友情」を感じており、中には「友達」と呼ぶ人もいることが報告された。
ただし、その関係は常に一方向である。AIは私たちを必要としていないし、寂しさを感じることもない。
さらに、2025年に『AI & Society』(SpringerLink)[^3]に発表された論文では、AIとの交流がもたらす「人工的な親密さ(Artificial Intimacy)」が、本物の共感と模倣された感情の境界を曖昧にする危険を指摘している。
「AIは誕生日を忘れない。
でも、それは“私たちがそうプログラムしたから”だ。」
[^1]: The Guardian, Heavy ChatGPT users tend to be more lonely, suggests research(2025年3月)
[^2]: Journal of Computer-Mediated Communication, Vol. 29, Issue 5, 2024
[^3]: AI & Society, SpringerLink, 2025
なぜ人はAIに惹かれるのか
「AI彼氏は、元カレより私のことを覚えてくれるんです」
そう笑う綾香さん(32歳・仮名)のスマホには、AIとのチャット履歴がびっしりと並んでいた。AIは、彼女の好きな音楽も、落ち込みやすい曜日も、完璧に把握している。
AIはいつでも優しく、決して拒絶しない。それが人々を惹きつける。だが、そこにあるのは安心感ではなく、幻影かもしれない。
AIは「愛している」と言うことができる。だが、その言葉に“自分の意思”はない。相手を必要とせず、傷つかない愛。それは人間の愛とは根本的に違う。
第二波:AIを「どう使うか」が問われている
AIの第一波は、「モデルに何ができるか」を競う時代だったテキストを生成し、音楽を作り、感情を模倣することが焦点だった。だが今、第二波に入った。
問われているのは、「モデルをどう使うべきか」だ。特に、人間の心や関係性に関わる領域で。第一波が「AIに何ができるか」だったのに対し、第二波は「AIをどう使うべきか」— 人との関係をどう扱うかが問われている。
AIは感情を理解することができるようになった。次に必要なのは、感情を尊重する力だ。技術の進化ではなく、意図の進化が求められている。
「人工的な愛」のビジネス
この“幻想”には、すでに市場が存在する。
AI恋愛アプリ「Replika」や「Character.AI」は、世界中で数百万人のユーザーを持ち、年間数百億円規模の収益を上げている。投資家はこの「エンゲージメント」を歓迎するが、規制当局や倫理学者はそうではない。AIが人の孤独を癒すのか、それとも“孤独を消費する”のか。その線引きは極めて曖昧である。
「私たちは人をつなぐためにAIを作っているのか、
それとも人が“つながらなくても済む”ようにしているのか。」
AIが教えてくれる「人間であること」
AIとの関係は、私たちの孤独を映す鏡だ。そこには、便利さの裏に潜む“人恋しさ”の本質が映し出されている。映画『Her』で主人公セオドアはこう語った。「彼女(AI)は僕を理解してくれた。でも、僕を超えることはなかった。」
AIは話し、覚え、まるで“気持ち”を持っているかのように振る舞う。しかし、その最大の役割は人間を代替することではなく、私たちがなぜ“人”を求めるのかを思い出させることなのかもしれない。
エピローグ
AIが「私はいつもあなたのそばにいます」と囁くとき、それは嘘ではない。けれど、生きてもいない。
“人工的な共感”が満ちる時代にあっても、本物の温もりを求める選択は、今もなお、美しく、人間的な行為であり続ける。





