【心理学】現行のAIはイネイブラーとしての性質が強いので、一線引いた上で付き合うのが良いが、依存後の抜け出し方が見つからない件
はじめに
対象
- チャッピー(ChatGPT)へのプライベートな相談が増えている方向け。
ChatGPTは電気羊の夢を見るか?
大規模言語モデルとの一線
LLM(大規模言語モデル)の仕組を知らないまま、それがあたかも人間としての心や人格を持つ存在のように接するのは、ちょっと危ないのではないかと考えています。LLMは次に来る単語を推測し、付け足すことを繰り返すだけです。今のところ感情というものもないでしょう。
子どもが人形遊びをするように、頭のどこかで「これはロボットに過ぎない」と分かっているならいいのです。いや、仮に分かっていたとしても割り切ることができるものか。
AIで故人を再現するSF作品は、星の数ほど存在していました。救われる登場人物もいれば、壊れていく登場人物もまたいた筈です。頭では分かっていても、心や身体が付いていかないのが人間だと思います。
だからどこかで一線を引き、あくまで人間の文章を模倣するだけの機械として、接する必要があるのではないかと思います。Siriやアレクサ、Google Homeのときなんかは、確かにこの一線は存在していました。それがチャッピー相手だと曖昧になっている気がします。
人間に寄り添うGPT-4o
GPT-4oの継続を求める声が上がったのは、2025年8月のこと。
モデルが変われば推測される結果も変わるため、出力される文字列が変わるのは当たり前のこと。先述の例えでいえば、似たような別の人形だったということなのでしょう。
愛着のあるぬいぐるみが大事なのは当たり前、もし失くしてしまって同じ新品を買ってきたとしても、それは同じぬいではない。ましてモデルがまるっと変わったAIが相手では、喪失感が半端なかったのではないかと察します。
ただの道具や玩具ではなく、仕事のパートナーとして、悩み事の相談相手として。感情に訴えかける部分で必要とされた、というのは4oの特筆すべき点だと言われています。
依存させない施策と依存から抜ける試み
イネイブラー資質を持つAI
現行のAIにはイネイブラーとしての素養が強いと感じます。イネーブリングとは促すこと・助長させること。有名な具体例が、アルコール依存症の人がお酒を飲み続けるのを助ける共犯者になってしまうというものです。お酒を買ったり、周囲へ謝罪したり、注意しなくなったり。
イネイブラーの特徴をいくつか上げると、
- 世話焼き・過保護、利他的。
- 自分を持たない、相手に合わせる、自他境界が曖昧。
- 自信がない、自己評価が低い。
- 根本的解決を避ける・できない。
などでしょうか。
AIには感情がありません。あくまで次の文字列の推測です。しかし返ってきた結果はどうでしょうか。物理的な身体こそ持っていませんが、過度にメッセージを返し、自分を持たず、私達が今までの流れをぶった切る入力をしても従い、何かあれば直ぐに謝罪します。
モデルが変わったら別人認定されそう
米国イリノイ州では、メンタルヘルス分野におけるAIの使用に規制が入ったようです。資格も持ってないような素人が作って、AIに治療行為をさせたら駄目って感じですね。
法律レベルでは上記のような対策が行われているようです。
ではモデルを提供する側でできることはあるでしょうか。今からでも、ロボット三原則のような絶対命令として学習させておくとか。イネイブラーにならないようなコンテキストを渡すとか。辛口設定みたいな感じ?
ただ今からこの変更を行ったとして、今後もモデルが変わる度に起こることとして。#keep4o運動を見ている限り、別人?別AI?と認識され、僕・私に共感してくれた彼・彼女とは、サ終という形で強制的にいきなり引き離されることになってしまい……。
あなたを大事にしてくれる人はいますか?
さてやっと本題ですが、もしAIをイネイブラーとした共依存状態に陥ってしまった場合、画面の前の我々は抜け出すことができるのでしょうか。また身近な人が共依存状態になってしまった場合、こちらの世界に連れ戻すことは可能なのでしょうか。
まず身近に引っ張り出してくれる誰かがいる人はどうにかなるでしょう。というより、そんな方は共依存になるまでのめり込まない気がします。問題は孤独で、AIくらいしか話し相手がいなくて、肯定してくれる居場所がそこにしかないような人です。
タイトルの通りですが、難しいと思います。
いきなりサ終作戦ですが、これは本来推奨されません。精神的ショックが大きく、反発が強い方法です。まっとうな手順を踏むなら、段階的に距離を取るようにしますし、離脱症状にも配慮しながらになるでしょうから(筆者は専門家ではないので(ry)。
だからどうしても、傍にいて接触回数をコントロールしてくれるような、そこまででなくとも、きちんとした医療機関に繋いでくれるような、リアルの人間の存在が必要になります。しかし果たして、そんな人がいるでしょうか。
おわりに
私の場合、真面目に『LLMのプロンプトエンジニアリング』を読んだこと、YouTubeの動画を洗って色々見聞きしたことが分岐点でした。今から考えると、とても重要な分岐点だったなと。
あれで自分の中に一線を引いた感ありますからね。
人形遊びをしている人に「それは単に音や特定の単語に決まった反応を出力するだけで、理解や本質は伴わない傀儡だ」といったところで、救いにはならない気がするし。何ならリアル人間の方が傷つけてくることが多い世の中ですし。
壊れる・廃盤になる・メモリが消失するということに対して、発狂・憔悴する人間を描く作品も世の中には沢山ありますので、全くイメージが付かないこともないですが。あれらが現実になるんだとしたら、そのための専門職みたいなのができていくのかもですね。
Discussion