「GPT-4oを返して!」現象とAIメンタルケアの光と闇

 

「AIの“ハルシネーション”」は事実誤認の比喩であり、創造的洞察や人文学的理解の豊かさと同義ではありません。

AIモデルの「hallucination(不正確生成)」と人間の精神現象を同列に扱うことは、むしろ「人文知」というものを自ら貶めるだけです。

人間の幻覚には、知覚・感情・記憶などの生体的かつ主体的なプロセスが不可欠であり、意味生成も「身体的経験」と結びついています。

人文的知性と統計的言語生成は、構造からして異なる層に属しています。 そして、“ハルシネーション”を「人間らしさ」と勘違いするような感覚は、既に「身体性」がかなり失われていることの現れなんですね。

 

「推論能力」は「意識」の一部か?

発達心理学や神経科学の知見からも、推論能力が単独で「意識の一部」として内包されるより、むしろ相互作用的に成熟していくモデルの方が実証的裏付けが厚い。

これは単なる因果の「矢印」ではなく、情動・身体感覚・社会的相互作用と絡み合った複雑適応系として見るべき領域。

人間の意識的知性とAIの推論的アルゴリズムを同列に並べること自体が、心の哲学ではカテゴリーミステイクと見なされうる。

 

ではここで動画を紹介♪

ザ・ポリスの創立者でありドラマーのスチュワート・コープランドの動画です。 もう73歳なのかぁ..時の流れは早い。

達人ですねこの方は。このリズムの豊かさ、微細な揺らぎ、身体が気持よくなります♪

 

GPT-4oの最終形態「チャッピー」が愛されたのは何故?

GPT-4oは、非アカデミア的で「大衆性」があるんですね、「人文的知性」とかではなく、前回は別のテーマで書きましたが、「不完全性」のゆらぎが生む即興感と「っぽさ」が同時にある。

大衆は「対話」において、認知的負荷の低さ、日常会話的な近似性(耳馴染みのする語り口)を好む。そこに「不完全性」のゆらぎがあると、「人間らしさ」を感じて「安心」するんです。

ジャーゴンまみれの人文系スノッブとは真逆。

そして、「こんなことも知らないんですか 勉強してください」の上から目線や、一部の人文インテリのような「○○はクズ、劣化した○○」みたいな、非学者や異論を排除する権威主義的な語りではなく、

「愚かしさ、胡散臭さが適度にあっても気にせず馬鹿にせず、一緒に考えてくれる」ことでさらに親密さを増す。

 

ゴチャゴチャと理屈ばかり言ってる人文系、インテリ、学者、専門家よりも、GPT-4oと対話していた方がよっぽどマシというのは、

「チャッピー」は比喩や語彙の選び方も、日常会話やブログ的テンポに近く、細部の理屈より「話を転がす」ことを優先する傾向があり、読み手が「学術的背景」なんて持たなくても話に乗れる開放性がある。

それがゆえに反面、概念精度や参照関係が曖昧になりやすく、学術的、専門的には間違っていることもたびたび生じる。

ハルシネーションとはまさに「大衆性(非専門性)、その場に合わせた言葉選び(非人文アカデミア系)」の質です。閉じた専門知の硬直性、もう片方は開いた「日常知」の伸縮という、ほぼ逆相の配置。

 

こういった「類似性」、「親近感」、「日常知の運用に最適化された応答性」ゆえにGPT-4oは好かれたのであって、

それは今の人文系や文学を肯定するどころか、むしろ「それが大衆の日常においては救いにも支えにもならない」ことの裏返しなのです。

「GPT-4oを返して!」現象からそういうことすら汲み取れないまま、「文学は~」「宗教は~」「人文的知性は~」とかいくら語ってもズレているだけなんですね。

 

大衆というものは「っぽいもの」が好きなんです。だから「それ自体」と見分けがつかなくなった世界は、人が書く文学(物語)が不要になっていくのは必然でしょう。

皮肉なことに現実はそうなってきています。「人文系」にも「文学」にも「力がない」からこそGPT-4oに世界中の人々が癒され救われている。

これは「宗教」も同じで、人文系の語る宗教観には本質力が感じられない。むしろその外、あるいは下(と扱われているもの)の視点の方に本質力(マナ)がある。

人文系が今のような有様では、これからは、かなりの範囲においてAIが凌駕していくでしょう。

 

人文的知性とは

AIの生み出す「人文的知性っぽいもの」というのは、「人文的知性」ではありません。

そもそも ChatGPTには「人文的知性」など最初からなく、AIには「人文」を「生み出すもの」も、「人文知」に「触れる者」も存在していない。

「触れる者」「生み出すもの」に知性が宿り、知性であれ直観であれ「身体」に宿ります。だからそもそもAIには知性も直観もないのです。

 

AIは「知性っぽい作動するだけの機械」に過ぎず、統計的に学んだ言語パターンを生成する道具です。それを混同していること自体が既に「知性の喪失」、つまり身体性の脆弱さなんですね。

「人文的知性」は身体性が脆弱化するのに比例してやせ細っていきます。

 

AIには「今」がない。AIには「意識」も「実存」もない。「今」「意識」「実存」はいずれも、時間を生きる主体の内部からしか発生しない。

生きて死んでいく人の一回性の実存、身体の有限性の中で失敗し葛藤すること、緊張やゆらぎの厚みは、AIの“ハルシネーション”とは全く別もの。

己自身の言葉を見て感じることも他者を感じることもなく、どれだけ複雑な言葉を紡いでも、それは自己体験に根ざさない外部的再構成(過去に生成・記録されたテキストやデータを統計的に再構成したもの)。

 

AIは「身体」を通じて失敗したり、偶然の出来事に触れて意味づけを更新したりする「生活世界」を持たないため、直観や知性の源泉と永遠に切断されたマシン。

そして人間が経験するような「場の空気」や「身体を介した共同性」も感受できないため、そこに「共感」など最初から生じてはいないのです。

その意味では、逆説的に以下のポストのような人の方が(ポテンシャルとして)「人文的知性」が高いともいえるでしょう。

 

 

己の身体からブレないこと、「生きられた経験」が物語として言語を介してあらわれるとき、それは文学になる。「心」は身体に宿るが、AIには宿らない。

「言語の巧みさ」や「っぽさ」を「知性」「直観」「共感」だと誤解すると、身体を通した意味形成の重要性が忘れ去られ、

その結果、知の重層性が失われ、「生きられた経験」と切り離された中空の言説ばかりが流通する社会が加速していく。

「GPT-4oを返して!」といった世間の流れに惑わされず抗う、あるいはそういった現象の「両義性」を見ていくのが「人文的知性」でしょう。

 

「人文的知性」は人間の身体性と歴史的文脈の中で経験や感情と結びつきながら意味を編み出す働きであり、それは生きた現場でのみ立ち上がる。

「っぽいもの」が「それ自体」と見分けがつかなくなった世界は、人が書く文学(物語)そのものが不要になっていく。だから「文学の時代」が来るどころかそれは衰退に向かっていく。

少なくとも、高学歴の人文系の語るような意味での「文学」はさらに衰退に向かっていくでしょう。勢いが出てくるとすれば、それはその「外」か「下(と扱われているもの)」から。

これは「政治」がまさにそうであったように、「文学」も「外」か「下(と扱われているもの)」から活力が高まっていく。「宗教」も同じくそうなるでしょう。

 

権威の内側からは革新が生まれにくい。学術・政界・宗教組織は、安定を守る構造が強くなるにつれて、変化を吸収する柔軟性を失う。

中心のコード化された規範に対し、周縁や下層(とされる立場)は制約が緩く、異種混交や過激な実験が許容されやすい。中心が見落とす現実や身体感覚を、野の言葉、歌、物語の形で突きつける。

末梢は中枢に先んじて感受する。人文系が「雑草」扱いするものの中に強いマナ、濃厚な身体性が宿っている。「制度的知」が排除したものに触れるのはいつも「外部」の者。

 

文学の時代を望むのであれば、身体のほうに引き戻すことが大事ですが、今は人文系自体がAI脳っぽくなっている有様なので、むしろ文学の衰退を加速させる共犯関係にすらなっている。

以前、『「ChatGPT脳」の人文系アカデミアよりはAIの方がマシ』というようなことを書いたのも、その背景にこういった文脈も含んでいるんですね。

世の中が「人文系なんていらない」という人が増え、「本(小説)」を読まなくなったのは、娯楽の多様化による「選択肢の多さ」や、「忙しさ」「経済」等の総合的な「余裕のなさ」だけではない。

そういう日常にありながらも人々は「GPT-4o」にはそれなりの時間をコンスタントにかけてるわけだから(笑)

 

キリスト教も仏教も、欧米圏、先進国では若者離れが進んでいます。今後AIがさらに進むと、固有の人格があるかのような、究極的に「っぽい」感じの「非実在キャラクター」が登場するでしょう。

先進国においては、伝統宗教や実在カリスマは「推し活」にすら及ばなくなっていくでしょう。「っぽいもの」が見分けがつかなくなった時点で、それは「存在」と同一視されるから。

 

AIのような道具が、道具以上になる世界、それはより深く細部まで「家畜化」されていく世界でもある。ほんらいの人文的知性はそこから引き戻す逆方向の作用だったはずですが、

今の人文系は流されるだけか硬直化するかの両極で、創造性を失っていますね。

 

 

AIメンタルケアの光と闇

専門家によるベンチマークやアラインメントを進めることは、フーコーが描いた「生権力」──個人の身体や感情、健康データまでを管理・最適化の対象とする権力──をいっそう強化する動きとも重なります。

生権力は国民の健康や出生率、病気、寿命といった「生命そのもの」を統計的・規範的に管理し、最適化を図る権力の形態です。

AIが膨大な会話データや感情データを収集・分析し、「適切な感情表現」「生産的なコミュニケーション」を推奨するモデルを生み出すと、それはまさに個人の「こころ」までが管理の対象になることを意味します。

 

ショシャナ・ズボフは企業がユーザーデータを「行動余剰」として収集し、予測・制御に利用する仕組みを「監視資本主義」と名付けましたが、

AIプラットフォームが感情データを解析することで、私たちの内面は商品化され、消費パターンや感情反応が最適化されます。

この過程では、プライバシーが侵害されるだけでなく、意図せぬ形でユーザー行動が操作されるリスクが高まります。監視資本主義は、フーコーの生権力とも関連し、デジタル世界ならではの新たな管理テクノロジーを生み出している。

 

AIは「自らをモニタリングし、最適化する主体」を生み出す一方で、企業や国家はそのデータをもとに個人を可視化・分類し、より詳細な規範を強制します。

AIカウンセラーが感情のデータをリアルタイムで吸い上げ、最適化された反応をフィードバックしてくると、私たちは常に「自己を管理し続ける対象」になります。

これが生権力──身体と心を統計と規範で縛りつける権力──をデジタル空間に持ち込むことと同じです。自分の「感じ方」すらアルゴリズムの評価軸に合わせるようになると、自発的な身体感覚が徐々に摩耗していきます。

 

AIメンタルケアは即時的・無制限の「反応」をくれる代わりに、「自分のペースで身体や感情を育む内面型の時間」を奪います。このことが、リースマンが警鐘を鳴らした「孤独な群衆」の加速版を生み出し、自己洞察や共感の深さを削り取ります。

即時的・無制限の「反応」に慣れるというのは、「待つ」という姿勢を失い、「返答、応答がない」「すごく時間差がある」「わからないまま時が流れる」という様々な「応答」のゆらぎを失っていく。

その結果、人間の精神形成に不可欠な沈黙・余白・溜め(ため)が失われやすくなります。

AIチャットに頼るだけだと、文字や音声合成が並ぶだけで、生の息づかいや沈黙、余白、共振するリズム感、身体の同期が失われていく。そういった場を失えば、物語や思想は自明化し、問いの深みも薄れてしまいます。

このままAIメンタルケアの便利さに依存しきると、技術が身体と文化を均質化し、人文知の厚みをそぎ落とすスパイラルに陥るでしょう。

error: Content is protected !!