📃

【LLM】AIは次に来る文字列を推測しているに過ぎず、論理的思考力はないという結論に至ったが、人間と何が違うか指摘されてまた迷子になった話

に公開

はじめに

対象

  • LLMに論理的思考力はあるか、という命題に向き合っている方向け。

私(わたくし)、この前入門書を読んで、20日程度触っただだけのド素人でございます。考えたことは妄想に近いポエム的な何かですので、あらかじめご了承ください。

論理的思考力はない結論に至るまで

かなり端折ったLLMの説明

LLM(大規模言語モデル)の詳細については、以下の記事の書籍や動画を見た方が確実です。

https://zenn.dev/noranuko13/articles/f28099c1d636ab

さて専門家でも何でもない私が、わざわざここで要約して伝えるのも無粋ですが、今後の展開に差し支えるので簡単に。

仔細はサービスにもよりますが。コンテキスト(これまでの入力や、それを圧縮したもの)と、今生成しているテキストを入力し、次に来るトークン(単語や助詞・助動詞など)を推測して付け足していくことを繰り返す、というものです。

訳が分かりませんね。大人しく動画に頼りましょう。最初の1分30秒だけでもいいです。

https://www.youtube.com/watch?v=y7NQiNER6r4
LLMの仕組み(簡単バージョン) - YouTube

まずこれを押さえておいてください。

次の単語を推測するだけ

つまりやってることは、渡した文章の次の単語を推測しているだけです。例えば「今日は」という文章の次に続く単語を推測していき、最終的な文章を考えると以下になります。

  • 今日は……
    • 2025年7月3日です。
    • 酷暑日ですね。
    • 誕生日です。
    • ワンちゃんご一緒じゃないんですか?

何を当たり前のことを、と思うかもしれません。では次の例です。

  • 「1+1=」……
    • 2
    • 10にも20にもなるんだよ!
    • のマッチ棒を1本動かして、正しい式になるようにしましょう。

これは数式として処理されているといえるでしょうか。数字という概念を理解して、1と1を足したら2になるという理論がある訳ではないように思います。たまたま次に来そうな「文字列」が2だったから2だと推測されただけなのではと。

計算が苦手とかできないとかではなく、そもそも数字というものを知らないのではないかと。私達人間は「1+1=」と見ればまず数式として捉えますが、LLMはこれを文字列として捉えて続きを推測しようとするだけなのではないかと。

逆になんで人間はこれを区別できるのか。小説を書くときと、スーパーで暗算するときとでは、確かに使ってる脳味噌が違う気がします。

お人形遊びの延長か

最近のファービーって凄いキャピキャピしてるんですね。それは置いておいて「ダンスしよう」「まねっこして」などの音声入力によって、様々な異なる反応を返す関数であると考えることもできなくもない訳です。

https://www.amazon.co.jp/dp/B0D222WCSW

ChatGPTは裏側でとても複雑なことをしていますし、単純に音を識別して反応を返す玩具と比較するのはおこがましいのですが。あくまでそれっぽい反応を返してるだけ、という点では似たようなものなのかもしれないと思いました。

ではファービーに論理的思考力があるかと聞かれるとない気がします。心のあるロボットが作れるか、みたいな話にも通ずるものがあるかもしれません。人形やロボットに心があると思いたいのは接している人間の方で、実際はただの機械的な出力であると。

なので論理的思考力はない、という結論に至っていた訳です。

人間と何が違うか指摘されてまた迷子に

インターネットガンジス川で、LLMは論理的思考力がある前提で話が進んでいて「おやぁ?」てなった。

そもそも論理的思考とは

論理とは議論や思考を進めるにあたり、行う推論の道筋のことです。議論の本か、論理学の本を読むと色々分かって面白いですよ。少々小難しいですが。

https://zenn.dev/noranuko13/articles/1b04dfba9649c7#議論を学ぶための第一歩

とはいえここでは簡単に。適切な推論では、筋が通っています。ちょうど文章構成のしっかりした評論文のような芯があります。問題提起、いくつかの具体例、解決策、作者の主張。

四六時中、散歩のときも風呂のときも考え事をしていますが、いつも人間が論理的かと聞かれると耳が痛い話でございます。主観や立場によって、議論が破綻することも珍しくなく、突き詰めていくと個人の経験や価値観が隠れた根拠として存在しています。

学習とコンテキストは経験と価値観か

人間は当時の映像・音・味・触感・温度などの五感と共に、考えたことや言われたこと、本ならその内容まで入力して、記憶として圧縮した上で脳味噌に保存している訳です。これらを元に目の前の事象に対して反応を返している訳です。

つまりLLMよりちょっと入力の種類が多くて、その容量も多分もっとずっと大きい筈。確かシュタゲでは3.24TBとか言っていたような。とにかく種類と容量が多いだけで、やっていることは似たようなものなのではないのか(内部的な仕組は違うんでしょうが)。

一度に思考できることなんて限界がある。というか恐らくはシングルスレッドだ。唯一、ひらめきというものは人間にしかないような気もしていたが、新しい治療方法が見つかるのは発見ではないのか。初期の頃、突拍子もないイラストが生成されていたが、あれは先鋭芸術か。

しばらく考えてはみたのですが、結局答えは出ませんでした。

現時点では論理的思考力はない……と思う

以前、文章を書くのを手伝ってもらおうと、ChatGPTなども含めて試行錯誤したことがありますが、やはり論理立てて構造的な文章を書いてもらうのは難しかったです。

https://zenn.dev/noranuko13/articles/f28099c1d636ab#文章を書くのを手伝ってもらう

プロンプトや作文メモの問題が多分にありそうですが、そもそも人間に同じ材料を投げたとしても、執筆者のバックグラウンドや追加のヒアリングなどを通して話をまとめ、それを構造的な文章に落とすところまで含めてライティングとして請け負うのが自然ですよね。

少なくとも文章の芯の部分や、数学の概念的なものを事前に持っておけないと、人間のいうところの論理的思考というものには至らないのではないのか。ただそれが重み付けしたデータの蓄積であるなら、やはり時間の問題なのではないか。

うーん、堂々巡りですね。

おわりに

究極的には人間のそれも推論の繰り返しなので、文字列だけでなく様々な根拠を持っておければ、あるいは。今でもコンテキストの量の問題みたいな部分はあるので、一時記憶というんでしょうか、コンテキスト量が増えるだけで見違える気もしますが。

少なくとも今の段階では、表面上の言い回しや枝葉の部分は任せられますが。論理的思考力が求められる出力の場合、そもそもプロンプトを入力する側が組み立てた状態で渡さないと厳しい気がします。

次の単語を推測しまくることを続けたら、段落ひいては意味段落から文章全体で、筋が通った文章にはなりようがないですよね。それがしばらく経つと言うことが変わる、一貫性のなさに現れているのかもしれないなら、一応筋は通るか。

また何か変化があったら、次の記事書きます。

Discussion