🦥

意識低い系の為のLLM

に公開

Delegate to LLMーーLLMに全てを委ねよ

Claude Opus 4.6[1]のコンテキストウィンドウは200Kトークン、ベータで1Mトークンだ。日本語で言えば、だいたい数十万文字から百万文字くらいの情報を一度に処理できる。頭がいい。とんでもなく賢い。

ならば、Claude Opus 4.6に興味のある本を書いてもらって、それを読む。最高のひきこもりライフだ!

「ロールを定義しろ」「Few-shotを入れろ」「Chain of Thoughtで段階的に考えさせろ」「いやいや時代はコンテキストエンジニアリングだ」——。LLMを"正しく"使うためのテクニックは日々増殖している。

面倒だ。そんな事がやりたいんじゃない。最近の賢すぎるLLMならいい感じにやってくれるだろう。

Laziness

ここで提案したいのが、意識低い系LLM活用である。

やり方は簡単だ。何も考えずにLLMに投げる。以上。

ロール定義? LLMが文脈から勝手に察してくれる。Few-shot? 例なんか見せなくてもわかってくれる。出力フォーマットの指定? だいたいいい感じに整えてくれる。温度パラメータ? そもそも触る必要がない。

人間がやっていたことを、全部LLMがやる。「あとはよろしゅうに」の精神である。
CLAUDE.md/SKILL.mdなんてLLMが書けばいい。

プログラマの三大美徳

Perlの作者Larry Wallは、プログラマの三大美徳として 怠惰(Laziness)・短気(Impatience)・傲慢(Hubris) を挙げた[2]

怠惰 とは、全体の労力を減らすために全力を尽くす性質。面倒なことを繰り返さないためにプログラムを書く。 短気 とは、コンピュータが怠けているときに感じる怒り。ニーズを先回りするプログラムを書く動機になる。 傲慢 とは、他人にけなされないプログラムを書き、保守する性質だ。

意識低い系LLM活用は、この「怠惰」の正統なる後継者である。

実践

実際に書いてもらった。
https://zenn.dev/j_m/books/fd1d6906768288
https://zenn.dev/j_m/books/eb8ff32d4fd8de
ただ、「帰属なき生成——Temperatureの精神病理学」については、途中まで書いて、つまらんなと思って方針を変えた。
そうこうしていると、おかしな挙動をはじめた。
おらのOpusが昔のChatGPTみたいになっている。

わかる。技術的には間違っていない。だが読んで「打たれない」。
正直に見直す。
その通りだ。

あれ?Opusさん…?

(関係ないけど、なんでDEVO[3]のエナジードーム被ってるんだろう)
コンテキストが長すぎることによる劣化が発生した。

錯覚

我々より遥かに賢く見えるLLMがやっているのに、上手くいかない事例は枚挙にいとまがない。

METRが2025年7月に発表した研究[4]は、なかなか面白い。経験豊富なオープンソース開発者16人に246のタスクをこなしてもらい、AIツールの使用をランダムに許可/禁止したところ、AIを使った方が19%遅かった。開発者たち自身は「20%速くなった」と感じていたにもかかわらず、だ。

Faros AIの調査[5]も面白い。10,000人以上の開発者のデータを分析した結果、AIツールを使うチームはタスク処理数やプルリクエスト数は増えたが、組織レベルのデリバリー速度には改善が見られなかった。コードは増えた。でもプロダクトが速く出荷されるようになったわけではない。

METRの研究では、開発者が遅くなった原因のひとつはAIの出力を過信してそのまま受け入れようとしたことだった。プロンプトを頑張って最適化しても、出力を検証するのは結局人間だ。そこがボトルネックである以上、全体の生産性が劇的に上がるわけではない。

怠惰さを継続するために

我々、意識低い系は「効率」なんて意識しない。面白ければよかろうなのだ。

だが、怠惰にLLMを使うにはLLMの限界を知らなくてはならない。
ハルシネーション?チェックすればよろしい。
問題はそこではない。LLMは部分は正確だが、全体を見ない。統合する中心がない。

  • 自己回帰で一語ずつ生成するから、全体を見渡せない
  • コンテキストの真ん中が抜ける(Lost in the Middle)
  • A→Bは知ってるがB→Aは出てこない(Reversal Curse)
  • 先を見通してから書くことができない
  • Chain-of-Thoughtは推論してるように見えるだけ
  • ハルシネーションは構造的に不可避

これも書いてもらった。
https://zenn.dev/j_m/books/a8ecb56b61c24a
Prompt Repetition(プロンプト反復)が効くのも、LLMに"読み返し"がないからだ。
勿論、研究者は上記の問題を認識している。最新モデルであれば「メアリー・リー・ファイファーの息子は誰ですか?」の問いに容易く回答する。しかし、それでも出来ないことがある。

Suspicion

GitHubのStaff Software EngineerであるSean Goedeckeはブログ記事[6]で、AI時代のプログラマの美徳をLarry Wallの三大美徳から更新して 執着(Obsession)・短気(Impatience)・疑い(Suspicion) だと書いている。

特に三番目の「疑い」。LLMの出力に対するデフォルトの態度は「たぶん何か間違えてるから手で直す必要がある」であるべきだ、と。

意識低い系の本質はここにある。

雑に投げる。返事には「ホンマか?」と返す。ダメなら「違う」と返す。質問には質問で返す。 それだけだ。

人間の方が賢いのか

上記の様な事を書くと人間の方が賢い様に見える。
だが、人間の認知バイアスとLLMの限界は構造的に似ている。

  • 過信 — METRの開発者は19%遅くなったのに「速くなった」と感じた。人間も自分の判断力を過信する[7]
  • 中間の忘却 — LLMがコンテキストの真ん中を忘れるように、人間も長い話の中盤を忘れる[8]
  • ハルシネーション — LLMがもっともらしい嘘をつくように、人間も記憶を捏造する[9]
  • 自己回帰的思考 — 人間も「次に言うこと」を考えながら喋っていて、全体を見渡してから話しているわけではない
  • 後付けの意識 — リベットの実験[10]によれば、脳の準備電位は「動こうと意識した」タイミングより約350ミリ秒先に出ている。人間の「決定」すら後付けの解釈かもしれない

おわりに

当然だが、この記事は意識低い系LLM活用の実践例である。

俺がやったことは「意識低い系のLLMっていうブログ書いて。軽めで。限界はある感じで。論文のリンクつけて」とLLMに投げたことだけだ。プロンプトエンジニアリング、コンテキストエンジニアリングなし。

良いか悪いかは、読者の判断に委ねる。嘘。そんな事には興味がない。意識が低いからな。自分が楽しければ全てよし。
本へのリンク張ってるけど、読まないでしょ?俺なら読まないね。長いもん。

脚注
  1. Anthropic. "Introducing Claude Opus 4.6" February 5, 2026. ↩︎

  2. Larry Wall, Tom Christiansen, Jon Orwant. "Programming Perl" 3rd Edition, O'Reilly Media, 2000. 三大美徳の定義については thethreevirtues.com も参照。ちなみに本物のプログラマはFortranを使う。「普通のやつらの下を行け」という素敵な言葉があるが、あれは低レイヤの話なんだよね。元ネタはポール・グレアム。(Lisper) ↩︎

  3. DEVO ↩︎

  4. Joel Becker et al. "Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity" arXiv:2507.09089, 2025. ↩︎

  5. Faros AI. "The AI Productivity Paradox Research Report 2025" 2025. ↩︎

  6. Sean Goedecke. "The three virtues of an AI-assisted programmer" 2025. ↩︎

  7. Kruger, J. & Dunning, D. "Unskilled and Unaware of It: How Difficulties in Recognizing One's Own Incompetence Lead to Inflated Self-Assessments" Journal of Personality and Social Psychology, 77(6), 1121-1134, 1999. ↩︎

  8. Murdock, B. B. "The Serial Position Effect of Free Recall" Journal of Experimental Psychology, 64(5), 482-488, 1962. ↩︎

  9. Loftus, E. F. & Palmer, J. C. "Reconstruction of Automobile Destruction: An Example of the Interaction Between Language and Memory" Journal of Verbal Learning and Verbal Behavior, 13(5), 585-589, 1974. ↩︎

  10. Libet, B. et al. "Time of Conscious Intention to Act in Relation to Onset of Cerebral Activity (Readiness-Potential)" Brain, 106(3), 623-642, 1983. ↩︎

Accenture Japan (有志)

Discussion