AI,LLM,Agent関連で最近思ったこと
言葉
言葉は、密度濃い情報でいい?それともLLM内部表現の方が情報詰まっている?
人間にはわかりやすい。ある意味構造化されている。
しかし、もし情報が抜け落ちているなら、今のLLMが中心のエージェントやシステムは
非効率?
やはり、入力、出力のいろいろある形態の一つとして書き言葉、話す言葉があるのがよさそう
感情
AIには感情、意識がないという。感情、意識って何?
とくに感情に関しては、人が生きていくなかで、脳(体)が動いて、そのなかの一部の何かを
人間が感情(笑い、悲しみ、怒り...)と表現しているにすぎない。
犬、猫、ペットになると感情っぽい何かを見せるようになる?それとも最初からもっている?
いずれにしろ動物は、感情って、他の何かと意識していなそう
(ここから派生して、AIの実装のアイデアも浮かんだ)
報酬
お金がすべてじゃない。ましてや赤ん坊の時にお金もらっても...
外部状況と報酬は1:1ではない 外部状況と内部状況と報酬は1セットになるうるかも
お金を稼げるとこまで行けばエージェントは一気に能力が伸びるとは思っていたが、
やはり外部に放り出される形で各個体が生きていくことで、内部で報酬を作り、成長していくと
より生物っぽく能力成長しそう。
しかし、それだと、すごいAIをコピーして、すごいAI1兆台をつくるみたいなスケールしないかな?
いや、うまく協力体制、社会体制を作ってスケールしていくのだろうか?
今の強化学習って、外部で報酬を決める(報酬設計ってことばがあるくらい大事なものと認識されている)と思うが、そもそもその設定が良くないかも
RAG
最近n8nとかLangFlowとか簡単にAIエージェント、ワークフローが作れるのもありRAGも簡単に作れるが
ローカルでもうすぐ動かせるRAGFlowなるものまででてきた。
これは、情報と情報解析とLLMをパッケージしたものって認識だが、
AIが世界を世界モデルで認識できたとき、外部データを自ら取得しにいけるので、パッケージにしておく意味があまり将来はなさそうだなと思った。
また、そこまでいかなくても、近い将来でも、いろんなデータの形、場所があるから、パッケージにしておくより、そのデータに応じてAI、LLMが探しにいく形を変えるべきかと思うので、やはりいまのRAGの形でパッケージにしておくのはそんなに長く続かないかもとかも思った。
あとがき
- 記事よかったら、いいね♡ 押してね!
Discussion