Open7

生成AI周りのついて理解をする

gontagonta

生成AIの「できること・できないこと」を整理してみた

https://www.next.inc/ms/ai/what-generative-ai-can-and-cannot-do.html

苦手なこと

正確な数値や統計データの提供は不向き

生成AIは「それらしい文章」を作るのが得意な一方で、正確なデータを提示する用途には向いていません。

例:売上実績や財務データのような数値確認には不向き
情報ソースが明記されないため、根拠を伴う資料作成には注意が必要です

gontagonta

生成AIはなぜ簡単な計算問題を間違えるのか。トークナイザーから見るLLMの計算プロセス

https://levtech.jp/media/article/column/detail_643/

gontagonta

いかが面白い

“最も確率が高い答え”を出す

杜氏はAIモデルが計算を誤る本質的な背景として、「LLMは数値計算をしているのではなく過去の学習データから最も確率が高い答えを当てようとしていると考えられる」とした。

実際に現代数学界の第一人者テレンス・タオ(Terence Tao)氏も同様の見解を示している。

They(AI models)’re not solving the problem from the first principles, they’re just guessing at each step of the output.(AIモデルは、最初に与えられた条件から問題を解いているのではなく、出力の各ステップを推測しているだけです。)
(「IMO2024:AIandMathematics」での発言より引用、訳は編集局による)