2024年2月時点のAGI動向
今回は2024年2月現在のAIの状況と将来性について考えてみました。最近は色々な分野でAIが使われていますが、その流れもChatGPT登場以降、一気に変わってきた感じですよね。
OpenAIのブログから見てみる
まずは、丁度1年前に書かれたOpenAIのテックブログから見ていきます。
「Planning for AGI and beyond」
今後AGI化が進むことを前提に、我々でAGIとどう向き合っていくかを短期的と長期的に分けて書かれています。
Open AIのブログに入る前にまずはAGIについて簡単に説明します。AGIはArtificial General Intelligenceの略で、汎用的な人工知能という意味です。今までのAIは画像を認識したり、文字を認識したりするところからスタートしました。それがさらに進化して、人間のように考えたり、感情を理解できるようになる世界観がAGIです。普通の人が聞いてAIを連想する世界に近いですね。雑に言えば、SFで出てくるAIです。
さて、Open AIのブログを簡単にまとめると以下のようなことが記載されています。私の意訳もかなり入っているので、正確に知りたい場合はブログを読んでください。
短期的
-
AIを運用していく経験を積む
・リスクが低いうちに利点と欠点を把握する
・課題を乗り越えるためのフィードバックループを活用する -
ガバナンスとその合意
・利用に関して社会で合意し、その合意の中ではユーザーに裁量権を与える
・当初は人間がモデルを評価し、徐々にAIを使用して技術評価するようになる
・AIの性能と安全性を一緒に進歩させる -
AIの管理方法
・システムとしての管理、システムを作った利益の分配、アクセスの公平性
・利益を追い求めすぎないように株主利益に上限を設けている
長期的
・変化・移行は始めはゆっくりかもしれないが、急激に早くなる可能性がある
・重要な局面においては減速も考えるべき
ここまで読んでみてわかることは、少なくとも1年前はOpenAI社でもAGIの実現性が見えていないということです。もちろん、AGIが実現することは予想できるが、今現在は実現できていないということです。
それでは他の状況も見ていきます。予想されている記事は様々ありますが、孫正義さんは去年10年以内に実現するだろうと言っています。
他の意見だと2050年くらいまでには、というものもあります。予想の振れ幅がかなりありますが、個人的にはAGIの定義が曖昧だから、その人のイメージによって予想も異なっていると思います。人間に近いレベルを求めているのか、人間を超越しているのかでも全然違うでしょうし、そういう差によって10年くらいの誤差が出てもおかしくはありません。AGIって今どこまで来ているの?
さて、将来そういうSF的な世界がやってくるのかもしれないけど、現在はどういうところまで来ているの? というのが私の疑問でした。それを探るためのヒントが、LangChainを調べていてわかってきました。LangChainの解説をこのブログで行なってしまうとかなり長くなってしまうので、省略します。解説してくれている記事も沢山あるので、検索してみてください。
AWSさんの記事の「LangChainとは?」を引用します。
LangChain は、大規模言語モデル (LLM) に基づいてアプリケーションを構築するためのオープンソースフレームワークです。LLM は、大量のデータで事前にトレーニングされた大規模な深層学習モデルで、ユーザーのクエリに対する応答を生成できます。たとえば、質問に答えたり、テキストベースのプロンプトから画像を作成したりします。LangChain は、モデルが生成する情報のカスタマイズ、正確性、関連性を向上させるためのツールと抽象化を提供します。たとえば、開発者は LangChain コンポーネントを使用して新しいプロンプトチェーンを構築したり、既存のテンプレートをカスタマイズしたりできます。LangChain には、LLM が再トレーニングなしで新しいデータセットにアクセスできるようにするコンポーネントも含まれています。
LangChainには様々なコンポーネントがあります。以前Youtubeで解説したRAG(Retrieval-Augmented Generation)も含まれます。
ちなみに、LangChainにはいくつかのAgentがありますが、LangChainが古くから(と言ってもここ1~2年)取り込んだものとして
ReActをベースにしたものがあります。具体的には
- zero-shot-react-description
- react-docstore
などが該当します。これらは2022年に公開された論文をベースにしています。
ちなみに、ReActは、Reasoning+Actingの略語です。意味的には推論して行動に移すという感じだと思います。解説としてはこちらがわかりやすかったので、リンクを貼っておきます。さて、ReActの深追いをしてしまうと、本来の目的を見失ってしまうので、もう一度話を現在の立ち位置に戻します。ReActの論文が発表されたのが2022年で、2023年にはLangChainで実装されています。学術論文から実装して利用できるようになるのが大体半年から1年です。
ちなみに、LangChainのAgentはどんどん増加しています。ただ、汎用的なAgentではないのがポイントで、ドキュメントから情報を取得することに特化していたり、検索ツールを使用したり、推論に特化していたりします。
なので、2024年2月現在では、そういうAGIの種のようなものが生まれはじめていて、今後それが急速に増加しつつ、組み合わさっていくと予想できます。なお、現状ではその組み合わせが難しく、実際に機能させるには自分でコーディングするしかありません。
BabyAGIも登場
また、もう1つ現在のAGIの立ち位置を確認できるのが、去年登場したBabyAGIです。
中島さんという日本人の方が開発されていて、見つけた時には興奮しました。X(Twitter)のアカウントでも情報発信されているのでフォローしてみるといいと思います。 リンクのHow It Worksのところを見るとイメージが付きやすいと思いますが、先ほどReActと役割はかなり近いです(ソースコードまで追えていないので、どこまで近いかは未確認です)。今回のポイントは、BabyAGIも登場が去年であるということだと思います。多少の差はあれど、先ほどのReActとも近いです。つまり、これらのことから予想できることは、2023年ごろにAGIの種のようなものが沢山生まれているということです。もちろんビッグテックは情報をオープンにしていないでしょうし、もう半年くらいは先を走っている可能性はあります。ただ、現状の技術的最先端のイメージはこのような状況です。
まとめ
さて、最後に南のAGI予想はどうなんだ?と思われている方もいるかもしれません。正直勘でしかないですが、エンジニアとしていろいろ調べてみて感じたことは、孫正義さんの予想と同じように10年以内と考えています。別に保険をかけて著名な方と同じ予想にしたわけではないです(笑)実際に調べる前は、孫さんの予想は攻めすぎではないかと思っていましたし。ただ、いろいろ見ていくと種が生まれはじめていて、むしろ可能性がある段階になっている とも思います。そういう意味で、何十年も先とは思えません。「10年あれば実現できそうだ」と思ったのが結論です。
Discussion