🐶

【2024年最新版】知らないと損するAIモデルや技術12選まとめ

2024/04/27に公開

最近、AIがとても話題になっていますね。ただ、この分野は非常に技術の成長スピードが速く、正直今のAI分野の技術に全くついていけていないという方も多いと思ったため、今話題になっているAI技術についてわかりやすくまとめました。

現状の主なモデル一覧

まず、現状の主なLLMの一覧について紹介していきます。

GPT

https://openai.com/

GPTはOpenAIが開発しているLLMです。現状だとGPT-4が最新です。GPT-4は月額20ドルの有料プランでのみ利用できます。GPT-3.5は無料で使えます。

Claude

ClaudeはAnthropicが開発しているLLMです。現状だとClaude3が最新です。Claude3は日本語にも対応しています。
Claude3にはOpus, Sonnet, Haikuの3種類があり、Opus > Sonnet > Haikuの順に能力が高いです。Opusは月額20ドルの有料プランでのみ利用できます。

Claude3 Opusは、GPT-4の性能をわずかに上回っているため、現在注目を浴びています。

Claude3は以下から簡単に利用できます。
https://www.anthropic.com/news/claude-3-family

Gemini

GeminiはGoogleが開発しているLLMです。GeminiにはNano, Pro, Ultraの3種類があります。Ultra > Pro > Nanoの順に能力が高いです。Ultraは月額3000円ほどのGemini Advancedという有料プランでのみ利用できます。

自分自身がGeminiを使ってみた感想として、Geminiが他のLLMと比べて優れている点は以下だと感じました。

  • 動画を入力として用いることができる
  • Googleの他のサービスとの連携ができる

例えば、以下のようにGoogle Mapとも連携し、非常に高精度な予測結果を返します。駅の画像を与えたところ、きちんと場所を特定できています。

ちなみに、YouTubeの動画をリンクから解析することはできないみたいです。

なお、Gemini Advancedは2ヶ月間無料で試せるので、是非試してみてください。
https://gemini.google.com/app

Llama

LlamaはMetaが開発しているLLMです。Metaが開発していると言っても実際にはOSSです。
現状ではLlama3が最新のLLMです。Llama3には8B(80億個のパラメータを用いている)と70B(700億個のパラメータを用いている)の2種類のモデルがあります。

なぜOSSのLLMが注目されているのか?

ここ最近、OSSのLLMが注目されているわけですが、なぜOSSのLLMが注目されているかというと、無料で商用利用可能になったからです。また、OSSのLLMは自身のコンピューターにインストールして用いることが可能なので、その点も注目されています。

ちなみに、このように自身のコンピューターにインストールして用いるLLMのことをローカルLLMと言います。ローカルLLMを用いると、APIコールで料金がかかることがないというメリットがあります。

実際にLlama3を自身のコンピューターにインストールして使う方法については以下の記事が参考になると思うので、興味のある方は是非読んで見てください。

https://note.com/schroneko/n/n8b1a5bbc740b

Mistral

Mistralは、フランスのMistralAIが開発しているLLMです。MistralとMixtralという2つのLLMがあり、Mixtralの方が上位モデルです。Mistralについては以下の記事がよくまとまっているので、参考にしてみてください。

OpenAIの新たな対抗馬、Mistral AIについて知っておくべきこと

Grok


Grokは、イーロンマスクが設立したxAIによって開発されたLLMです。Grokは、イーロンマスクが買収したTwitter(X)をのデータを使って作られたと言われています。

Grokは現在、X Premium+という有料プランでのみ利用できるようです。
https://grok.x.ai/

主なクラウドサービス

AIをwebサービスに組み込むためのクラウドサービスも出てきています。
代表的なのは以下の3つです。

VertexAI

VertexAIはGoogle Cloudが提供するAIのクラウドサービスです。
https://cloud.google.com/generative-ai-studio?hl=ja

VertexAIにはModel Gardenというモデル一覧があり、そこでは以下のようなモデルを利用することができます。

  • Claude
  • Gemini
  • Llama

やはりGoogle Cloudのサービスということもあり、Geminiが使えるのがメリットかと思います。

VertexAlについては以下の書籍がよくまとまっています。
Google VertexAl によるアプリケーション開発

Azure OpenAI Service

Azure OpenAI Serviceは、Microsoftが提供するAIのクラウドサービスです。現状だと利用申請に通らないと使うことができないので使いにくいのが難点ですが、GPT-4やGPT-3.5などを使える唯一のクラウドサービスという点は大きいです。

Azure OpenAI Serviceについては以下の書籍がよくまとまっています。
Azure OpenAI ServiceではじめるChatGPT/LLMシステム構築入門

Amazon Bedlock

Amazon Bedlockは、AmazonのAWSが提供するAIのクラウドサービスです。
https://www.googleadservices.com/pagead/aclk?sa=L&ai=DChcSEwiP0r3By-KFAxUJ0xYFHY2SAxEYABAAGgJ0bA&ase=2&gclid=CjwKCAjwxLKxBhA7EiwAXO0R0HaG0Zv6XleLq6UN8j35AnGMD3kwVWNR5PkN9x19hVuNElgGdSJ-mhoCtSgQAvD_BwE&ei=oQktZuHtA_Lh1e8Ps_-TMA&ohost=www.google.com&cid=CAESVeD2vaFK11WEbxhV1GZYFmZiphHaSV6hbGs6YgvuH9V1NhVHekl0twBESRdYb6GFRkNs5PrdcgqPy_q8uMzy6X3ERgGiC2McqyZ-Rxfkc0S8yrsYQxc&sig=AOD64_1FWOZ8QKyInKRvZtU1WeYe9newjg&q&sqi=2&nis=4&adurl&ved=2ahUKEwihwrfBy-KFAxXycPUHHbP_BAYQ0Qx6BAgBEAE

Bedlockでは、例えば以下のモデルを利用することが可能です。

  • Claude
  • Llama
  • Mistral

AmazonのAIモデルにはTitanというものがありますが、Titanの精度自体は他のものと比べてそれほど高くないというのが現状です。ただ、日本ではAWSがクラウドサービスとして普及しているため、Amazon Bedlockは有力な選択肢になると思います。

Amazon Bedrockについては以下の書籍がよくまとまっています。
Amazon Bedrock 超入門

ライブラリについて

LangChain

LangChainは、LLMをサービスに組み込む際に重宝するライブラリです。
https://www.langchain.com/

言語としては、PythonとTypeScriptの2種類の言語に対応しています。
LangChainを使うメリットとしては以下が挙げられます。

  • 様々なモデルを同一のインターフェースで用いることができる
  • LLMの入出力のデバッグ機能が充実している(LangSmith)
  • モデルをAPIとして提供するための機能が充実している(LangServe)

要するに、LLMを実際にサービスに組み込むために役立つライブラリというわけですね。

LangChainについて勉強してみたい方は、以下の書籍がオススメです。
ChatGPT/LangChainによるチャットシステム構築[実践]入門

その他のツールについて

Perplexity

Perplexityは、ChatGPTに似たツールです。内部的にはGPTのAPIを用いています。
ChatGPTとの大きな違いは以下になります。

  • 情報のソースが提示される
  • 絞り込み機能がある

情報のソースが提示される

情報のソースは例えば以下のように表示されます。情報元を掲載しなければならないときに便利ですね。

絞り込み機能がある

Perplexityには以下のような絞り込み機能があります。

例えば、論文をソースにした回答だけに絞り込むとか、YouTubeをソースにした回答だけに絞り込むといったことができます。

Perplexityは以下から簡単に試すことができます。
https://www.perplexity.ai/

Hugging Face

Hugging Faceは、機械学習モデルの開発と共有を目的としたオープンソースのプラットフォームです。「機械学習のためのGithub」とも言えます。例えば以下のような情報を共有することができます。

  • モデルのソースコード
  • モデルの学習に用いたデータセット
  • モデルのパラメータ

Hugging Faceの登場により、ゼロからモデルを開発をする必要はあまりなくなりました。事前学習済みモデルを活用した転移学習やファインチューニングが容易にできるのが大きな利点です。

https://huggingface.co/

Xについて

僕のXアカウントでは、主にweb開発、AI、会社経営のノウハウについて発信しています。もし興味があれば、フォローしていただけると嬉しいです。

プログラミング学習サポート&キャリア相談について

プログラミング学習サポート&キャリア相談も始めました。興味のある方はこちらから詳細をご覧ください。
https://shibayama-masaki.com/consulting/

Discussion