🧑✈️
Gemini proとPaLM2の比較
Gemini proが、12/13から、Vertex AIでつかえるようになりました。
python moduleは下記にアップグレードして試してます。
google-cloud-aiplatform 1.38.1
コード
eBPFについて200文字位内で機能について説明してくださいとプロンプトに指定しました。
Gemini Pro用サンプルコード
test.py
import vertexai
from vertexai.preview.generative_models import GenerativeModel, Part
import json
def multiturn_generate_content():
prompt = """
Please explain feature within about 200 characters about eBPF.
language is Japanese.
"""
model =GenerativeModel("gemini-pro")
model_responses = model.generate_content(
prompt,
generation_config={
"temperature": 0.1,
"max_output_tokens": 800,
"top_p": 1.0,
"top_k": 40,
},
stream=True
)
for response in model_responses:
print(response.text);
multiturn_generate_content()
PaLM2 (text-unicorn)用サンプルコード
tet2.py
import vertexai
from vertexai.language_models import TextGenerationModel
def call_paLM2():
prompt = """
Please explain feature within about 200 characters about eBPF.
language is Japanese.
"""
vertexai.init(location="us-central1")
parameters = {
"candidate_count": 1,
"max_output_tokens": 300,
"temperature": 0.1,
"top_k": 40
}
model = TextGenerationModel.from_pretrained("text-unicorn@001")
response = model.predict(
prompt,
**parameters
)
print(f"Response from Model: {response.text}")
call_paLM2()
回答結果
Gemini Proのほうが簡潔に答えてくれました。
Gemini Pro
PaLM2
Gemini Proは現時点でプレビューなので回答結果が変わる可能性はあります。
その他
レスポンスもGeminiでかわっているようようです。
PaLM2からGeminiへのマイグレーションガイドも用意されています。
Discussion