Closed2

Qwen2-VLを試す

kun432kun432

2B/7B/72Bの3種類がある。

https://huggingface.co/Qwen/Qwen2-VL-2B-Instruct

https://huggingface.co/Qwen/Qwen2-VL-7B-Instruct

https://huggingface.co/Qwen/Qwen2-VL-72B-Instruct

それぞれ、AWQ/GPTQ-Int4/GPTQ-Int8の量子化も用意されている。

基本的にnpaka先生の後追い写経なのだけど、VRAMどれぐらい使用するのかを知りたいので、2B/7BをColaboratoryで試してみる。(72Bは最初から諦め)

https://note.com/npaka/n/n6e2a00a0c0e7

https://zenn.dev/robustonian/articles/qwen2_vl_mac

https://zenn.dev/syoyo/articles/6ac39eed7d3f04

kun432kun432

Colab L4(VRAM22GB)でQwen2-VLのサンプルコードにある画像(JPG、500KB、2048x1365 px)で、試してみた

!pip install git+https://github.com/huggingface/transformers
!pip install qwen-vl-utils
from transformers import Qwen2VLForConditionalGeneration, AutoTokenizer, AutoProcessor
from qwen_vl_utils import process_vision_info

model = Qwen2VLForConditionalGeneration.from_pretrained(
    #"Qwen/Qwen2-VL-2B-Instruct",
    "Qwen/Qwen2-VL-7B-Instruct",
    torch_dtype="auto",
    device_map="auto"
)

min_pixels = 512*28*28
max_pixels = 1024*28*28
processor = AutoProcessor.from_pretrained(
    #"Qwen/Qwen2-VL-2B-Instruct",
    "Qwen/Qwen2-VL-7B-Instruct",
    min_pixels=min_pixels,
    max_pixels=max_pixels
)
import requests

messages = [
    {
        "role": "user",
        "content": [
            {
                "type": "image",
                "image": "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg",
            },
            {"type": "text", "text": "画像について詳しく説明してください。"},
        ],
    }
]

text = processor.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)
image_inputs, video_inputs = process_vision_info(messages)
inputs = processor(
    text=[text], 
    images=image_inputs,
    videos=video_inputs,
    padding=True, 
    return_tensors="pt"
)
inputs = inputs.to("cuda")

generated_ids = model.generate(**inputs, max_new_tokens=1024)
generated_ids_trimmed = [
    out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
output_text = processor.batch_decode(
    generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)
print(output_text)
  • 7B
    • モデルロード時点で16GB
    • 画像読み込んで推論させるとCUDA out of memory。1GBほど足りない。
    • 24GBならなんとか収まりそうな感じ。
  • 2B
    • モデルロード時点で5GB
    • 画像読み込んで推論させると18GB
    • レスポンスの質は悪くなさそう

画像サイズを制限したら、推論時結構下がった。

min_pixels = 512*28*28
max_pixels = 1024*28*28
processor = AutoProcessor.from_pretrained(
    "Qwen/Qwen2-VL-2B-Instruct",
    min_pixels=min_pixels,
    max_pixels=max_pixels
)
  • 7B: 18.3GB
  • 2B: 7.1GB

VRAMと相談しつつ、画像サイズを定義する必要がありそう。

このスクラップは1ヶ月前にクローズされました