🫠

Alibaba Cloud ACKにDifyをデプロイする

2024/12/18に公開

overview

ACKにDifyをデプロイできるらしいので試してみる!

コンポーネントが用意されてるっぽいのでめっちゃ楽そう〜

とりあえず公式ドキュメントをなぞってやってみる〜〜〜✌️

https://www.alibabacloud.com/help/en/ack/cloud-native-ai-suite/use-cases/building-customized-ai-question-and-answer-assistant-based-on-dify

やってみる

まずはクラスタ作成!
ふつーにつくる VPCとかvSwitchとかもふつーにつくる








Ingressはいつものnginxを指定した!

公式曰く

クラスターの安定性を確保するために、クラスターの Kubernetes システム用に少なくとも 2 つの vCPU と 4 GB のメモリを予約し、Container Storage Interface (CSI) プラグインをインストールすることをお勧めします。

だそうなので、4vCPU16GBのインスタンスタイプ選択 & ボリュームプラグインのとこのチェックはつけっぱで!

で、いざ作成〜〜〜〜

できぴ〜〜〜〜〜〜〜

次はクラスタにDifyをいれる!

Helmデプロイするらしい

ここのデプロイを押し


ack-difyを選んでバージョン最新でデプロイ!

デプロイされた!

ので外部からアクセスするために名前空間dify-system にingressを追加する〜


ingressできぴ!

書かれてるエンドポイントにアクセスすると。。。

きた〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜difyうごいてる✌️

Difyの設定

セットアップしてログインする!

無事入れたので、チャットボットつくろ〜

まずモデルプロバイダを設定しなきゃなので、一旦Alibaba Cloud Model Studioにいってモデルの設定する!


Modelsにいくといろんなモデルがあった!

とりあえずqwen-maxつかってみる〜

APIの詳細はこれ

まずAPI Keyを発行する!

右上のアカウントからAPI-KEYにいって作成〜!



API詳細にあった接続先(https://dashscope-intl.aliyuncs.com/compatible-mode/v1)と↑でつくったAPI KEYをdifyの方に設定する

difyの画面に戻って、右上のアカウント → 設定 → モデルプロバイダ へ

今回はOpenAI-API-compatibleを選べばいいっぽいので選択する

以下を入力する

Model Name: qwen-max

API Key: ↑で作ったAlibaba Cloud Model StudioのAPI KEY

API endpoint URL: https://dashscope-intl.aliyuncs.com/compatible-mode/v1

Model Context size: 8000

Upper bound for max tokens: 2000

いけた〜!!!!!!!!!!!!

ので、システムモデルにこのモデルを設定する!

準備できた!雑チャットボットつくる!

公開してアプリ実行して、実際会話してみた

きちゃ〜〜〜〜〜〜〜〜〜〜〜!!!!!!!!!!!!

ちょっと中国語まざったりしちゃってるけど、言ってることはいい感じな気がする!

これにて挙動確認終了✌️

まとめ

  • クラスタつくったらHelmの設定いれるだけでDifyがデプロイできるの楽すぎる
  • Difyのモデルプロバイダ、OpenAI-API-compatibleを使うのか〜
  • とにかく楽に自前環境作れるの良すぎる
  • ただDifyで使うDBはアリババのマネージドのものではないので、今度はそこ設定したい

おわり!

Discussion