Alibaba Cloud ACKにDifyをデプロイする
overview
ACKにDifyをデプロイできるらしいので試してみる!
コンポーネントが用意されてるっぽいのでめっちゃ楽そう〜
とりあえず公式ドキュメントをなぞってやってみる〜〜〜✌️
やってみる
まずはクラスタ作成!
ふつーにつくる VPCとかvSwitchとかもふつーにつくる








Ingressはいつものnginxを指定した!
公式曰く
クラスターの安定性を確保するために、クラスターの Kubernetes システム用に少なくとも 2 つの vCPU と 4 GB のメモリを予約し、Container Storage Interface (CSI) プラグインをインストールすることをお勧めします。
だそうなので、4vCPU16GBのインスタンスタイプ選択 & ボリュームプラグインのとこのチェックはつけっぱで!
で、いざ作成〜〜〜〜

できぴ〜〜〜〜〜〜〜
次はクラスタにDifyをいれる!
Helmデプロイするらしい

ここのデプロイを押し


ack-difyを選んでバージョン最新でデプロイ!

デプロイされた!
ので外部からアクセスするために名前空間dify-system にingressを追加する〜


ingressできぴ!
書かれてるエンドポイントにアクセスすると。。。

きた〜〜〜〜〜〜〜〜〜〜〜〜〜〜〜difyうごいてる✌️
Difyの設定
セットアップしてログインする!

無事入れたので、チャットボットつくろ〜
まずモデルプロバイダを設定しなきゃなので、一旦Alibaba Cloud Model Studioにいってモデルの設定する!


Modelsにいくといろんなモデルがあった!
とりあえずqwen-maxつかってみる〜

APIの詳細はこれ

まずAPI Keyを発行する!
右上のアカウントからAPI-KEYにいって作成〜!



API詳細にあった接続先(https://dashscope-intl.aliyuncs.com/compatible-mode/v1)と↑でつくったAPI KEYをdifyの方に設定する
difyの画面に戻って、右上のアカウント → 設定 → モデルプロバイダ へ

今回はOpenAI-API-compatibleを選べばいいっぽいので選択する

以下を入力する
Model Name: qwen-max
API Key: ↑で作ったAlibaba Cloud Model StudioのAPI KEY
API endpoint URL: https://dashscope-intl.aliyuncs.com/compatible-mode/v1
Model Context size: 8000
Upper bound for max tokens: 2000

いけた〜!!!!!!!!!!!!
ので、システムモデルにこのモデルを設定する!

準備できた!雑チャットボットつくる!

公開してアプリ実行して、実際会話してみた

きちゃ〜〜〜〜〜〜〜〜〜〜〜!!!!!!!!!!!!
ちょっと中国語まざったりしちゃってるけど、言ってることはいい感じな気がする!
これにて挙動確認終了✌️
まとめ
- クラスタつくったらHelmの設定いれるだけでDifyがデプロイできるの楽すぎる
- Difyのモデルプロバイダ、OpenAI-API-compatibleを使うのか〜
- とにかく楽に自前環境作れるの良すぎる
- ただDifyで使うDBはアリババのマネージドのものではないので、今度はそこ設定したい
おわり!
Discussion