⚡️
bolt.new をローカルで動かしてみた
はじめに
bolt.new すごいなぁと思ってたら、OSS で公開してくれてて 2 度目のすごい。
ローカルとか企業のオンプレ・クラウドで動いたら、セキュアにフロントエンドの試行錯誤が激早になるんじゃないか。
ローカルで試したやつ。デプロイとかがない分、Web 版よりシンプルかも。
感想
生成 AI でコード出して動くのすごくて感動した時のツイート。
ブラウザでコンテナを動かしてくれてる WebContainer API がすごいのかも。
費用は、 bolt.new に課金した方が安く済む可能性ある。
Anthropic 以外にローカル LLM を動かすための Ollama 対応した fork 版もあるっぽいので夢が広がる。
手順
全体的に、ここを参考にした。
作業的には、Anthropic 課金と、pnpm インストールできたら動いた。普通に Chrome で動いた(2024/12/21)。
Anthropic の API を使うために、登録して課金する時、なぜか、最初 API が有効にならなかったので、chatbot に「課金したけど動かないんだけど」って送っておいたら解決した。
おわりに
まじすごい。
bolt.new のコードも眺めてみよかな。プロンプトとか、エラー処理が気になる。
Discussion