📑

【簡単】GPT CrawlerでURLからGPTsを作成する方法

2024/11/26に公開

gpt_crawler_1.png

AIチャットボットの開発でデータ作成に悩んでいませんか?
今回は、Builder.ioがオープンソース化した「GPT Crawler」を使って、指定したURLから簡単にGPTsを作成する方法をご紹介します。
gpt_crawler_2.png

GPTsを作る時に困るのがデータの作成ですが、このGPT Crawlerを使うとなんとURLを指定するだけでサイトをクローリングしてGPTsに最適なJSONデータを生成してくれます。

GPT Crawlerとは?

GPT Crawlerは、指定したURLをクローリングし、GPTsに最適なJSONデータを自動生成してくれるツールです。
これにより、データ作成の手間を大幅に削減できます。

実践:弊社コーポレートサイトで試してみた

今回は、弊社 MAKE A CHANGE のコーポレートサイトを学習したGPTsを作成しました。
https://makeachange.co.jp/

👉 AIチャットボットを体験する
https://chatgpt.com/g/g-67447768304481918ccc24098610f436-zhu-shi-hui-she-make-a-change

gpt_crawler_3.png

このチャットボットに質問すると、株式会社MAKE A CHANGEに関する情報を即座に提供してくれます。

作成手順

手順は以下3ステップです。

①GPT Crawlerをローカル環境に構築
②パラメーターをセットしてGPT Crawlerを実行
③生成されたファイルをGPTsに設定

順番に解説していきます。

①GPT Crawlerをローカル環境に構築

まずGitからオープンソース化されたGPT CrawlerをCloneします。

git clone https://github.com/builderio/gpt-crawler

次にパッケージをインストールします。

cd gpt-crawler
npm install

つづけてPlaywrightをインストールします。

npx playwright install

ここまでで環境構築は完了です。

②パラメーターをセットしてGPT Crawlerを実行

「config.ts」に読み込みたいURLなどのパラメーターを設定します。

export const defaultConfig: Config = {
  url: "https://makeachange.co.jp/corporate/", // 読み込みたいURL
  match: "https://makeachange.co.jp/corporate/**", // 読み込みたいファイルを指定
  maxPagesToCrawl: 50,
  outputFileName: "output.json",
  maxTokens: 2000000,
};

いよいよ実行します

npm start

実行するとURLからデータを読み込んでいることがわかります。
gpt_crawler_1.png

完了後、ルートフォルダ内に「output-1.json」というファイルが生成されていました。
gpt_crawler_4.png

③生成されたファイルをGPTsに設定

あとは生成されたJSONファイルをGPTsに設定して完了です。

「知識」に生成したJSONを設定して完了です。

これで指定したURLの情報を学習したGPTsが作成されました。

まとめ

GPT Crawlerを使えば、手間のかかるデータ作成が驚くほど簡単になります。GPTsやDifyなどのツールと組み合わせることで、より高度なAIチャットボットを手軽に構築できます。

ぜひ、この便利なツールを活用してみてください。

おまけ

株式会社MAKE A CHANGEはAIシステム・アプリ開発とソリューションを提供する専門企業です。

お気軽にご相談ください。

また、生成AIに関わる仕事がしたい仲間(AIエンジニア、PM、UIUXデザイナーなど)も募集中です。

https://makeachange.co.jp

Discussion