🎉

openai の whisper を node で触ってみた

2023/05/15に公開

はじめに

openai の whisper の文字起こし(Create transcription) を node で触ってみたので書いてみました!

whisper を触っている人が大体が python なので、node で書いてみようかなと思い投稿しました。

詳しい内容は下記の公式を見てください!

公式

まず nextjs でプロジェクトを作成

今回は nextjs のプロジェクトで起きたので nextjs で書きます。

npx create-next-app@latest

ブラウザで録音の準備

  • 今回は MediaRecorder で録音して行います。
  • 今回は簡易的に下記のように作成しました。

hooks.ts

import { useRef, useState } from "react";

type Hooks = {
  startRecording: () => void;
  stopRecording: () => void;
  isAudio: boolean;
};

export const useHooks = (): Hooks => {
  const mediaRecorder = useRef<MediaRecorder | null>(null);
  const [audioFile, setAudioFile] = useState<File | null>(null);
  const [isAudio, setIsAudio] = useState<boolean>(false);

  const handleDataAvailable = (event: BlobEvent) => {
    // 音声ファイル生成
    const file = new File([event.data], "audio.mp3", {
      type: event.data.type,
      lastModified: Date.now(),
    });
    setAudioFile(file);
  };

  const startRecording = async() => {
    // 録音開始
    const stream = await navigator.mediaDevices.getUserMedia({ audio: true });
    mediaRecorder.current = new MediaRecorder(stream);
    mediaRecorder.current.start();
    mediaRecorder.current.addEventListener(
      "dataavailable",
      handleDataAvailable
    );
    setIsAudio(true);
  };

  const stopRecording = () => {
    // 録音停止
    mediaRecorder.current?.stop();
    setIsAudio(false);
  };

  return {
    startRecording,
    stopRecording,
    isAudio,
  };
};

index.tsx

  • 部分だけ書いてますので、変更して使用してください。
  const {
    startRecording,
    stopRecording,
    isAudio,
  } = useHooks();
  <button
    type="button"
    onClick={startRecording}
    disabled={isAudio}
  >
    録音スタート
  </button>
  <button
    type="button"
    onClick={startRecording}
    disabled={isAudio}
  >
    録音ストップ
  </button>

openai key 取得

openai にアクセスして、apikeyを取得してください。
わからない方は色んな方が解説しているので、そこを参考にして下さい。

openai whisper の設定

  • model はwhisper-1しかないため、whisper-1を採用。(2023 年 5 月 15 日)
  • file は先ほどの録音した file を使用。
  • language は今回は日本語の精度を高めたかったのでjaを使用。
  • 他の設定は今回使ってないが公式を見てプロジェクトにあったものを採用すればいいと思います。

.env or .env.local に apiKey を置く

.env か.env.local に下記を置いて、呼び出すのが無難だと思います。

NEXT_PUBLIC_OPENAI_API_KEY=Your Api Key

エンドポイントを選択

  • https://api.openai.com/v1/audio/transcriptions

openai whisper を叩く

今回は useEffect を使用して、audioFile が更新されたら、openai api を叩く実装にしています。

hooks.ts の続き

  useEffect(() => {
    const uploadAudio = async () => {
      if (!audioFile) return;
      const endPoint = https://api.openai.com/v1/audio/transcriptions

      const formData = new FormData();
      // fileを指定
      formData.append("file", audioFile, "audio.mp3");
      // modelを指定
      formData.append("model", "whisper-1");
      // languageを指定
      formData.append("language", "ja");
      setIsLoading(true);
      const response = await fetch(endPoint, {
        method: "POST",
        headers: {
          Authorization: `Bearer ${process.env.NEXT_PUBLIC_OPENAI_API_KEY}`,
        },
        body: formData,
      });
      const responseData = await response.json();
      if (responseData.text) {
        // 文字起こしされたテキスト
        setTranscript(responseData.text);
      }
      setAudioFile(null);
      setIsLoading(false);
    };
    uploadAudio();
  }, [audioFile]);

終わりに

実際に触ってみると、簡単に作成が出来ました。
色んなカスタマイズをして、プロジェクトに合った選択をしてください!

補足

  • 無音やノイズで予期しない文字起こしをされるため、無音除去やノイズ除去は必須かも(node で完全に除去が出来たらいいなぁ)

Discussion