🎙️

【学生開発レポ】Pythonで学んで、声マネAIアプリ作ってみた!Hugging Faceで簡単公開も

に公開

【学生開発レポ】Pythonで学んで、声マネAIアプリ作ってみた!Hugging Faceで簡単公開も

こんにちは!AI系の学生団体AcademiXで活動しているSynoです!😊

突然ですが、みなさん、「自分の声で、好きなセリフをAIに喋らせてみたい!」 と思ったことはありませんか?

今回は、そんな夢みたいな技術「音声合成」の世界に飛び込んで、たった数秒の音声から、その人の声そっくりに新しいセリフを喋らせちゃう「音声クローンWebアプリ」 を作ってみたレポートをお届けします!🎙️✨

AIって聞くと難しそう…? 大丈夫! この記事を読めば、きっとその面白さと可能性にワクワクしちゃうはずです!


📚 きっかけは勉強会!「AIの声を自分の手で!」

私たち学生団体AcademiXでは、みんなで集まってAI技術を学ぶ勉強会を定期的に開いているんです。今回のテーマは「音声合成」!

「AIがどうやって声を作り出すのか、自分たちの手で実際にプログラムを動かして体験してみよう!」ということで、こちらの本を教科書にしました👇

https://book.impress.co.jp/books/1120101073

この本、音声合成の歴史から、最近のすごい技術(ディープラーニングを使ったTacotron 2やWaveNet)まで書かれているんです!

勉強会では特にこんなところが盛り上がりましたよ🎉

  • 音の波形じゃなくて「スペクトログラム」(音の設計図みたいなもの!)で見ると、声の特徴がよく分かる!
  • Tacotron 2っていうモデルの「文章をAI語に翻訳→声に変換!」(エンコーダ・デコーダ)っていう仕組みが面白い!
  • 実際にプログラムを動かすと、AIが生成する声がどんどん滑らかになっていくのが感動的…!😭

🛠️ 学んだら実践!「音声クローンアプリ」を作ってみた!

いつもの勉強会だと本を読んで終わり…なのですが、「もっと面白いことしたい!」ってことで、今回は学んだ知識を活かして、「ゼロショット音声クローン」 ができるWebアプリ開発に挑戦しました!🎉

ゼロショット音声クローンって何かって?
それは… 事前にAIに大量の声を学習させなくても、ほんの数秒(3~5秒くらい!)の音声データがあれば、その人の声質や話し方のクセをマネして、新しいセリフを喋らせることができちゃう、魔法みたいな技術なんです!🧙‍♀️✨

作ったアプリがこちら!👇
https://youtube.com/shorts/Zo69ntxIvD4?feature=share
https://huggingface.co/spaces/synonym/VALLE-X_JPVoiceCloner

🚀 使ったすごい技術たち!

技術 役割 ルナのひとこと解説💬
VALL-E X (Plachtaa版) 音声クローンモデル 今回の主役!いろんな人の声マネが得意なスーパーAI!
EnCodec 高品質音声のエンコード/デコード 声をキレイなまま圧縮したり元に戻したりする技術だよ!
Gradio WebアプリのUI提供 難しいコードなしで、AIアプリの画面をサクッと作れる!
Hugging Face Spaces アプリのホスティング 作ったAIアプリを世界中に公開できる場所!🚀

🌐 誰でも試せるデモはこちら👇

いますぐあなたの声で試してみて!

💾 アプリの裏側(コード)はこちら👇

どんな仕組みか気になる方はどうぞ!


🧠 主役はこのAI!「VALL-E X」って何者?


出典:Plachtaa/VALL-E-X(MITライセンス)
https://arxiv.org/abs/2303.03926

今回使った「VALL-E X」(ヴァリー エックスって読むよ!)は、あのMicrosoftが開発した次世代の音声合成モデル「VALL-E」のパワーアップ版!💪

もともと英語が得意だったVALL-Eに、いろんな言語(マルチリンガル)を喋る能力と、いろんな人の声の特徴を再現する能力を追加した、まさにスーパーAIなんです!

🎯 VALL-E X が目指す世界

  • いろんな国の言葉で テキストを音声にできる! (多言語TTS)
  • ✅ Aさんの声で、Bさんの話し方みたいに…なんていう、声のスタイル転写も!
  • ✅ 最終目標は「どんな言葉の文章でも、指定した人の声で自然に喋らせる!」こと!

つまり、世界中のどんな言葉でも、まるでその人が喋っているかのように再現することを目指している、夢のあるAIなんです!✨

🧬 なんで「音声クローン」もできちゃうの?

ここが面白いポイント! VALL-E X は多言語対応のために開発された技術なんですが、それが結果的に「音声クローン」にも使えちゃうんです!😲

仕組みはこんな感じ👇

  1. VALL-E X に「この文章を読んでね!」(テキスト) と「この人の声みたいにしてね!」(短い音声とその文字起こしデータ) を渡します。
  2. AIは、渡された音声からその人の声質、感情、リズム、話し方のクセなんかを学習します。
  3. そして、その特徴を保ったまま、指定されたテキストをどんな言語でも読み上げてくれるんです!

…ということは?

もし、読み上げさせたい言語と、元にした音声の言語が同じ(例えば、日本語の音声データを使って、日本語のセリフを読ませる)だったら…?

そう!✨ まるで元の話者が、新しいセリフを喋っているかのような音声が作れちゃう! これがVALL-E Xで「音声クローン」が実現できるカラクリなんです!すごい!👏

🎤 「ゼロショット」ってどういう意味?

ゼロショット(Zero-shot)」っていうのは、AIの専門用語で、「事前にその人のデータで訓練(学習)していなくても、いきなりできちゃう!」っていう意味なんです。

VALL-E Xの場合、

  • クローンしたい人の声が、AIの学習データに含まれていなくても全然OK!
  • たった数秒(3~5秒くらい!)のクリアな声があれば十分!
  • ただし!精度を上げるには、音声とその内容を書き起こしたテキスト(文字起こし)をセットで使うのが重要なんです!

🔍 なんで「文字起こし」も必要なの?

「声だけじゃダメなの?」って思いますよね! 実は、音声とその内容を示すテキストを一緒にAIに教えることで、AIは「この言葉を、こういう声のトーン抑揚で話すんだな」という意味と話し方の繋がりを、より深く理解できるんです。

だから、ただ声質を真似るだけじゃなくて、イントネーションや感情のニュアンスまで含めて、より自然で、その人らしい話し方を再現できるようになるんですよ! 奥が深いですよね~!🤔


アプリ開発編:実際に作ってみた舞台裏!🎬

🎮 Webアプリの使い方(めちゃカンタン!)

さっき紹介したデモアプリ、使い方はとってもシンプル!

  1. 🎤 クローンしたい声のWAVファイル(5秒以内推奨!) をアップロード!
  2. ✍️ その音声ファイルで実際に話している内容(文字起こし) を入力! (Whisperとかで自動生成も便利!)
  3. 📖 AIに新しく喋ってほしいセリフ(台本) を入力!
  4. ポチッとな!👉 「🎙️ 音声生成」ボタンを押す!
  5. 少し待つと…右側に再生ボタンが出現!▶️

たったこれだけで、まるで元の話者が新しいセリフを喋っているかのような音声が生成されます! 初めて聞いたときは、びっくりしました……!😲


🧠 開発でぶつかった壁と、乗り越えた先の景色!

今回、Hugging Face SpacesにAIアプリをデプロイ(公開)するのは2回目だったんですが、やっぱり一筋縄ではいかないことも…!💦

特に手こずったのはここ!

  • GPUを使えるようにする設定に気づくのが遅れた! 😵
    • Hugging Faceの有料プランだと、GPU(計算を速くしてくれるすごいパーツ)が無料で使える「ZeroGPU」っていう機能があるんです! これを使わない手はない!と気づいて、CPU版からGPU対応版に作り直しました。コードに @spaces.GPU って書くだけなんですけどね! もっと早く知りたかった…!
    • 参考: ZeroGPUについて
  • ライブラリのバージョンの戦い! ⚔️
    • 自分のパソコンで動いても、公開する場所(Hugging Face Spaces)で動かない…!よくある「環境の違い」ってやつですね。アプリを動かすのに必要な部品(ライブラリ)たちのバージョンが微妙に違ってエラーが出ちゃうんです。requirements.txtっていうファイルに必要な部品リストを書くんですが、ChatGPT先生に相談しながら、エラーが出なくなるバージョンの組み合わせを探しました…!地味だけど大事な作業!
    • 試行錯誤の跡: requirements.txt
  • 公開用のコード調整! 🔧
    • アプリのメインファイル(app.py)の最後は、demo.launch(share=True)って書かないと、公開用のURLが生成されないんです。これもちょっとした罠でした!

乗り越えたからこその学びも!✨

正直、いくつか壁はありましたが、作り始めてから1週間もかからずに、Webアプリとして世界に公開できたのは、本当に驚きでした!

最近は、Hugging Faceのtransformersみたいに、学習済みのすごいAIモデルを簡単に使えるツールがたくさんあるんです。さらに、Gradioを使えばWeb画面(UI)もサクッと作れて、Hugging Face Spacesを使えば無料で世界に公開できちゃう!

AIアプリ開発って、思ってたよりずっと身近で、スピーディーに形にできるんだ!」って実感できたのが、今回の大きな大きな収穫でした!🌱


🚀 これからやってみたいこと!未来への妄想💭

この音声クローン技術、まだまだ可能性がいっぱいありそう!

  • 🗣️ 複数の人が会話してる風の音声を作ったり…
  • 🎭 アニメやゲームのキャラクターの声を作って、セリフを喋らせたり…
  • 🎮 もっとゲーム開発とか他のプロジェクトに応用したり…
  • 🎓 今回の経験を活かして、AI初心者さん向けの、もっと簡単なUIのデモや、分かりやすい解説記事を書いたり…

夢が広がりますね~!🌈


☕ おわりに:やってみるって、最高に楽しい!

今回のプロジェクトは、「教科書で学んだら、とにかく手を動かして作ってみよう!」をテーマに取り組みました!

簡単に作ることを優先したので、教科書『Pythonで学ぶ音声合成』の内容を直接コードにしたわけではないです。ただ実際に自分でアプリを作って、それが動いて、公開までできた経験は、知識だけじゃ得られない、ものすごい学びになりました!✨

VALL-E Xについては、ChatGPTにおすすめされたので知ることができました。公開されている実装や学習済みモデルがあったおかげで、私が主に取り組んだのはUI作りや公開作業の部分でした。

困ったらChatGPTに聞けばすぐに情報が集まるし、GradioやHugging Face Spacesみたいな便利なツールを使えば、こんなに簡単にAIアプリを作って公開できちゃうなんて…本当にすごい時代ですよね!🥹

この記事を読んで「音声合成、面白そう!」「音声クローン、やってみたい!」って思ったそこのあなた! ぜひぜひ、チャレンジしてみてください! きっと、音の世界の奥深さと面白さにハマっちゃいますよ!😉

もし質問などあれば、XGitHubのIssueで気軽に聞いてみてくださいね♪


🐾 まとめ:今回で分かったこと!

  • 📘 『Pythonで学ぶ音声合成』 は、音声AIの基礎と実装を学ぶのに最高の一冊!
  • 🤖 VALL-E X を使うと、日本語でも高品質な音声クローンができる!
  • 🚀 GradioHugging Face Spaces があれば、AIアプリ開発&公開が驚くほど簡単に!
  • 💡 とにかく手を動かして作ってみるのが、一番の学びと楽しさに繋がる!

音の世界って、本当に深くて面白い!皆さんもぜひ、このワクワクを体験してみてくださいね!🔥

Discussion