独自のOBS-webを設定する
私たちは皆、Flashが過去のものになったことを知っています。Chromeのようなメインストリームのブラウザがバージョン88のアップデートでそれに別れを告げました。では、現在、ウェブ上でライブストリーミングを行うためのソリューションは何でしょうか?それがWebRTCです。
WebRTCは、ビデオとオーディオストリームをシームレスに送信する能力を持つ、手間のかからないライブストリーミングのためのチケットです。これは、オンラインでライブコンテンツを共有する方法を簡素化する技術で、複雑なものを簡単に見せます。WebRTCを通じて、ウェブサイトは仲介者の助けなしにブラウザとブラウザ/ブラウザとサーバー間のポイントツーポイント接続を確立し、ビデオストリーム、オーディオストリーム、または他の任意のデータの送信を実現できます。
簡単に言えば、これはユーザーがもはやOBS(Open Broadcaster Software)のようなストリーミングソフトウェアを使用する必要がなく、ウェブページを開くだけでライブを開始できることを意味します。
WebRTCでのストリーミングとは何か?
WebRTCの基礎的な実装は間違いなく複雑ですが、ウェブ上での使用は驚くほど簡単です。数行のコードだけで、ピアツーピア接続を確立し、データ送信を容易にすることができます。ブラウザは複雑なWebRTC機能を3つの主要なAPIに抽象化しています:
- MediaStream: このAPIはオーディオとビデオストリームの取得を可能にします。
- RTCPeerConnection: これはピアツーピア接続の確立とオーディオおよびビデオデータの送信を担当します。
- RTCDataChannel: このAPIは任意のアプリケーションデータの送信に使用されます。
ライブストリーミングを開始するには、最初の2つのWebRTC APIだけが必要です。まず、オーディオとビデオフィードを表すMediaStreamオブジェクトを取得します。その後、RTCPeerConnectionを使用してピアツーピア接続を確立し、この接続を通じてMediaStreamをライブサーバーにアップロードします。この単純な相互作用がウェブ上のリアルタイム放送を可能にします。
ライブストリームの収集
ライブストリーミングコンテンツの収集は、MediaStreamオブジェクトの取得方法に依存します。WebRTCはこの目的のための特定のインターフェースを提供しています。
最も一般的に使用されるインターフェースはnavigator.mediaDevices.getUserMedia
で、これはマイクとカメラを開いてオーディオとビデオストリームをキャプチャします。もう一つのオプションはnavigator.mediaDevices.getDisplayMedia
で、これは共有画面ウィンドウ(デスクトップ、アプリケーション、またはブラウザタブなど)からオーディオとビデオをキャプチャします。
これらのインターフェースにはいくつかの制限があります:
- HTTPSまたはローカル開発のためのlocalhostなど、安全なコンテキストでのみ使用できます。
- iOS 14.3以上のバージョンでのみWKWebViewでの
getUserMedia
の使用をサポートし、getDisplayMedia
インターフェースはモバイルデバイスではサポートされていません。
幸いなことに、WebRTCはcaptureStream
インターフェースを提供し、MediaStreamsの定義を大幅に拡張しています。この多様性により、単一の固定ソースから離れて、多様でダイナミックなストリーミングコンテンツが可能になります。
HTMLMediaElement
とHTMLCanvasElement
でcaptureStream
メソッドを呼び出すことで、現在の要素のアクティブにレンダリングされているコンテンツをキャプチャし、リアルタイムのMediaStreamオブジェクトを作成できます。簡単に言えば、VideoやCanvasを通じて表示されているもの、ビデオ、オーディオ、画像、またはカスタム描画であっても、放送用のライブストリームに変換できます。
しかし、異なるブラウザでvideo.captureStream
を実装する際にいくつかの問題が発生しました:
-
Chromeブラウザ: バージョン88以降、
video.captureStream
で取得したビデオストリームは、WebRTCを介して受信者が適切に再生できません。この時点で、Chromeはこの問題を完全に解決していません。唯一の回避策は、ブラウザ設定でハードウェアエンコーディングオプションを無効にすることですが、ユーザーフレンドリーではありません。 -
Firefoxブラウザ:
captureStream
メソッドには"moz"プレフィックスを含める必要があります。つまり、正しく機能するにはmozCaptureStream
を使用する必要があります。 -
Safariブラウザ: Video要素は
captureStream
メソッドを完全にサポートしていません。
その結果、私たちは最終的にvideo.captureStream
メソッドの使用を放棄し、代わりにcanvas.captureStream
を使用して様々なカスタムストリームを生成しました。
キャプチャしたコンテンツの前処理
Canvasを通じてビデオと画像のみをキャプチャし、それらをリアルタイムストリームに変換する場合、単一ソースのビデオストリームしか生成できません。複数のオーディオとビデオストリームを単一のストリームに組み合わせることはできないでしょうか?リアルタイムストリームを生成する前に、Canvasを通じてキャプチャした視覚コンテンツに対してミキシングと前処理を行い、WebAudio
インターフェースを使用してキャプチャしたオーディオに同様のミキシングと前処理を適用することができます。このアプローチにより、OBS(Open Broadcaster Software)の機能のほとんどをウェブに持ち込むことができます。
CanvasとWebAudioの強力な支援により、OBS-webは簡単に実現できます。以下は、OBS-webの設計と実装における基本的なアプローチの概要です。
まず、基本的なミキシング機能を実装しました。これにより、複数のビデオとオーディオストリームを1つに組み合わせることができます。さらに、ユーザーは各ビデオフィードのサイズと位置をカスタマイズし、各オーディオソースの音量を調整できます。以下の図に示すとおりです:
次に、各ビデオフィードに対して、ミラーフリップやフィルター効果などの個別の前処理効果を実装します:
最後に、ビジュアルにウォーターマーク、テキスト、その他の補足コンテンツを追加すれば、OBS-webの基本機能はほぼカバーされています!全体的な効果は以下の画像を参照してください:
ビジュアルのレンダリングにCanvasを使用する際、WebGLを活用してレンダリングパフォーマンスを向上させ、GPUアクセラレーションを利用してより高速なレンダリング速度を実現できます。さらに、WebGL Shadersを使用することで、より洗練されたビジュアル効果を達成し、ブラウザの固有の機能を最大限に活用できます。同時に、MediaStream
、HTMLVideoElement
、HTMLAudioElement
などの入力ソースをサポートする基本的な構成プロトコルを開発しました。このプロトコルは、ルールに従ってビデオとオーディオストリームの処理タスクを定義し、データの変更に応じて動的にビジュアルとサウンドの処理を駆動します。この設計の柔軟性により、新しい効果をシームレスに統合でき、開発効率が向上します。
OBS-webの実装中に発生する可能性のある一般的な問題とその解決策を以下にまとめます:
-
RequestAnimationFrame
の制限: ほとんどの場合、Canvasのレンダリングはフレームの再描画にrequestAnimationFrame
に依存しています。このアプローチにはパフォーマンスの向上やリソースの節約など多くの利点がありますが、ウェブページが非アクティブな状態(非表示または最小化)にある場合に制限があります。この間、requestAnimationFrame
の実行が一時停止し、Canvasのコンテンツが静的なままになり、実質的にフレームレート0のライブストリームになってしまいます。ライブストリーミングシナリオでこの問題に対処するために、ブラウザのvisibilitychangeイベントを監視する解決策を実装しました。現在のページが表示されている場合(document.hidden
属性がfalse
)、フレームレンダリングには引き続きrequestAnimationFrameを使用します。しかし、ページが表示されていない場合(document.hidden
属性がtrue
)、フレームレンダリングにはsetIntervalを使用するように切り替えます。 -
WebAudio ContextとInteractivity: 自動ビデオ再生を防ぐために使用される戦略と同様に、WebAudioコンテキストオブジェクトは、ページとのユーザーインタラクションが検出されない場合、サスペンド状態で開始します。この状態では、WebAudioコンテキストに対する操作は効果がありません。ブラウザとのユーザーインタラクションがある場合にWebAudioコンテキストをアクティブ化し、"running"状態に移行させて、オーディオ操作を効果的に実行する必要があります。
-
AudioContextとMedia Element Source:
createMediaElementSource
メソッドを使用してHTMLVideoElement
とHTMLAudioElement
からオーディオを抽出する場合、各要素は1回だけ抽出できます。同じ要素を再度抽出しようとするとエラーが発生します。これに対処するために、最初に生成された結果を保存して再利用する必要があります。
これらの課題と解決策は、OBS-webのスムーズな運用を確保し、高品質で中断のないライブストリーミングを可能にするために不可欠です。
これで、OBSの機能のほとんどをウェブに持ち込み、OBSソフトウェアのダウンロードとインストールの必要性を排除しました。しかし、このプロセスをできるだけ簡素化する方法はありますか?
私たちは喜んでこの問題の解決策を見つけたと言えます。
WebRTCストリーミングSDKを始める
そこで、WebRTCストリーミングSDKの使用をお勧めします。これは上記のすべての機能を統合し、ブラウザの互換性とパフォーマンスの問題に焦点を当てています。
WebRTCストリーミングSDKを使用すると、様々なライブストリームをキャプチャし、これらのストリームにローカルでミキシングと前処理を行うことができます。例えば、ピクチャーインピクチャーレイアウト、ミラーとフィルター効果の追加、ウォーターマークやテキストの追加などが可能で、その後、処理されたオーディオとビデオストリームをTencent Cloudのライブストリーミングバックエンドにアップロードできます。
注目すべき点は、ストリームを中断することなく、ストリーミングプロセス中にリアルタイムの視覚的および音声効果を実行できることです。この機能により、ローカル放送に似た効果さえ達成できます。
GitHubでいくつかのオープンソースWebRTCストリーミングSDKを見つけることができます。SDKを選択する際は、特定の要件、必要な制御レベル、スケーラビリティ、およびチームの専門知識などの要因を考慮してください。また、これらのSDKは無料でオープンソースですが、大規模に展開する場合はサーバーコストとメンテナンスを処理する必要があることを覚えておいてください。
Discussion