テクニカル

disguiseでUnreal Engineを使用する

disguiseでUnreal Engine(以下UE)を使用する場合、メインサーバーとは別にレンダリングサーバーが必要です。
https://www.disguise.one/en/products/rx-range/rx/

Reality EngineはUEを拡張したソフトウェアでしたが、disguiseの場合、ソフトウェアとそのメインサーバーはUEと何の関係もないため、UEの最新アップデートに対して比較的短期間で対応してきます(2022年7月時点でUE5に対応)

disguiseメインサーバーとレンダリングサーバーの接続には25GbE以上の高速なIPネットワークが使われ、とくに複数のレンダリングサーバーを束ねる場合にはMellanox製スイッチをハブとして100GbEのネットワークを作ります。
fabric https://www.disguise.one/en/products/fabric/

サーバー間はRenderStreamという独自のプロトコルで双方向通信し、カメラトラッキングデータとビデオストリームの両方を1組の光ファイバーで賄います。
RenderStream https://www.disguise.one/en/products/renderstream/

スタジオカメラに取り付けられたRedSpy等のカメラトラッカーの吐き出すリアルタイムデータをdisguiseメインサーバーが受信し、プロジェクト内のバーチャルカメラと連動します。

RedSpy https://stype.tv/redspy/

disguiseプロジェクトのカメラ情報はRenderStream経由でレンダリングサーバーであるrxに送られ、rx上で起動しているUEプロジェクトのレベル内バーチャルカメラを操作します。

撮影されたUEのリアルタイムCG映像は、RenderStreamを経由してメインサーバーに送信され、disguiseソフトウェアでLEDウォールまたはクロマキーヤーのマット映像としてマップされます。

UEの美しいリアルタイムCGをイベントで活用したい場合、高度なマッピング機能が使用できるdisguise社のソリューションは価値があります。

rxサーバーは、メインサーバーのようなベースバンドの外部ビデオ入力を持っていません。そのためUEレベル内のビデオテクスチャにリアルタイムで外部入力のビデオを流したい場合については、メインサーバーからRenderStream経由でrxサーバーへ映像を送信します。

先述のメインサーバーとレンダリングサーバーを分離してIPネットワークで接続するという構造にはメリットもありましたが、この場合については映像信号の経路が冗長になることに注意します。

外部ビデオについては、メインサーバーのプロジェクト上で直接マップしたほうが良いかもしれません。

Reality Engineを4.27へアップデートしました前のページ

Unreal Engineにおけるマテリアルの優先順位次のページ

お問い合わせ

カテゴリー

アーカイブ

PAGE TOP