過去に幾度となく、開発者は仮想現実に風景や街を作りたいと考え、ビルなど物体を1つ1つ作るのに骨の折れる作業をかけてきました。しかし、NVIDIAはAIを使ってこの作業を短縮化できると考えているようです。

同社はこのほど、現実世界を撮ったビデオからAIでバーチャルシーンを作成するモデルを発表しました。これまで使われていたようなグラフィックエンジンの代わりに、AIを用いてグラフィックスを生成しているといいます。

もちろん最終的な結果はAAAのゲームグラフィックスに比べて良いものだとはいえないものです。しかし、同社が示したAIのグラフィックス生成能力はすでにとても印象深いものになっています。NVIDIAは、街をドライブすることでデータを収集し、セグメンテーションネットワークを用いることでデータシーケンスからからハイレベルなセマンティクスを取り出すことでこれを実現しているといいます。

同社はさらに、Unreal Engine 4で環境の基本的なトポロジーを作成しました。これはAIがグラフィックス生成に使われているものの、建築物はいまだに伝統的なグラフィックエンジンに頼っているということを意味します。NVIDIAのアプライド・ディープラーニングのバイスプレジデントBryan Catanzaro氏は、「ゲーム開発にせよ、テレプレゼンスや他の開発にせよ、バーチャルワールドを作るときに開発者が直面する大きな障害の一つはコンテンツ制作にかかるコストが高いということです。この方法を用いれば、現実世界で学習したAIを利用することで、アーティストや開発者がより低コストにこれを実現することができるでしょう」と述べました。

この記事は、編集部が日本向けに翻訳・編集したものです。

原文はこちら