Seamless

Virtual Reality News

メニュー

Google DeepMind、複数のタスクを同時に訓練する効率的な分散アーキテクチャ「IMPALA」を発表

Google DeepMindは、複数のタスクを同時に訓練する効率的な分散アーキテクチャ「IMPALA(Importance-Weighted Actor-Learner Architectures)」を発表しました。

論文:IMPALA: Scalable Distributed Deep-RL with Importance Weighted Actor-Learner Architectures
著者:Lasse Espeholt、Hubert Soyer、Remi Munos、Karen Simonyan、Volodymir Mnih、Tom Ward、Yotam Doron、Vlad Firoiu、Tim Harley、Iain Dunning、Shane Legg、Koray Kavukcuoglu
GitHub:deepmind/lab

IMPALAは、同時に多くのタスクを解決することができる分散学習で、例えば上GIFのように30のゲームを同時に実行することで、効率的に強化学習できるマルチタスク・アプローチです。

類似のAIよりデータ効率が10倍向上し、A3Cと比較して最終スコアは2倍を達成、以前よりも少ないデータでより優れたパフォーマンスを達成できたとしています。また、スループット(単位時間当たりの処理能力)は、毎秒25万フレーム、1日210億フレームと高レートを叩き出したと述べています。

関連

OpenAI、文章の前後の脈絡(コンテキスト)から単語の意味を予測するWikipediaをベースにしたニューラルネットワーク「DeepType」を発表 | Seamless

About

Seamless(シームレス)は、Virtual Realityの記事を主軸に更新しています。(詳細はこちら