211service.com
Elon MuskのOpenAIは、機械が学習するためのより簡単な方法を発表します
2013年、DeepMindと呼ばれる英国の人工知能のスタートアップは、熟練した人間のプレーヤーよりも優れた古典的なAtariゲームのプレイを学ぶことができるソフトウェアを披露して、コンピューター科学者を驚かせました。 DeepMindはすぐにGoogleに買収され、Atariゲームを打ち負かす手法である強化学習が、AIとロボット工学の分野で話題になっています。 Googleは強化学習を使用して、昨年チャンピオンのGoプレーヤーを打ち負かすソフトウェアを作成しました。
現在、Elon Muskによって共同設立され資金提供されている非営利の研究機関であるOpenAIは、強化学習のより使いやすい代替手段が、ゲームをプレイしたり他のタスクを実行したりするときにライバルの結果を得ることができることを発見したと言います。月曜日にサンフランシスコで開催されたMITTechnologyReviewのEmTechDigitalカンファレンスで、OpenAIのリサーチディレクターであるIlya Sutskeverは、研究者が機械学習をより早く進歩させることができると述べました。
Sutskever氏によると、標準ベンチマークでの今日の強化学習アルゴリズムと競合します。とても単純なものが実際に機能するのは驚くべきことです。
OpenAIの機械学習ソフトウェアは、古典的なAtariゲームのプレイ方法を理解しました。
Sutskeverは、ソフトウェアにコンピューターゲームのプレイやロボットの操縦などを学習させる新しい方法を見つけることは、機械学習ソフトウェアに画像の認識や音声の文字起こしよりも複雑なタスクを実行させるために重要であると主張しています。もし私たちがコンピューターシステムに世界で複雑な行動をとることを学ばせれば、私たちはそれらをインテリジェントと呼んでもいいと思うと彼は言った。
Sutskeverと同僚は、彼らのアプローチをテストしました。 進化戦略と呼ばれる 、PongやCentipedeを含む50以上のAtariゲームをプレイすることを学んだソフトウェアを構築することによって。新しい方法を複数のプロセッサにスケールアップする方が簡単なため、昨年Google DeepMindが公開した強化学習システムを使用して、1時間で作成したものに匹敵する人工プレーヤーを1時間でトレーニングできました。それは、ゲームSeaquest(アニメーションの中央のフレーム)で空気のために浮上する必要性のようなことを学ぶ同じ能力を示しました。
OpenAIのリサーチディレクター、Ilya Sutskever
進化戦略は、ソフトウェアがシミュレートされた環境でヒューマノイドを歩く方法を理解する必要があるロボット工学からの標準的なテストを受けるために使用されたときに同様の利点を示しました。最先端の強化学習システムが達成するのに約10時間かかるという結果を達成するのに10分かかりました、と研究者達は言います。
この手法は、学習ソフトウェアにさまざまなアクションを試して最も効果的なアクションを特定する方法についての数十年前のアイデアを再起動したものです。自然淘汰によって生物が環境に適応する方法に大まかに触発されています。
誰もが長い間知っていたアルゴリズムは、ほとんどの人が思っていたよりもうまく機能すると、Sutskever氏は述べています。
彼は、進化戦略手法から後押しされる可能性のあるAIの特定のアプリケーションを提案することを拒否し、その長所と制限についてさらに研究が必要であると述べました。しかし、Sutskever氏は、この方法を強化学習と比較すると、結果を得るためにより多くのステップを必要とするより複雑なタスクを実行することを学習する方がよいことを示唆していると述べました。
そのため、Sutskever氏は、進化戦略は、彼が人工知能と呼ぶもの、つまり多くの種類の複雑なシナリオに適応できるソフトウェアを作成するというOpenAIの目標に役立つと信じています。
機械学習のほとんどの研究者は、一般的な知性についてあまり話さず、代わりに、特定の、しばしば狭く焦点を絞った問題の進歩を追求しています。 OpenAIのミッションステートメントには、人工的な一般的なインテリジェンスを作成するという取り組みが含まれています。 Sutskever氏は、機械学習の進歩のペースは、目標を今考える価値があることを意味すると述べました。
[それは]今ははるかに遠いように見えるが、5年前ははるかに遠かったと彼は言った。これらのアルゴリズムの開発に費やす人の数と労力は非常に多く、物事は非常に健全なペースで進んでいます。