テックジャイアンツがAIブームによって引き起こされた倫理的懸念に取り組む

大きな力には大きな責任が伴います。人工知能技術はますます強力になっています。機械学習とAIの開発と展開の先駆者である企業は、ますますスマートな創造物によって提起された倫理的課題について公然と話し始めています。





MicrosoftResearchのマネージングディレクターであるEricHorvitz氏は、次のように述べています。 MITテクノロジーレビュー 今週のEmTechカンファレンス。 AIを利用して長期にわたって保護および保存することは、倫理的に不可欠です。

Horvitzは、IBMとGoogleの研究者と一緒に、同様の問題について熟考しました。共通の懸念の1つは、最近の進歩により、企業がソフトウェアを人間を非常に直接制御できる位置に配置するようになっていることです。たとえば、ヘルスケアなどです。

フランチェスカ・ロッシ IBMの研究者である、は、高齢者に支援や交際を提供する機械の例を挙げました。このロボットは、文化固有およびタスク固有の文化的規範に従わなければならない、と彼女は言いました。 [そして]もしあなたがアメリカか日本に展開するなら、その振る舞いは非常に異なっていなければならないでしょう。



そのようなロボットはまだ道のりが遠いかもしれませんが、AIによって提起された倫理的課題はすでにここにあります。企業や政府が意思決定を機械学習システムに依存するようになると、テクノロジーの盲点や偏見が特定のタイプの人々に対する差別に効果的につながる可能性があります。

たとえば、昨年のProPublicaの調査では、一部の州で刑事判決を通知するために使用されたリスクスコアリングシステムが 黒人に対して偏った 。同様に、Horvitzは、企業が使用するためにMicrosoftで開発された感情認識サービスが、適切にキュレーションされていない写真のグラブバッグを使用してトレーニングされたため、最初は小さな子供にとって不正確であったことを説明しました。

Googleの研究者であるMayaGuptaは、アルゴリズムのトレーニングに使用されるデータが歪曲されないようにするために、業界がプロセスの開発にもっと一生懸命取り組むことを求めました。多くの場合、これらのデータセットはある程度自動化された方法で作成されているとGupta氏は述べています。私たちはもっと考えなければなりません、私たちは十分な仕事をしたことを確認するためにマイノリティグループから十分にサンプリングしていますか?



昨年、機械学習とAIの倫理的課題を研究するための多くの取り組みが、学界と産業界で生まれました。カリフォルニア大学バークレー校;ハーバード;オックスフォード大学とケンブリッジ大学はすべて、AIの倫理と安全性に取り組むためのプログラムまたは研究所を開始しました。 2016年、Amazon、Microsoft、Google、IBM、Facebookは共同で非営利団体を設立しました。 AIのパートナーシップ 問題に取り組むために(Appleは1月に参加しました)。

企業はまた、自社のテクノロジーに関する保護手段を構築するために個別の行動を取っています。 Guptaは、偏った機械学習モデルを修正する方法、またはそもそもモデルが歪曲されるのを防ぐ方法をテストしているGoogleの研究を強調しました。 Horvitzは、MicrosoftのAIに関する社内倫理委員会について説明しました。これは、同社のクラウド内サービス用に開発された新しい意思決定アルゴリズムなどを考慮したAETHERと呼ばれています。現在Microsoftの従業員が住んでいますが、将来的には外部の声も追加したいと考えています。 Googleは独自のAI倫理委員会を立ち上げました。

おそらく当然のことながら、そのようなプログラムを作成している企業は、一般に、人工知能の新しい形態の政府規制の必要性を排除すると主張しています。しかし、EmTechでは、Horvitzは、一部の人々が反対の結論を下す可能性のある極端な結果についての議論も奨励しました。



彼は2月にワークショップを開催し、専門家が株式市場や選挙結果をいじるなどしてAIが社会にどのように害を及ぼす可能性があるかを詳細に説明しました。積極的に行動すれば、実現可能な結果を​​考え出し、今すぐそれらを混乱させるメカニズムを導入することができます、とHorvitz氏は述べています。

そのような話は、彼がサンフランシスコでステージを共有した人々の何人かを不安にさせたようでした。グーグルのグプタは、人間の手からいくつかの決定を下すことで、世界を現在よりも道徳的にする方法を検討するよう人々に促しました。

機械学習は制御可能で正確であり、統計で測定可能であると彼女は言いました。より公平で、より倫理的な結果を得るには、非常に多くの可能性があります。



隠れる