Cambridge大学は、人工知能(AI)の倫理的な問題に、焦点を合わせている。

  by iikura  Tags :  

 Cambridge大学は、人工知能(AI)の倫理的な問題に、焦点を合わせているという。 2015年12月3日

 By Amir Mizroch、WSJ

 人工知能(AI)の意味に関する研究や、人工知能の倫理的な開発に影響を及ぼすことに関する研究などに取り組む、「Leverhulme Centre for the Future of Intelligence」と呼ばれる、新しい研究センターが、英国のCambridge大学に設立された。

 英国で、学術的な研究のための助成金を提供する、非営利財団、Leverhulme Trustは、この「Leverhulme Centre for the Future of Intelligence」研究センターを設立するために、Cambridge大学に、10年以上に渡り、1000万ポンド(1500万ドル)の助成金を提供してきたと発表した。

 この新たな研究センターは、Cambridge大学の哲学者のBertrand Russell教授と、Huw Price教授により導かれるようだ。

 非営利財団、Leverhulme Trustによると、この人工知能の倫理的な開発の影響などを研究する、チームのメンバーには、政治科学者、法律学者、心理学者、技術者などが含まれるという。

 この新たな「Leverhulme Centre for the Future of Intelligence」研究センターは、気候変動、生物学的戦争、および人工知能を含む、人間の将来に、新たに出現するリスクについて研究し、Cambridge大学の「Centre for the Study of Existential Risk(実存的なリスクの研究センター)」と協同で、人工知能の問題に関する研究を進めていく。

 米国のGoogle、Microsoft、Amazon、Twitter、Facebook、あるいは、中国のBaiduといった、IT業界の大手ベンダは、自分たちの人工知能(AI)の研究部門や研究スタッフを、強化している。

 最近、Stephen Hawking氏、Bill Gates氏、および、Elon Musk氏のような、著名人は、知的な、自己の意識を持つ、自律的なAIコンピュータの、人間に対する危険の可能性について警告している。

 Cambridge大学のHuw Price教授は、研究の一貫として、AI技術に責任があり、共通の目的を持つ、AIコミュニティを作成する意向であると述べた。

 新たなセンターは、Oxford大学、Imperial大学のLondon校、および、California大学のBerkeley校などとも協調していく。

 ソフトウェア技術者は、「価値の境界合せ」と呼ばれるプログラムに焦点を合わせ、人工知能(AI)プログラムの振舞いを統治するコードを書くために、倫理学者や哲学者とチームを組み、協調していく。

 Cambridge大学の、この新センターは、知的なAIロボットの、人間に対する影響について研究するために設立され、世界の他の研究機関や研究者と協調していく。

 2015年7月に、Cambridge大学に拠点を持つ、「Future of Life Institute」には、AIロボットを有益にするための研究に、Elon Musk氏から、700万ドルの助成金が提供されたようだ。

 2014年に、Googleは、Cambridge大学の卒業生、Demis Hassabis氏により設立された、ロンドンを拠点とする、AI会社、DeepMind Technologiesを買収した。

 2015年11月に、Demis Hassabis氏は、GoogleのAI技術の進展における、倫理的な問題について、極めて心配している、Stephen Hawking氏と議論したというが、Hawking氏のオフィスは、コメントを避けたという。

 2015年10月に、Appleは、人間が話す、自然な言葉を理解し、より自然に思考して、人間のように話せるよう、コンピュータの能力を改善する方法を、研究&開発している、Cambridgeベースの、AI技術のスタートアップ、VocalIQを買収した。

IT関連のプレスリリースや記事を抄訳し、ブログで提供しています。

ウェブサイト: http://iikurakoichi.cocolog-nifty.com/blog/