ここ最近、人工知能(AI)」を利用した製品やサービスが少しずつですが充実してきましたね。我々人間の生活を豊かにしてくれるツールが増えてくる、それは非常にありがたいことです。きっと障害を持つ方々の生活にも革新をもたらしてくれるのでしょう。しかし、人工知能の安全性をを揺るがす出来事も起こっています。

最近では、マイクロソフトが開発している人工知能「Tay」が差別的な発言や反社会的な思想を持ってしまい、緊急停止されるという騒ぎになりました。

そんな中、Googleの子会社「DeepMind」がオックスフォード大学内の研究所FHIと協力して、人工知能が暴走した際の解決法を検討したそうです。

その名が「大きな赤いボタン」。
なんとなく、タイムボカンシリーズみたいですね…。

機械を安全に止めるといっても、電源コードをただ抜けばいいというわけではありません。AIが人類に損害を与えるほど危険になることを予測したシナリオはいくつかありますが、どの場合でも、AIは自律作動しているか、サーバーラックでホストの役割を果たしています。DeepMindとFHIによる論文は、電源を抜く代わりに、機械を騙す必要があると結論づけています。

機械なんだから、ただ電源を抜けばいい!!というわけでもないそうです。

では、機械を騙すとはどういことなのでしょう?

そのためには、そのアルゴリズムを作った科学者たちが、「阻止手段」、つまり人間が「強制的にAIの動作を一時的に変更」できるようにするためのトリガーをインストールしなければなりません。別の言い方をすると、機械に「止まらなければならない」と考えさせるシグナルを送るわけです。

機械は、外部から与えられるコマンドに従うのではなく、自ら止まるという決断を下します。しかし、機械は騙されてそうするのです。少々ややこしい話ですよね。でもこれは、もはや人間の命令を聞こうとしなくなったロボットの裏をかく1つの方法なのです。

確かにややこしい話ですが、これは興味深い内容ですね。外部から停止を促すのではなく、強制停止ボタン的なものを作っておくという方法。

でも、この方法は果たしてうまくいくのでしょうか。疑問も残りますが、人工知能の開発も後先のことをしっかり考えながら、慎重に進めていって欲しいものです。

Google、AIの「緊急停止用ボタン」を検討 | ライフハッカー[日本版]人工知能(AI)はおそらく、Facebook上に大量にある写真をタグ付けしたり、ロボットに歩き方を学ばせたりするなど、おびただしい複雑な作業を自動化するのに最適な方法でしょう。 | ライフハッカー[日本版]www.lifehacker.jp

via:ライフハッカー[日本版]