ジェイムズ・バラット著「人工知能」を読みました。フリーのテレビプロヂューサーである著者は、AI専門家の取材、論文読破、考察を通じて、人類はAIに滅ぼされると確信するようになり、AIの危険性を警告し対応を促すために本書を執筆しています。ちなみに、本書の副題が「人類最悪にして最後の発明」となっています。人類を滅ぼすAIの危険を予測し警鐘を鳴らす識者として、ほかにスティーブン・ホーキング、イーロン・マスク、ビル・ゲイツがいます。

AIは過去二度のブームと衰退を経て、現在三度目のブームを迎えています。機械学習の一種であるディープラーニングという手法が開発され、パターン認識や概念形成などをコンピュータが自己学習できるようになりました。これは簡単に言うと、第二次ブームで開発されたニューロコンピューティングにおけるバックプロパゲーション法(逆誤差伝搬法)を改良したものです。

本書では、AIが発展して人間並みの知能を持つAGI(人工汎用知能)になると、自分のプログラムを書き直して自己進化するようになり、瞬く間にASI(人工超知能)が発現すると述べています。そうなれば、もはや人間にはコントロ-ルはおろか理解することもできない新しい「種」が誕生することになり、人間が砂粒のことを気にしないのと同様に、ASIは人間のことを気にしないか単なる素材とみるかによって、人類を絶滅に導くだろう。従って、AGIが発現する前に何らかの対応が必要になるということです。例えば、すべてのAIシステムには、人類にフレンドリーとなる基本コードを事前に組み込むとか、一定条件を超えると自動的に自殺するアポートシス機構を組み込むとかです。

AGIができれば確かに著者の言う通り容易にASIが発現すると考えますが、本当にAGIは実現するのでしょうか?本書にはその技術的裏付けは示されていません。映画「2001年宇宙の旅」の宇宙船管理システムHAL(AGIに相当すると思われる)のようなシステムは、2015年現在存在しないし、今後30年位では実現しそうにないと思います。時代錯誤の政治屋によるくだらない政策によって市民の生活が破壊されるくらいなら、いっそのこと、AGIに政治をやらせた方がまだましなのではないかと考えます。

















管理者にだけ表示を許可する


| HOME |


Design by mi104c.
Copyright © 2017 個人出版コミュニティ, All rights reserved.