実験の結果ロボットがロボット工学三原則を守るのは困難だと判明
【大きな画像や動画はこちら】

SF作家アイザック・アシモフは、自身のSF小説の中でロボット工学三原則というものを定めました。

それは下記の通り。

---------------------------------------

第一条:ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。


第二条:ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない


第三条:ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。


---------------------------------------


というものです。しかし、最近行われた第一条の実験によると、ロボットはこのルールを守るのが難しいということが判明したとio9が伝えました。

イギリスにあるブリストル・ロボティクス・ラボラトリーのロボット学者のアラン・ウィンフィールド氏は、アシモフのロボット工学三原則の第一条を単純化した実験をしたそうです。彼とそのチームが行ったのは、ロボットにプログラムを施し、人間の代理となる他のロボットが穴に落ちるのを妨ぐというものです。



Aロボットは最小の倫理ロボットで、画面右上のゴールに向かって動きます。その途中で、Hロボット(人間代理ロボット)が穴に落ちるのを防がなくてはなりません。Hロボットが1体だと成功しましたが...、2体になると混乱しだしているのが分かります。

New Scientistのアヴィーバ・ラットキン記者がこの実験について次のように説明しています。

---------------------------------------

最初、ロボットは人間代理ロボットが穴に向かって動いていくのを察知して軌道修正させてから自らのゴールに向かうというタスクをこなすことが出来ましたが、もう人間代理ロボットをさらに1体加えて同時に穴に向かって動かすと、ロボットは選択を迫られてしまいました。


何回かは2体とも穴に落ちるのを防ぐことに成功しましたが、1体だけ助けてもう1体を見過ごしてしまうということもありました。しかし33回の内14回は、ロボットは考えることで時間をロスし、結果的に両方とも穴に落としてしまうという結果になりました。


この実験は9月2日にイギリスのバーミンガムで開かれたTowards Autonomous Robotic Systems会議で行われました。


ウィンフィールド氏は、このロボットのことを、その通りにしか行動出来ない「道徳ゾンビ」だと説明しています。プログラムされた行動のコードによって他のものを助けるかもしれませんが、その行動の裏にある理由を理解出来ないというのです。


同氏は、ロボット自らが倫理観を持ってして選択することは不可能だと考えたこともあったそうです。しかし、今は「わたしの答えですか。どうなのでしょう、分かりません」と話しています。



---------------------------------------

io9によると、近年では歩行者や他の運転手に気をつけつつ乗っている人の安全を確保しなくてはならないセルフドライビングカーの研究等が進められているので、このような実験はとても重要視されるようになってきていると書いています。

これらは曖昧な倫理的行動が絡んでくる非常に複雑なシナリオです。しかし、New Scientistのラットキン記者は、軍の戦闘用に設計されたロボットなら幾つかの解決策を出すことが出来るかもしれないと指摘しています。

---------------------------------------

アトランタにあるジョージア工科大学のロナルド・アーキン氏は軍用ロボットの為に戦場でスマートな決定を下す助けとなるアルゴリズムを作りました。彼は既に疑似戦闘にてテストを行っており、このようなプログラムをされたドローンは何を撃たないべきか、もしくは学校や病院といった戦争のルールに基づいて守られなくてはならないエリア近くでの戦闘中に犠牲者を最小限に抑えようと努めるといった成果を見せています。


---------------------------------------


[via io9

中川真知子

関連記事

RSS情報:http://www.kotaku.jp/2014/09/cool-experiment-puts-asimovs-first-law-of-robotics.html