• このエントリーをはてなブックマークに追加
人工知能が天使になるとき、悪魔と化すとき。
閉じる
閉じる

新しい記事を投稿しました。シェアして読者に伝えましょう

×

人工知能が天使になるとき、悪魔と化すとき。

2016-05-17 20:54
     淡々とマーベル映画を見ています。

     あとは『ガーディアンズ・オブ・ザ・ギャラクシー』と『キャプテン・アメリカ/シビル・ウォー』を見れば完全制覇。

     ぜいぜい。はあはあ。さすがに短期間で10作続けて見ると疲れる。全部見終わったらまとめて記事を書こうと思います。

     ほんとうはこうやって極端に集中して見るんじゃなくて、毎日1本ずつくらい見て行くのがいいんだろうなあ。結果的にはそっちのほうがたくさん見れるはずだし。

     ぼくはどうも長距離走を短距離的に走り抜こうとして失敗する傾向がある。いいかげん自分のリミットを把握しなければ……。

     さて、NHKの「天使か悪魔か 羽生善治人 工知能を探る」という番組を見ました。

     タイトルからわかるように、世界各地で急速な進歩を遂げている人工知能(AI)に関する番組です。

     ついにさまざまな領域に進出しつつある人工知能について、将棋というゲームに関する「人類最高の知性」であるところの羽生善治が探求するという内容。

     非常に興味深い番組だったのですが、最終的に出てきたのは人工知能の倫理問題でした。

     人間の理解を超える領域にまで進歩していこうとしている人工知能に対し、どうすれば倫理的な制約をもうけることができるかという問題です。

     ぼくたちは多数の映画や小説で「危険な人工知能」というヴィジョンを見せられてきています。

     そういう作品では、人工知能はなんらかの目的のために「暴走」し、人類滅亡といったプロジェクトを開始するのです。

     しかし、現実的に考えればそういう「邪悪な」人工知能は生まれづらいでしょう。

     人工知能をそういうふうに捉えることはいわば人工知能の擬人化であるに過ぎません。

     だから、『ターミネーター』に出てきたような「邪悪な支配欲に駆られた人工知能」といったものを想定することはばかばかしい。

     しかし、その一方で「人類の利益に対して一切無関心な人工知能」は考えられるでしょう。

     そういう人工知能は、ある目的のために「結果として」人間の目から見ると邪悪ともとれる行動を取るかもしれない。

     人工知能のそういう「結果としての暴走」をどう阻止すればいいのか。あきらかに人工知能に倫理を学ばせる必要があるという結論が出そうです。

     しかも、その「学習」は、人間が「これは良いことだ。これは悪いことだ」と教え込むという形ではなく、人工知能自身に考えさせ、結論を出させる必要がある。

     つまりモラル面のディープ・ラーニングです。

     ぼくは思うのですが、たとえば「住宅街に向かってミサイルを発射せよ」とだれかが命令したとき、命令通りに発射する人工知能と命令に背く人工知能、人類にとって安全といえるのはどちらでしょうか?

     あるいは、もしその住宅街にテロリストがひそんでいて、そのテロリストを殺害することによって何万の人を救えるかもしれないとしたら?

     こういった問題は人類が現段階で明確な答えを持っていないものです。何が正しいのか、だれにもわからない。

     いまのところ人工知能は「成か、否か」明確に分けることができる領域で活躍していますが、その能力の劇的な進歩に連れて、やがて必ずこういった「答えのない問い」の領域にまで進出していくでしょう。

     そのときには、どれほど高度な知性を持つ人工知能といえども、完全に正しい答えを出すことはできないはず。

     問いそのものにパラドックスが設定されている問題だからです。

     そういうパラドキシカルな状況設定に対して超高度な人工知能がどのような答えを出していくのか、ぼくは興味があります。

     そしてまた、 
    この記事は有料です。記事を購読すると、続きをお読みいただけます。
    ニコニコポイントで購入

    続きを読みたい方は、ニコニコポイントで記事を購入できます。

    入会して購読

    この記事は過去記事の為、今入会しても読めません。ニコニコポイントでご購入下さい。

    コメントを書く
    コメントをするにはログインして下さい。