• このエントリーをはてなブックマークに追加

  • 小飼弾の論弾 #264 「知能も運も遺伝する!最新研究が明らかにした事実をどう受け止める? 対談:行動遺伝学者 安藤寿康博士」

    2023-11-21 07:00
    550pt

     「小飼弾の論弾」で進行を務める、編集者の山路達也です。
     無料公開部分の生配信およびアーカイブ公開はニコ生・ニコ動のほか、YouTube Liveでも行っておりますので、よろしければこちらもぜひチャンネル登録をお願いいたします!

     今回は、2023年10月31日(火)配信のテキストをお届けします。

     次回は、2023年11月28日(火)20:00の配信です。

     お楽しみに!

    2023/11/14配信のハイライト

    • 人間の知能と遺伝の影響
    • 人類の品種改良?
    • 学力の遺伝と学校教育
    • 家庭環境の知能への影響はざっくり30パーセントぐらい
    • 自分で自分の遺伝子の姿を見ることはできない
    • 遺伝的な格差と社会的な格差

    人間の知能と遺伝の影響

    山路:今日は、いつもとは趣向を変えまして、ゲストに行動遺伝学者の安藤寿康先生をお迎えしております。

    安藤:はい、こんにちは。いつもと趣向違うんですか?

    山路:いつもは2人でダラダラ話してるだけなんで(笑)、

    小飼:ゲストがいらっしゃるのは本当に久しぶりなんで、

    安藤:お招きいただきましてありがとうございます。

    小飼:本当に大変お待たせいたしました。

    山路:すいません、ちょっと機材トラブルがありまして。

    小飼:はい、いつもよりもちょっと機材が複雑な構成になっておりまして。

    山路:カメラがいつもより2台多い、

    安藤:今まで一つだけだった、

    小飼:そうそう、(3分割で表示しているディスプレイを示しながら)これができるようになったので、

    山路:大変複雑なセッティングになっておりまして(笑)。で、先週予告した通り、今日安藤先生と対談させていただくんですけれども、この近刊、

    小飼:すごいタイトルですよね。

    山路:煽りマックス。売らんかなの、この煽りマックス感。

    安藤:NHKがこんなことやっていいのかって感じですけどね(笑)。

    山路:こちらのNHK出版新書、作家の橘玲さんと安藤先生の対談本になって、私もちょっと編集のほうでお手伝いをさせていただきました。けっこう売れてるみたいですよね。Amazonで、本の総合で30位ぐらいまで行ってたんで。

    安藤:そうですね、

    山路:ラノベや漫画を上回る(笑)、

    小飼:売れ行きは遺伝する(笑)、

    安藤:誰に(笑)、

    山路:誰に、ですよね(笑)。

    安藤:もう重版が決まってるっていうのもすごいなと思って。

    山路:すでにコメントの中では、読了されたという方もいらっしゃるんですけれども、簡単にちょっと行動遺伝学のほうを、どういうことっていうのを、先にお伝えしたほうがいいですかね。対談とか入る前に。どんな研究なのか、簡単に行動遺伝学の説明というのをしていただけると。

    安藤:文字通り、人間の行動は遺伝の影響を受けているよ、というしごく当たり前のことなんですけれども。それが学力も行動だ、学力にも遺伝の差があるとか、行動といわれているもの全てに遺伝の影響があって、その違いというのはただ単に環境とか学習とかだけで説明できない部分というのが実はかなりあるということをもう、これはもう、かれこれ1960年、80年くらい前からずっと地道に出してきていて、何も新しいことは言ってない(笑)。
     ただ、最近劇的に新しくなったことがあります。
     今までは、双子の研究法というのを使って、一卵性双生児―――遺伝子が全く同じ人たち―――がどの程度似ているかを調べていました。能力には遺伝の影響もあるだろう、だけど同じ環境で育ってるからその影響だってあるじゃんと。だから、そこのところが遺伝だよってことを言うために、同じ環境で育っている二卵性の双子さん―――普通の兄弟と同じ50パーセントの遺伝子しか共有していない人たち―――と比べた時に、一卵性がどれだけ似てるかっていうのを示す。そうしていくとどの程度遺伝の影響があるかってことっていうのがざっくり見られる。例えば知能なんかは50パーセント、うちの研究では遺伝率が80パーセントでやべえとかって思ったんですけど(笑)。でも私が言ってるんじゃなくて、データが言ってるんだからということで、ちゃんと論文に書きました。

    小飼:ただ、ここでその対象とされる知能というのは、きちっと定義されてるんでしょうかね。

    安藤:はい。そこもとてもつまらない、禁欲的な定義をしていて、基本的には知能検査で測られるものというふうにしています。

    小飼:その知能検査がきちっと知能を測定するように設計されているのかどうか?

    安藤:その場合、「きちっと知能」と呼ぶ時に何を指しているかっていう。「あんな知能検査で人のこんなにすごい知能っていうものを測ったことになってねえだろ」っていう批判的な人たちがたくさんいらっしゃる。これも心理学の歴史の中ではずっと繰り返されてきていることで、そこに突っ込み始めると……でも、そこ突っ込んでも面白いかもしれないけど、

    小飼:僕、なんでそこに突っ込むかって言いますと、僕はいちおうプログラマーでもあるんですけども、プログラマーというのは、自分が書いたプログラムもやっぱりテストします。それでいちおうちゃんとテスト項目を書いておいて、そのテストをパスしないと新しいやつリリースできないんですよ。でも、それでもバグが出るんです。なんでバグが出るかっていうと、テストカバレッジって言うんですけども、十分にテストしてないと。
     例えば、だから単純な掛け算をやったとしましょう、単純な掛け算をやった場合、オーバーフローするケースを考えてないとか、しょっちゅうなんですよ。そんなのが。だから、ある特定の部分っていうのが、この子は足し算はよくできるけれども、割り算になったらつまずくっていうのも、わりとよくあることじゃないですか。

    安藤:そういう細かいところに関しては、尺の細かさの問題で、(知能検査では)そんなところまでは見てないです。

    小飼:そこまでは見てない。

    安藤:もともと、アルフレッド・ビネーさん―――20世紀の初めぐらいに生きていたフランスの児童精神医学者ですけれども―――が、学校に適応できない子とできる子っていうのを、ただ単に「こいつダメそうだな」って言ってたんじゃ、あまりにも非科学的で主観が入っちゃうから、そこのところでもうちょっと客観的なテストを作ろうよって言って。その時代、今もそうですけど、常識的に「まぁまぁ頭がいい子」っていうのは解ける問題、「頭がよくないなと思われている子」は解けない問題というのをたくさん選び出してきて、それをアソートして作ったというもので、極めて便宜的なものです。ですから、「本物の知能とは何か」というようなことを突き詰めたものではない。ただ、それで作られた数値っていうのは、そこそこ、

    小飼:そう、しょせん人間のやることだからね、

    安藤:そうなんです。だから、そこそこ学力も予測できるし、収入とも相関が0.5くらいあるし、健康度とか幸福度とかっていうのもちょっとずつ相関があって、なかなか実用性には富んでいたっていうこと。
     それからもう一つ心理学者として言わせてもらうと、「いや、あれは知能を全部調べてるわけじゃない」っていうことで、そのあといろんな研究が出てきているんですが、知能検査を基準にして見ていくので、その結果として知能検査の研究っていうのが最も多くなってるんですよ。そうなってくると、どこまでは測れてるけど、どこから先は測れてないということまで一番情報を集約できてるのも知能検査っていう。

    小飼:それでも、測るべき対象が1万あるうちの100しか見てないという可能性が十分ありますよね、

    安藤:十分あります。

    小飼:組み合わせ爆発ってあるじゃないですか。(プログラムの)テストがなんで難しいかって言ったら、実はそれなんですよ。例えばある演算のテストをしたいという場合、64ビット整数と64ビット整数を取って、64ビットを返すっていう演算、これは足し算でも掛け算でも、足してかけるでも、平方根を取るでも、何でもいいわけですけども、全部の組み合わせ、2の64乗かける2の64乗の組み合わせを全部試してみれば、理論的にはテスト可能ですよね。でも、実際にそれだけの演算をする計算力どころか、そのテストの正しい正解を書いておくメモリーすら我々にはないわけですよ。たかだか64ビットです(笑)。
     僕が書いたライブラリの一つは、無限精度、要するに2のビット数のかける2のビット数っていうのをやるライブラリっていうのを書きました。だからもう理論的にこういうのはテスト不可能なわけです。
    要するに、例えばある時には128ビットの精度が必要なのでっていうのに答えるために書いたもの、だから全部テストするっていうのは不可能なわけだよ。本当にコーナーケースだけテストしてるわけですよね。

    山路:それってしかし、今回の知能テストのことで言うんだったら、人間がよく見るシチュエーションというのをピックアップしているわけですよね、

    小飼:(コメントを見ながら)読者の皆さんすごいな、エピジェネティックスが出てきたよ(笑)、そうです、

    安藤:(視聴者のコメントは)とても追いかけてられないけど。ジェネティックスだったら、エピジェネティックスは触れないわけにはいかないわけですけれども。
     逃げるようですけど(笑)、それぐらい不完全だからこそ、隙間産業ってのがいくらでもできるってことですよ。測れてない能力を持っている人っていうのが、知能検査に限らず、入学試験―――あれだってもっと限られていますけど―――でも今の社会ってのは、入学試験でいい偏差値の大学へ行くと、相対的には生涯賃金高くなるし、社会的にも高い地位につくっていう、かなり大きな格差の原因になっている。中学受験であれだけ頑張ってSAPIX行ったのに、結局御三家入れなかったんじゃないか、みたいなっていうのが出てくるけど。
     でも、そのテストでいい成績が取れなかったからといって、その子たちが無能な社会の役立たずかって言ったら、そうはならなくて。いろいろな人がいると思いますけれども、いろんなところで自分の道っていうのを見つけられるっていうのは、まさに測ってない能力っていうのがこの社会の中でいっぱい、どっかで使われているからだっていうところに僕はある意味で期待をして、楽観的にいつもいられるわけなんですけど。
     そう言いながら、本当にそうかと自分でも思っているところもある。むしろ外から突っ込んでいただけたほうがいいなと。

    小飼:そもそも義務教育の歴史っていうのがまだ200年もないわけじゃないですか。だから、そういった学校教育に向いている遺伝子と、それ以前に親の職業を子が継ぐのが当然だった時代に向いてた遺伝子っていうのは、けっこう違うと思うんですよね。

    安藤:そうでしょうね。

    小飼:結局、遺伝子が役に立つかどうかというのは、その遺伝子が役に立ちそうな環境あってのことじゃないですか。

    安藤:その通りです。

    小飼:だから、藤井聡太が八冠なのは、藤井聡太がすごいんじゃなくて、将棋という競技があること自体がすごいわけですよね。

    安藤:だから能力っていうのは、その時代とかその文化の文脈っていうことを抜きに論じることっていうのはできない。
     これも当たり前な、だから、能力なんてのは基本的に社会的構成概念に過ぎないよっていう話も、この前出したブルーバックスの書籍でもゴタゴタ書いたら、カスタマーレビューで、「あぁ文系の遺伝学者だな」とかって書いてるやつがいて。そうだよ、文系だよ(笑)。

    小飼:いや、そもそも文系理系っていうのも、こうじゃないですか、教育を施すほうの都合だったわけですよね、

    安藤:都合です、

    小飼:要はSTEM教育を100パーセント施すほどのリソースがないので、ある程度足切りしちゃえっていうのが文系理系の始まり始まり、ですよね、

    安藤:それはちょっとな、

    小飼:いや、まぁでも、

    安藤:理系の言う、文系と理系の区別(笑)、

    小飼:いや、僕がそれを支持してるんじゃなくて、それを文句言うのであれば文部省に対して、文科省になる前の文部省がそれを決めたことなので。でもこれはべつに日本だけではなくて、本当にSTEMって基本、ものすごいお金がかかるんです。たぶん、でも逆に一番お金がかからないのが数学だったりするんですけど(笑)。でも数学以外の理科、それも化学にしろ物理にしろ、実験あってのものじゃないですか、

    安藤:ナマモノ扱うやつはそうですよね、

    小飼:実験のほうはどれもすごいリソースを組むんですよね。最初、僕の専攻って化学だったんですけども、あまりに不器用でもう器具をぶっ壊す、ぶっ壊すわで、半分手作りしてるんですよね、化学研究室とか、

    安藤:実験に合わせてそれを作らなきゃいけないんですよね、

    小飼:ちゃんと学校にそれを作る工房とかあって、本当、泣きを入れられたぐらい不器用だったんですよ。何でしたっけ、冷却管とか、すごいガラスの中にさらに細いガラスチューブが入ってたりして、すごい作るの大変なんだけど、ああいうの簡単に……なんでお前ぶっ壊れる、

    山路:何をすると壊れるんですか? 実験中にぎゅっと押しちゃうんですか(笑)、

    小飼:でも、僕が行ってたのは公立だったんで、それでお金の余計を取られるっていうことはなかったんですよね。

    安藤:山中伸弥さんも、臨床医だった時には「邪魔中(じゃまなか)」って言われてたって有名な話があって。

    山路:さっきの話で言えば、知能テストで測っていない能力はいっぱいある。だけど、今の世の中は知能テストで上位の人が有利になるように社会制度が構築されちゃったから、そうなっているとも言える?

    安藤:無駄と言っちゃやってる人がかわいそうだけれども、さっきも言ったように中学受験で頑張ってSAPIX行くとか、東大行かなければ親が認めてくれないとかいうような価値観の家に生まれちゃったりとか。私の大学もそうですけど、なまじ偏差値が高いと偏差値だけで(大学を選んで)来る、はっきり言ってどこの学部でもいいから慶応に来たいとかってのもたくさんいる。こうした状況は歴史的にも極々最近のことで、1970年代にはまだそこまでなかったぐらいなのだけど。(そうした状況を)いつの間にか作り出してしまったのは国の制度でもなければ、大学の大学人が作ったわけでもなく、なんかみんながそういうものを作り出していった、これ日本だけじゃなくて、東アジアが全般的にそういうような方向に行く、

    山路:高い知能に対する崇敬というか、畏れ、

    安藤:そうですね、崇敬っていうよりは、そのほうがいい生活ができるかなって、

    山路:高い知能の人を上に立てて、その人の言うことを聞く社会制度のほうが気持ちいいっていう?

    安藤:(ほとんどの人は)そんなこと考えてないんじゃないか。それこそ小飼さんがどういうふうに考えるかってのは聞きたいところですけども。社会全般を見て、そこの能力配分みたいなことまでちゃんと考えた上で「よし」と思ってトップを狙っている人は狙っている、MARCHぐらいでいいとか、どこでもいいとかっていうことを考えているわけではないと思います。
     そういう社会がわりと最近いつの間にか出来上がってしまっていて、結果として、多くの人が学校教育を通過するから、そういう雰囲気の中でどうしてもリアルに考える。
     要するに、学校に行ったらば点を取ることが学習することであり、その結果として、いい進学先を見つける。それができなかったら、諦めてこの程度にするとか、学校に行くんじゃなくてパティシエになろうとかするみたいな。まず学校の序列というのが国民全体にバーンと来てしまうので、よっぽど藤井聡太みたいな才能があれば、もう高校なんか行かなくていいという選択肢も取れますけれども、ほとんどの人はそれができていない状況を作り出しちゃった。
     さっきから言ってるように、(学校で点を取るのは)極めて限られた能力、だって皆さん、いい大学出た人だってそれ、社会に出たら使ってないって、

    山路:ないですね(笑)。

    安藤:みんなわかってるのに、なんでずっとこれやってるんでしょうねっていうことですよ。そう言ってる僕もやってきたわけだけれど(笑)。

    小飼:その意味では、教科の数というのがぜんぜん足りてないというのはありますよね。将棋学校ってないんですよね。師弟制なんですよね。将棋に集中するためには学校なんか通ってられないわけですよ。

    安藤:そうそうそう、

    小飼:だけれども、そこまで熱を入れられるというのは将棋という競技が、そこに入れたのであれば十分以上のイールド、稼ぎを得られる競技であればこそ、ですよね。これがたとえばゲートボールとかだとダメなわけですよね。ゴルフとかだとよくなるけど。

    安藤:eスポーツがどこに行くのかっていうのは、これからってことだと思いますけど(笑)。そういう意味ではオーセンティックな領域、ある程度確立した社会的な評価があって、だからそこでいい成績をあげればお金も、歌舞伎とかなんかって極めて少数の人たちしかパフォーマンスしていないけど、好きな人がいるとか、国があれは素晴らしい日本の文化だとかっていうことになると、

    小飼:いや、でもあれって全部AIアクターに置き換わったりしないのかな、というのを(笑)、人ごとながら心配してるんですよね。

    安藤:AIがどこまでやってくれるかってのは、それはもう作曲とか演奏とか、みんなそれはある意味楽しみですね。たぶんすごいAIが出てくると、人はさらにそれを乗り越えるなんかをたぶん工夫するんだろう。藤井くんが(AIで将棋の研究をやっているように)しそうな気はするけど、

    小飼:羽生の時代と、藤井聡太の時代の一番の違いっていうのは、藤井聡太は人間では将棋一番強いかもしれないけれども、コンピューターまで含めて、最も将棋の強い存在ではないかも、なんですよね。そこの部分っていうのは決定的に違いますね。

    安藤:たとえば重量上げなら、それはもう重機を使ったら絶対勝てるけど、それを対等に勝負する競技なんてのはないのと同じように、人は人でやってればいいわけじゃないですか。競技だったとすれば。
     でも、将棋とかチェスの場合っていうのはそれプラス、本当に頭の良さそのものっていうのはそこに発揮されていると思うので。相手がまさに重機に当たるような、超人的なものだったとしても、それと人と比較して「いや、まだ人はそれに負けない」っていうことを示したいっていう。そういう願望っていうのがあるから、単純に重量上げと重機と(の関係とは)対等にはならないんですね(笑)。

    人類の品種改良?

    小飼:ただ、人も普通に生物で、少なくとも他の生物というのは、かなり血統をいじってきたわけですよね。オオカミをイヌにして、イノシシをブタにして、セキショクヤケイをニワトリにしてっていうことをやってきたわけですけれども、逆説的に、なんで人類社会はそっちのほうにはいかなかったのか、

    山路:ヒトがヒトを品種改良する方向にってこと?

    小飼:そうそうそう、もちろんヒトは自分自身を家畜化している、セルフドメスティケイトしているという意見はあるんですけれども、生ぬるいですよね。ヒトがオオカミをイヌにしたのに比べると、ヒトはあんまりヒトをいじってないですよね。いじったケースというのもあるんですけど、どっちかとしては失敗談として語られることが多いですよね。ハプスブルク家の顎ですとか。あと血友病ですとか、

    安藤:徳川家の顔もずいぶん長くなっちゃってますね。

    小飼:でもそっちの方向に進むという可能性はけっこうあったと思うんですけど、なんでそっちに行かなかったんでしょうね。

     
  • 小飼弾の論弾 #263 「日本でも自動運転タクシー、CPU業界で起こりつつある地殻変動、まるでSF!寄生生物と宿主の驚くべき関係」

    2023-11-07 07:00
    550pt

     「小飼弾の論弾」で進行を務める、編集者の山路達也です。
     無料公開部分の生配信およびアーカイブ公開はニコ生・ニコ動のほか、YouTube Liveでも行っておりますので、よろしければこちらもぜひチャンネル登録をお願いいたします!

     今回は、2023年10月31日(火)配信のテキストをお届けします。

     次回は、2023年11月14日(火)19:00の配信です。いつもより配信開始が1時間早いのでご注意ください。行動遺伝学者、安藤寿康先生との対談回になります。

     お楽しみに!

    2023/10/31配信のハイライト

    • Appleの新製品感想「27インチiMacほしい」と「コレジャナイプロダクトがまた一つ」
    • 「ドイツにGDP抜かれた」日本と世界経済の今後
    • 「自動運転とリニア」と「NTTは電話加入権返せ」
    • 「世界はシミュレーション」と視聴者質問「パレスチナ」「速読法」「禁酒したい」
    • 「ハリガネムシとカマキリ」と「腸内細菌と人間」
    • 「AIに毒を盛る方法」と「天文台に対する光害を防ぐ方法」

    Appleの新製品感想「27インチiMacほしい」と「コレジャナイプロダクトがまた一つ」

    山路:今日、ハロウィンじゃないですか。

    小飼:ハロウィンっていうことはよくあるネタとして、“Trick or Treat”っていう言葉があるじゃないですか。
     これ、“Trick xor Treat”ではないかという、古くからのネタがあって、まずそこら辺からやろうか。

    山路:え? なんですかそれは(笑)、

    小飼:はい。普通”or”って言った場合、A or Bって言った場合、両方あってもいいわけですよ。TrickとTreatが両方あっても、orは成り立つわけですよね。
     で、“Trick and Treat”って言った場合、両方あった場合のみ成り立っている。あっち立てばこっち立たずって言った場合には、ORじゃなくて、eXclusive OR、略してXORって言うわけですけど、わりとよくあるネタです。

    山路:それ、しかし言うなら人間で私たちが「いずれか」とか「または」っていう時ってだいたいeXclusive ORじゃないですか。

    小飼:まぁ、なんですけども、一つこれはORでもいいっていうのがあって、ORだとじつはショートカットというのができるわけです。ショートカットというのはどういうことかというと、片方が真であれば、もう片方を見なくても全体が真だって言い切れるわけです。だから、Trickされたのであれば、もうTreatはあってもなくてもいいわけです。ANDの場合も、ショートサーキットは成り立つわけです。たとえばTrickがない場合っていうのはTreatもないわけですね。両方ないと成り立たないわけですから。だから、ANDとORっていうのはショートサーキットというのができるわけですよ。要は、片方だけ見て、そこで決定しちゃうっていうのがありうるんですけど、XORっていうのは両方見ないと、成り立たないわけですよね。

    山路:しかし、ハロウィンの子供たちにそれをどう応用しろと(笑)。子供たちというか、応用するのは親のほうか。

    小飼:でも、確かに普通の言語の中にXORに対する自然な表現というのがないというのは不思議でもあるな。論理演算ではわりとよく出てくることなので、あっち立てばこっち立たずというのは。

    山路:論理演算のほうで、ORを両方の場合も含むというふうにしたのが、ちょっと人間の直感にはそもそも、

    小飼:いや、人間の直感でも両方含むじゃないですか。

    山路:そうですか?

    小飼:どっちかが成り立てば全体が成り立つと。たとえばこの番組は、「僕か山路さんが出てたら成り立つ」という場合、両方出てても当然成り立つわけですよね。で、僕と山路さんがいて初めて成り立つ、ANDの場合っていうのは、片方だけいた場合っていうのは成り立たないわけですよね。
     どっちかで成り立つっていう場合、一緒にいた場合というのはダメだということになります。だからこれはXORではfalseいうことになるわけです。だからわりと、XORというのは、ORの厳しいやつという見方もできるわけですけど。

    山路:論理学、最初に考えたやつがもうちょっと日常的な言葉に寄せてくれたらよかったのにという気はするんですけれどもね(笑)。

    小飼:でも、すべての論理演算っていうのは、ある論理演算から全部導き出せるというのもあって、有名なやつはNANDですよね。だからNANDが一個あると、ANDもORも、もちろんXORも作れるわけです。

    山路:その辺の論理学考えたやつ、最初からもうその辺のとこ考えて作ってたんですかね。

    小飼:その辺のところを整理したのはジョン・ブールという人がいたので、その人の名前の形で、

    山路:ブーリアン演算、

    小飼:ブーリアンって呼んでますけれども。両方あってもいいの、両方あっても、それは喜ばれることだと思うので、これはORでいいんじゃないかというのが僕の結論ですよね。だから、Trick then Treatでもいいんだよ。両方やってもいいんだよって。

    「OR判定を”|||“と”||“つのどっちでやるのと子供に返されるハロウィン」(コメント)

    小飼:普通は論理演算の場合、C言語からパクった多くの言語の場合は、2つですね。だから”&“も2つ重ねるんですよ。AND演算の場合は。

    山路:3つ重ねる言語ってあるんですか?

    小飼:あんまないな。ちなみに一つの場合っていうのは、ビット演算。たとえば”3&1”っていうふうにやると1になる。“3|1”ってやると4になる。だから、ビット演算の場合ですね。

    山路:ハロウィン、いきなり論理演算から入ったけれども(笑)、今一番、世間的な話題としては渋谷じゃないですか。

    小飼:これにうまく繋げようと思ってね。いや、でも渋谷が引っ込んで、池袋が出てきたので、この場合渋谷XORは池袋になったわけです。でも、なんで? っていうね。

    山路:今日の渋谷、祭りっぽい雰囲気じゃなくって、やや混んでる普通の日みたいな感じになってましたけどね。なんでしかし、こんなに行政と、寄ってくる人たちの間の関係っていうのが下手な関係になっちゃったんですかねと。

    小飼:いや、渋谷ははっきり言って、整理整頓しすぎたと思いますよ。まだプラネタリウムがあった頃、まだ東横線が副都市線と繋がってなかった頃、本当に渋谷駅がターミナルだった頃っていうのは、もっと小汚かった。もっと安っぽい、チープなものもあったんだけども、今、高級なのばっかりじゃないですか。宮下公園とかも、かなりきれいにしちゃって。

    山路:高級ショッピング街みたいな感じになってますもんね。

    小飼:うん。だから、必要な安っぽさが失われた。挙句の果てにGoogleのオフィスだぜ。ずっと六本木にいやがれ、というわけにいかなかったのかな。

    山路:そりゃ渋谷が若者の街じゃなくなっていくわな、という話ですよね。これしかし、ハロウィン、渋谷に来ないでって言うんじゃなくて、もうちょっと、たとえば池袋はわりと上手くやってるわけじゃないですか。

    小飼:わりと上手くやったわけだよね。

    山路:これ、渋谷のほうも、たとえば路上飲酒は徹底的にダメにしといて、もうちょっとこう、なんか祭りっぽいものを演出するみたいなことはできなかったのかなと思うんですけどね。

    小飼:高層ビルだらけにすることを決めた時点で、その辺っていうのは終わってたのかもしれないね。
     いやーこういうのも、IT業界はかなりその辺では悪いことを重ねてるんだけど、渋谷の高層化を支えてきたのはIT業界だからね、ここ20年くらい。

    山路:まぁなんか、でかいテナントってIT業界ですよね。

    小飼:ビットバレーだとかって言って、僕も人のことは言えないな(笑)、その頃渋谷にオフィス引っ越したことがあるので。

    「地方からしたら羨ましい」(コメント)
    「なんで池袋のほうは成功してるの」(コメント)

    小飼:だから、いい意味で安っぽさを捨ててないからだろうね。安っぽさを大事にしてたからだろうね。

    山路:なんかね、コスプレのパレードみたいなものとかもけっこういい感じにいっているらしいですけどね、話では。実際に見てないからわかんないんですけど。

    小飼:あとね、池袋はいまだにターミナルなんだよね。西武も東武も。

    山路:あ、乗り入れの話?

    小飼:乗り入れの話。

    山路:あ、そうかそうか、西武池袋線の終点駅ってことね。

    小飼:だから、直通のものがだいぶ増えちゃったけど、でもターミナルの部分っていうのは残っているので。そこけっこう大きいのかなって。

    山路:通過駅にされないっていうことで。

    小飼:そう、だから今渋谷は100パーセント通過でしょ。だから、渋谷止まりというのは今ないよね。まだ銀座線は渋谷止まりか。でも、銀座線もすごい小ぎれいにしちゃったよね。

    山路:そうやって、人がいい感じに溜まるようなところがないからっていうのもあるのかもしれないですよね。

    小飼:そうそうそう。

    「今IT系は五反田のほうが強くない?」(コメント)

    山路:そうなんですか?

    小飼:どうなの? それは。

    山路:渋谷のほうが高すぎて五反田に行ってるみたいなところもあったりするのかな。で、このハロウィンの日に発表されたのが、こちらなんですけど。なんか、Appleもべつにハロウィンに合わせてわざわざ発表するほどのことではなかったんじゃないか、

    小飼:アメリカ時間では1日前ということになる、アメリカ時間というのが、太平洋時間では、太平洋夏時間では(笑)。

    山路:夏時間は固定されるんですよね。

    小飼:そうそう、夏時間だけになる。

    山路:これ、弾さん、MacBook Proのっていうか、M3チップの、

    小飼:M3になっただけやんっていう、

    「Macのtrickだったのか」(コメント)

    小飼:やっぱ一つ気になるのは、メモリーのスケールの部分だけれども、でもさあ、メモリーの積み方が変だよね、36GBとかさ。なんかM1の頃はきれいに2のべきだったんだけど、それがM2の頃に崩れて、M3だとちょっと変だよね。

    山路:今回、個人的には驚いたのがそのM3、スタンダードのM3、M3 Pro、M3 Max、いっぺんに出してきたじゃないですか。

    小飼:あー、まぁでもそれは規定路線だったんじゃないかな、

    山路:そういうふうにブランドとかをきちんと整理していっぺんに出せるような体制ができて、M3作ったら、もうすぐにそれを二つ組み合わせたような形でM3 Pro作って、Maxやってみたいなことっていうのがスムーズにできる、

    小飼:それよか大きなiMacが出てこないかな、もうMac Studio1本なのかなぁと。

    山路:24インチってもう、今となってはそんな広い画面じゃないですもんね、でかい画面が必要な人にとって、

    小飼:27インチのが欲しい、あれくらいがちょうどいいんですよ。それよりも大きなやつ使ってたり、横にすごい長いの使ってたり、あとマルチディスプレイにしてる人とかっていうの少なくないんですけど、Macの場合、バーチャルデスクトップをいくつでも持てるので、それを3本指でシュッシュッとっ変えてたほうが、僕は視線を動かさなくて楽なので、今の27インチが理想なんですね。

    山路:なるほどね。そういう需要もけっこう。まぁでも全体としては、意外に少なかったのかな。でかいのが必要な人はマルチディスプレイとかのほうに行っちゃうっていうのがトレンドだったっていうことかもしれないですけどもね。

    小飼:それでいちおう、27インチのStudio Displayも出してやったぞっていう理解なのかね。いや、だけども、MacのディスプレイではFace IDできないじゃん、なんでFace IDつけねーんだよ、カメラをつけてるくせにさあ、

    山路:確かにな、Studio Display自体の出来はなかなかいいんですけどね。

    小飼:何のための(MacBook Proの)ノッチだよ!

    山路:(笑)まぁ、これでiMacの話が出たところでiMac、マウスついてるんですけど、あれ、Lightningなんですよね(笑)。

    小飼:ですよね、まだ更新してないですよね。

    山路:Magic Trackpadに関しても(笑)。で、弾さんが思わずトホホになってたUSB-Cポート付きのApple Pencilを出したんですけども。

    小飼:ちょっとなんて言えばいいのかなぁ、Appleのコレジャナイプロダクトが一つ増えたね、Apple Pencilは。最低の出来だ。唯一まともなのは第二世代のやつですね。僕も第二世代のやつにしてます。第二世代のやつにしたいので、すっぴんの無印iPadでなくて、iPad Air以上になっちゃうんですけどね。

    山路:これって、結局Appleが安いiPadと、高いiPad Proを2つのラインを用意して、iPad Proを買わせるために安いやつも残していると思うんですけど、

    小飼:いやー、一番安いやつだったらさ、いさぎよくPencil非対応でいいじゃん。

    山路:それそれ、そう思った(笑)。

    小飼:だって一番の需要はキオスク端末じゃん。いや、でもキオスク端末用には、無印のここが四角いやつ、要はホームボタンがないやつもオーバースペックなんだよね。

    山路:結局、無印買う人って、本格的に漫画やろうという人ではないじゃないですか、絶対に。サードパーティーとかのタッチ式のペンみたいなんで良かったんじゃないのって。

    小飼:指でよかった、いや、

    山路:なんかね、本当にどこか抜けてるというか。

    小飼:あれが通っちゃうというね。いや、でもそれにしてもやっぱりなんだかんだ一番許せないのは、マウスだよね。

    山路:あの刺し方ね(笑)、ポートの。テストしてる時に、誰も気づかなかったのか? あれを何年も売ってますけど(笑)、Appleは。

    小飼:『ボボボーボ・ボーボボ』のつけもの以下だよ、はっきり言ってあれは。本当、あれは恥を知りなさいってやつだよな(笑)。恥部。あれね、何だったっけ、見せない芸をしてる人いるじゃん。

    山路:アキラ100%?

    小飼:もそうだけれども、イギリスで受けた人。

    山路:とにかく明るい、あ、安村でいいのか、ごめんなさい、安村でよかった(笑)。

    小飼:まぁ、こうやって隠すためのものなんじゃないか、あれは。あの大きさでたぶん隠れるんだろうな。

    山路:(コメントを見ながら)とにかく明るい安村、ありがとうございます。

    小飼:それもいいんだけどさ、トラックパッドもさ、あれもLightningで、せめてTrackpadぐらいUSB-Cにしたの出せって、

    山路:そんなに難しいことなんかって思う、

    小飼:マウスも変えなきゃいけない、マウスじゃなかった、キーボードも変えなきゃいけないんだよな。キーボードもよな。まだLightning充電のはず。

    山路:ああ、そっか充電できたか。そうか、乾電池だけじゃなくて。でも、そんな難しいことですかっていう。

    小飼:うちのやつはとても古いので、ダブルA、単3×2ですけどね。

    「3ナノメートルはやっぱりすごいのでしょうか」(コメント)

    小飼:すごいけども、やっぱりどんどん先に進むのが苦しくなっているというのがわかるよね。

    山路:どういうあたりで?

    小飼:いや、まだMプロセッサが出る前っていうのはさ、性能が倍になるとかって当たり前だったけどさ、今は数十パーセントじゃん、頑張って、頑張って、頑張って。

    山路:まぁちょっとM1が良すぎたからというのもあるんだけども、

    小飼:あるんだけども、いや、やっぱりなんだかんだ言って、ムーアの限界は近づいてるんだなぁと。

    山路:Armを採用したところで。

    小飼:その一方で必要な性能っていうのも、かなりサチってるところがあるよね。

    山路:必要な性能のほうが?

    小飼:AIとかのおかげで、またもっと演算力をくれーっていう需要が再び喚起されているあの一方で、今やスマートフォンとかでも、何年も使うのが当たり前になってきているでしょ。ということはもう、何年も使えるのよ。

    山路:特にLLM(大規模言語モデル)使おうというわけでなかったら、

    小飼:特にMacのメモリーとかさ、16とか32で停滞している感じはあるよね。だってIntelの頃から変えてないもん。だって僕のiMac今や型落ちしちゃった、要するに最新のOSが普通にはインストールできない古いモデルになっちゃったんだけども、それでもメモリー32GB積んでるもん。

    山路:メモリーの使い方が今ほど効率的でなかったということもあるかもしれないけど、

    小飼:あとSSDが今ほど速くなかったというのもあるよね。それもけっこう大きいよね。

    山路:ただ本、今のLLMとかのモデル、それこそWhisperとか動かすと、もっとメモリをくれとは思いますよね。今のMシリーズとかって、2、3年前とかには設計は完了してるじゃないですか。生成AIがここまで伸びるとは予測はできなかったんじゃないですか。

    小飼:ChatGPTの隆盛って、ほんとここせいぜい1年ぐらいのものでしょ。

    山路:ニューラルチップなんかはかなり早くから搭載してましたけど、

    小飼:ハードウェアの場合、これで行こうっていうふうになってから実物が上がるまでやっぱ3年ぐらいかかるから。

    山路:それは読み違えたんじゃないかなっていう気もしますけどね。Appleも、

    小飼:だけれども、本格的にLLMやりたかったっていうふうに言ったら、さらに桁が2つぐらい違うわけで。なんだけれども、とにかくメモリを一番多く積めるMacというのはもうディスコンになっちゃって。1.5TBまで積めたんだよね、いちおう。

    山路:しかしそのマシンで仮に今時のLLM動かしても、そんなに速くはないんじゃないですか。メモリーは積めたにしても。

    小飼:速くないじゃなくて、オーバーフローしちゃう。
     だけれども、演算力が必要なものというのはクラウドに飛ばせるようになっちゃったじゃん。それもけっこう大きいんだよね。

    山路:そういう、ちょっとMacの話が出たところで、それはそれとして、CPUのほうも競争、また激しくはなってませんか。MacがMシリーズとかでかなり画期的な性能は達成したんですけど、他のところも追いついてきてませんかという。Qualcommが最近発表した、そういうSnapdragon X Eliteだっけ、なんかそのあたりとか、Mシリーズ追い抜くぜみたいなことを。

    小飼:Surfaceとか積んでくれるのかなあ。

    山路:MicrosoftもARMのWindowsのほうに本腰を入れたそうでして。

    小飼:っていうのか、ぜんぜん遜色ないんだけどね、(MacBook Airを示しながら)これでParallels Desktopで動かしてる感じでは。ぜんぜん遜色ない。

    山路:でも、他のPCメーカーはそれ、Mシリーズ使わせてもらえるわけじゃないですからね(笑)。Windowsマシン作っているところはWindowsが快適に動くARMマシンが、そりゃ欲しいだろうし。これ、ARMシリーズ、ARM技術を使ってそのCPUを使うというトレンドなんかっていうのは、どこかでもう結局、頭打ちになってくるってことはないんですか?

    小飼:いや、すでにARMだろうが、Intelだろうが、単純にコアの密度が上がるっていうこと、おいそれとは期待できなくなってるよね。なんだかんだ言って、毎年ごとに進歩してたんだけれども、前は次の年には面積半分になってたとかだったけども、今は数十パーセントになってるからね。

    山路:もう、じゃあなんかそれはARM技術だろうが、Intelだろうが、なんかそれがRISC-Vだろうが、結局それは50歩100歩というか。

    小飼:だからより複雑化してるよね。単純に半導体の性能がそのままリニアに倍に上がるということを期待するのではなくて、たとえばAIはそれ用の専用のコアを設けましょう、GPUはGPUでもうずいぶん昔に分かれたじゃん。アプリケーションスペシフィックなもの、だからヘテロジニアスになってるよね。でも、大昔のCPUっていうのは本当にCPUしかなかったんだよ。そもそも、浮動小数点演算ですら、別の石を使ってたわけよ。

    山路:オプション、

    小飼:うん、FPUって言い方をしてたよね。

    山路:なんでしたっけ? 80387とかなんかそんなような型番の付いた、浮動小数点プロセッサがあったような気がしましたけどね。

    小飼:それがない場合っていうのはソフトウェアエミュレーションでやらなくちゃいけなくて、ものすごい重たかったんだよね。
     その頃もあったので、浮動小数点演算というのおいそれと高くて使えないっていうイメージが、前世紀の終わり頃まであったよね。僕も自分のプログラムで平気で浮動小数点を使うようになったっていうのは、今世紀に入ってから。

    山路:え、そんなものなんですか(笑)?

    小飼:そんなものですよ、だからまだ20年くらいですよ、まだFPUを当てにするっていう。今やGPUは当てにできるじゃん。普通にあるもの。っていうのか、なければまともに、これですらGPU積んでますからね。次はもう本当にニューラルエンジンとか、AI用のTensor Chipとかそういうふうになってきてはいますよね。

    山路:ジム・ケラーがAI半導体の会社立ち上げて。

    山路:彼が言ってるのはもう、そんなNVIDIAもARMもIntelも、そんなのはもう全部不要みたいなことを言ってるんですけど、これはCPUを作るって話じゃないんですかね、このジム・ケラーとかが言ってるのは。結局AI、そういうLLMなんかの処理をやる時に使うための浮動小数点、コプロセッサ的な位置づけを狙ってるんですかね?

    小飼:コプロでいいじゃんっていう意見なんでしょうかね。今や普通の、SSDに飲み込まれちゃった感もありますけど、Fusion-ioという、コプロみたいな、SSDみたいな、RAMみたいな製品が昔あったんだけれども。

    山路:へえ、それは知らないなぁ。

    小飼:よく考えたらGPUも、CPUと同じ石に入っているMプロセッサみたいなものもあれば、デスクトップPCの世界みたいに、GPUだけ別にボーンと存在している世界っていうのもあるじゃないですか。

    山路:それで言うと最近、チップレットっていう言葉をよく聞くようになってきたじゃないですか、

    小飼:ああ、要するに一つのチップのように見えて、中にチップがいっぱい入っているというやつ、SoCってそうですよね。

    山路:それって今言っているSoCと、これからはチップレットだって、チップレットってイコールなんですか? あれは、つまりチップレットってわざわざ言わんでも、今SoCってチップレット的なものじゃないですか、何が違うんだろうなと思って。

    小飼:それは別々に作って、後で組み合わせるっていうことだよね。そのほうが歩留まり上げられるからね。
     でも単純に、単の純に速度を上げるっていうことだけを考えたら、一つのチップの中に作り込んじゃったほうがいいわけよ。だけど、それだともう歩留まりが上げられないから。

    山路:じゃあ、SoCほどには最適化はできないけど、

    小飼:SoCもチップレットなんだって、あれは。チップレットとして実現してるわけよ。

    山路:単純にこれって、言葉の定義が人によって違うっていうだけなの?

    小飼:狭義のチップっていうのは、本当にウエハーから切り出された1個の集積回路だよね。今パッケージとして一つに見えてても、それをさらにThrough-Silicon Viaとかで複数のチップが一つのパッケージの中に入ってるのね、一つのチップみたいに見えて。特にSoCとかそうだし、SoCでなくて、普通のいわゆるCPUとかって言われるものでも、Ryzenとかもそうなっている、かなりそうなっている。

    山路:中にGPU的なものも入ってたりとか、

    小飼:入ってるやつと、入ってないやつがある。入ってるやつは、AMDはAPUって呼んでるよね。CPUプラスGPUみたいなのってAPUって、

    「そろそろNVIDIA」(コメント)
    「(IntelのCPUには)EXとSXがあった」(コメント)

    小飼:懐かしいよな、本当に。それで486で一緒になって、で586は単に586ではなくて、ペンティアムというチャラい名前がついて、そこでFPUのバグが見つかってという(笑)。

    山路:でも、そのバグ見つかったのって相当、後の話じゃなかったですか?

    小飼:相当でも、なんか、いや意外と、わりと早く見つかったよ。
     普通の計算結果がおかしいっていうのが見つかったきっかけだったのかな。実務上で出たんだよね。

    「そろそろNVIDIAの株買ってもいいですか?」(コメント)

    小飼:そろそろって、どうなんだろう。でもNVIDIAもトリリオンダラークラブに、

    山路:もうとっくに入っちゃいましたもんね。時価総額が1兆ドル超えた状態でずっと安定してます。NVIDIA、これからまだまだ伸びると思いますか、それともAI系はまたそのGPUとかと違った、AI用にも設計されたAIチップなんかの企業が伸びてくると思いますか?

    小飼:どれどれ(NVIDIAの株価を調べながら)、伸びる余地はあるよね。だって、PERいちおう二桁だしね。

    小飼:Appleとかに比べればやっぱ高いは高いけれども、今見たら98.34だって。

    山路:かつてのAmazonとかのほうがよっぽど高かったような。

    小飼:うん。

    「米国株買うならテック系は避けたほうがいい」(コメント)

    小飼:確かにいっぱい上がったが、どれも、上がったからなぁ(笑)。いや、今さら買うの感は、なきにしもあるんだけどね。

    山路:AIバブルも、弾けるまでバブルかどうかわからない、

    小飼:バブルではないけれども、CPUの性能を上げるのが年々難しくなっているがごとく、時価総額を上げていくというのは難しくなっているよね。

     
  • 小飼弾の論弾 #262 「泥沼のイスラエルとパレスチナ、障害相次ぐ金融機関のネットワーク、増税や超法規的措置を求める人たち」

    2023-10-24 07:00
    550pt

     「小飼弾の論弾」で進行を務める、編集者の山路達也です。
     無料公開部分の生配信およびアーカイブ公開はニコ生・ニコ動のほか、YouTube Liveでも行っておりますので、よろしければこちらもぜひチャンネル登録をお願いいたします!

     今回は、2023年10月17日(火)配信のテキストをお届けします。

     次回は、2023年10月31日(火)20:00の配信です。

     お楽しみに!

    2023/10/17配信のハイライト

    • マルチモーダル対応のChatGPTレビュー
    • 「AIと著作権とコピーライト」と「うるう秒廃止」
    • 「全銀ネットと商習慣」と「NTT西日本の個人情報900万件流出」
    • 視聴者質問「舐められないための方法」と「パレスチナとイスラエルのややこしさ」
    • 「イスラエルの強さ」と「宗教と紛争」「次の選挙で考えること」

    マルチモーダル対応のChatGPTレビュー

    山路:最初、軽いニュースから、なんか、ChatGPTあたりから行ってみようかなと思ってるんですけど、弾さんは、

    小飼:軽いのか(笑)?

    山路:軽い(笑)、マルチモーダルに対応したChatGPTって使ってみました?

    小飼:まぁ、Bing経由だけど、

    山路:なかなかすごいですよね、新しいやつって。ちょっと待ってくださいよ。
     これで写真を、出していいですよ、この今の画面をこう撮って。こんな感じで。どうしようかな、これのところ、あれ、ここで音声入力をすればいいのか。写真の説明をして、これでOKかな、いってます? あ、いった。おっ、なんかもっともらしいこと言ってません? こいつ。

    小飼:もっともらしいこと言ってますね。

    山路:お、頑張れ、頑張れ、これはネットの問題なのか? ChatGPTがサチって詰まっているのか。あれ、なんかいいところ、さっきリハではうまくいったんだけど。

    小飼:まぁよくある。

    山路:仕方がない。先ほど試した時はいい感じに、撮った写真のやつを説明してくれたんですけれども、突然止まってしまって、ダメになりましたということで。

    小飼:よくあるよね。

    山路:なかなかいい感じにいくところだったんですけれどもね、映ってるものとかも全部、この辺のモニターとか三脚とか、それをやって紙も散らばってますねみたいなことも言ってくれたところだったんですけど。
     あれ? おっおっおっ、あってるじゃん、あってるじゃん。(スタジオ内を撮影した写真に写っているものを、ChatGPTがテキストで説明)ケーブルや撮影関連の。これってしかし、本当どうやって学習してんだろうなっていう、つまり、けっこう入り組んでるじゃないですか、状況。それをどうやってセグメンテーションして。

    小飼:やっぱりいっぱい学習させたんだろうねー。日本語でラベル付けされて、散らばってます。

    山路:あってるあってる。

    小飼:ちゃんと認識してるのかな。

    山路:「全体としてプロの撮影、放送に使用される機材と環境の一部と思われます」、正解。いやいや、大したもんですよ。

    「毒キノコの判別はできるのかな?」(コメント)

    小飼:毒キノコって見た目だけで判別できない奴もけっこうあるじゃん。

    山路:人間だって専門家じゃないと間違えるわけだし。

    小飼:カエンダケだのね、ベニテングだけだの、見た目がどぎついやつであれば、けっこう判別できるけど、それって人間もけっこう判別できたりするからね。

    山路:このChatGPT、弾さんがTwitter/Xでポストしてて感心してたのがあったじゃないですか、それっていうのは、ちょっとリンク、パッと出せないんですけど、このPythonのよくあるややこしい仕様、

    小飼:そうそうそう、

    山路:つまり、たとえば数値の大きさを比べるときに、xイコールは1なんですかみたいな、xイコール1ですかみたいな、調べてくるんだけど、

    小飼:Pythonで「a is b」って言った場合には、aとbが同じものを指し示しているのかっていう意味なんですよ。で、この場合は値の中身を比べてるんじゃなくて、Pythonの変数というのか、オブジェクトのほとんどは参照なんですね。

    山路:あるメモリー領域のとこに入れてるっていう、

    小飼:同じメモリー領域を指しているかっていうのを示すものなんですけれども、小さな数値だと同じになるんですね。だから、数値の場合っていうのは、本質的な違いがないんですよ。だから、値を比べても、参照を比べても、本質的な違いはないんですけども、Pythonの本来の仕様では、例え値が同じでも、メモリー領域が違うのであれば違うって答えるわけですよね。だからたとえば、aイコール16、bイコール16っていうふうに入れたら、a is bって言った場合には、これfalseって答えてもいいはずなんですけども、trueになるんですね。小さな数値だと。それはなぜかというと、速度を上げるために1バイトよりも小さな数値の場合っていうのは同じメモリー領域を指すように。だからそれ専用の小さな数値を表すためのメモリー領域っていうのはあらかじめ用意してるんですよね。

    山路:たとえばaが5000と、bが1万だったら、常にfalseになるんですか?

    小飼:常にfalse、数値が違えば必ずfalseになります。

    山路:ふーん。

    小飼:ただ、aイコール5000、bイコール5000って場合はfalseなんですけど、ここで注意点。aイコール5000、bイコールaって言った場合にはa is bって言った場合にはtrueになります。参照が同じになるから。

    山路:これなんか、めちゃめちゃ素人というか、初心者がハマりそうな。

    小飼:というのか、初心者のうちはisはそんなに使わないはずなんですけれども。だから、ちょっとisが必要にあのなるか否かっていうのは、けっこう初級と中級の境目みたいなのところがあるんですけど、isっていう名前からして、イコールと同じ意味なんだろうなっていうふうに、

    山路:AppleScript使ってる人だったら思うかもしれない(笑)、

    小飼:スクリプト系言語ではけっこうあるんです。だから、変数が同じものを指し示しているのか、中身は同じだけれども、別のものを指し示しているのかっていうのを判定したい状況というのはけっこうあるんですよ。
     だから、そのスクリプトをボーンと投げて、「なんでこうなるのか?」って言ったところを正しく説明したっていうのは、感心したんだけども、でも、よくよく考えたら、似たようなものをStack Overflowで検索しても、出てくるよなと。

    山路:つまり、それを学習してるんじゃないですか。

    小飼:そう。だから、これけっこうすごくない? って言ったら、「いやぁ、まぁでも、それほどすごくもないかなぁ」と思い直したという(笑)。

    山路:その後で、この話を聞くと怖いんですよね。

    小飼:だから、Stack Overflowの中身というのは明らかに学習対象なんですよね、ChatGPTやBardや、その他のLLMの。たぶんWikipediaの次か、Wikipedia以上に学習されていると思う。なぜかというと、プログラム関連の質問には特に強いじゃん。なぜなら、ここをソースに学習したから。だけれども、従業員の28パーセントカットというね(笑)。

    山路:これはどう考えればいいんですか、Stack Overflowとしては、ビジネスを立て直すためにAIによるロボットの巡回っていうのを弾くべきなのか、

    小飼:あるいはStack OverflowにもAIを組み込むのか。

    山路:Copilotみたいなものを入れて。

    小飼:Stack Overflowのビジネスモデルっていうのは、古き良き広告なので。

    山路:ああ、なるほどね。なかなかきつい状況にあるんですね。

    小飼:まぁでも、もともとそれほど従業員が必要かって言ったら、それはサイトを作っている時には必要だけれども、いったん出来上がってしまえば。

    山路:まぁ、昔よく言ったUGC(User Generated Contents)みたいな話で、

    小飼:そうそうそう、だから一番の手間暇というのはユーザーがやってくれるので。Wikipediaなんかにもそれは言えることだけれども。でも、Wikipediaのほうはもう非営利なので。

    山路:そう考えると、UGCでやってて、なおかつAIみたいなものってものすごく意外に多いかもしれないですよね。それこそクリップアート集みたいなんて、もう消えつつ、もう風前の灯火みたいな感じになってきてるじゃないですか。

    小飼:いやでも、その割には「いらすとや」のイラストだらけになっているっていうことは。
     だからけっこう、これで例のChatGPTが画像の入出力にも対応したっていうことからもわかるように、けっこうキャプションもAI化されるのかなと。ごめんなさい、逆キャプションですね、イラストレーションね。なんかGoogleも、著作権侵害を受けたGoogleも援助してくれると。

    山路:なんかこう、えらい勢いで物事が進んでるなというところがありませんか。この、ちょっとリンク出しますと、前回もMicrosoftがCopilotで、GitHubのCopilotとかで著作権とかの問題にユーザーが巻き込まれたら、Microsoftが金払うよっていうことを言ってたと思うんですけど、今度はGoogleも、生成AI使ってユーザーが著作権問題に直面したら、Googleが金払うよと。またAdobeはFireflyで、

    小飼:でも、それを言うんだったらさ、前々からGoogleは検索の結果、リンクだけ出すんでなくて、コンテンツそのものを出しててさ。だから、コピーライトはどうなってるんだっていうのはあるよね。たぶん一番それをやられてるWikipediaとかは、まぁ非営利だから、非営利だし、いちおう著作権はクリエイティブ・コモンズということになっているので、それされてもいいという位置づけなんだろうけれども、そうでない、明らかにそうでないものもあるんだよね。

    山路:今までGoogleとかニュースのやつなんかに関してもぜんぜん、報道のほうには、はした金しか払ってこなかったじゃないですか。それとか、そういうふうな流れっていうのがこの生成AIで大きく変わるかもしれないというのは面白いところかなと。何かを作った人がトラブルに遭ったときに賠償金払うよって言ってるけど、これって言ってみたら、申告制の収益分配みたいな感じもするんですよね、極端なことを言えば。

    小飼:それに対して、コストに関してはどうなんだろうなっていうのも、これがたとえばUGCとかであれば、そのサイトに人気が集中すれば集中するほど、コストは逓減されるわけですよね。しかもまぁ、自分たちでそのコンテンツを用意するわけではなくて、自動でクロールしてインデックスしているだけなので、だからネットが成長するにつれて検索あたりのコストっていうのは減るわけですよ。なんだけれども、LLMの場合、生成あたりのコストというのはユーザーが増えても逓減するところか、逓増するんじゃないかっていう懸念もあるんですよね。

    山路:GPUの消費電力半端ないみたいな感じなわけですよね。

    小飼:そうそうそう。だから、そのあたりはどうするのかなぁと。

    山路:まぁしかし、これが解決になるかどうかわかんないですけど、いろいろ逓減させようという、アイデアみたいなものとかはいろいろ、たとえば今出したリンクなんかだと電子のスピンを利用してこう、ニューラルネットワークを作ろうぜみたいな話もできて、それができるとめっちゃ消費電力下げられますよみたいな、そういう話もなんか出てきたりとかしてますし。なんかそこはイノベーション、問題がもうわかっているところ、それを解決したら利益が出るとわかっているところには、やっぱり資源が投入されるんじゃないですか。

    小飼:まぁでもたぶん、今のLLM神話っていうのは、過去の経験から来てるよね。とにもかくにも、今赤字でも、ユーザーを集めておけば将来絶対マネタイズできるから、というのは。しかも、もともとお金を持ってる連中がそれをやってるので、Googleでも、Microsoftでも。

    山路:この、LLMのコストが仮にあんま下がらなくて上がり続けていった場合、MicrosoftとかGoogleとかなんかの会社はどこまで耐えられるもの、まだぜんぜん余裕な感じなんですかね?

    小飼:まだまだけっこう余裕なんじゃない? だから、孫さんじゃないですけれども、何だかんだ言って使ってない人のほうが多いわけですから。今のところは。

    山路:まぁはっきり言って、まだまだぜんぜん投資フェーズだからみたいな。ほんで、なんか彼らが金積めば積むほど、他のプレイヤー参入しづらくなりますしね(笑)。そうか、まだこれから、これからもしばらくはなんかこの、LLMのブームは続きそうな感じはありますね。

    小飼:まぁ少なくとも、まだまだ降りれないよね。Microsoftも、Googleも。

    「AIと著作権とコピーライト」と「うるう秒廃止」

    山路:なんかまだいけそうな感じ、これでもうOpenAIが完全に独り勝ちになってたら、まだ違うと思うんですけど。そうでなかったら、まだいけそうな感じはぜんぜんありますもんね、Googleも、それこそMetaとかも、なんかもビジネスの可能性見えてるわけだし。で、あとこのAI絡みでもう一ついっとくと。この音声クローンAIが著作権侵害になるよという。この人間の歌声をデータとして学習させて、歌声を再現したものというのは著作権侵害になるよという。

    小飼:えー、じゃあミクとかどうなるんだ?

    山路:ミクはそもそも、

    小飼:AIじゃないから逆にいいの?

    山路:人間の歌声をデータとして学習させた、音声クローンの話ですけどね。しかも初音ミクに関してはあれは、

    小飼:逆に、これを使って生成しても、それはあなたの著作物であって、うちの著作物でないっていうのを明記してくれてるからね。それは。初音ミク自体の著作権を持っている人たちがね。ちゃんとそれを使って、使わせたものというのは、歌わせたあなたの著作物っていうふうに言ってるからね。

    山路:これに関しては、人間の歌声をデータとして学習させるから、音声クローンなんか、

    小飼:いや、でも、それ、著作権っていうと、肖像権にどっちかっていうと近いよね。だって、声そのものは著作物じゃないじゃん。

    山路:いちおう、潜在的な著作権侵害市場のリストに追加するよう要請っていうことなんで、まだ審議中みたいな。

    小飼:うん、いや、だから、コピーライトには引っかかる、だから、前にも言ったように、コピーライトと著作権っていうのは、似てて異なる概念だから。コピーライトっていうのはあくまで複製権なので、複製権だけあって、逆にこういう場合というのは強いわけです。だから、単なる音声でも、複製した以上は複製権に侵害し得ると。だから俺は複製していいぞといった覚えはないよというふうに言えるわけですよね。でも、これは日本の法律においては著作物ではないわけですよね、明らかに。

    山路:これ、もう屁理屈かもしれないですけど、コメントにある「声真似はセーフ」ってあるじゃないですか。で、これ、声真似芸人で自由に声を使っていいですよっていう人のやつで作ったコンテンツというのはどうなるんでしょう? という。声真似芸人を使った音声クローンAIの扱いは、じゃあどうなるのでしょうかね?

    小飼:いや、だから、それは声真似をした人次第でしょうね。

    山路:その人がOKと言えば。

    小飼:まぁ、そういうことでしょうね。

    山路:だったら相当怖いっちゃ怖いのかな。でも、今でもそれは、今でも、どこまであれ、形態模写みたいなものは問われるもんなんでしょうね。

    小飼:片目をつぶってるっていうところはあるんですけどね。

    山路:物事ってけっこう、境界ってグレーだったりしますもんね。

    小飼:パロディーはOKだよって、だから著作権の、コピーライトの対象にはしませんよっていうふうにしてるところっていう、だからフェアユースの範囲ですよっていうふうにしてる国っていうのは多いから。だから、けっこう各国バラバラなんだよね。

    山路:これ、さらにここにそのクローンAI、生成AIが加わってくるわけじゃないですか(笑)、なんかわかりやすい落とし所なんて見つかりようがない気がする、

    小飼:見つかりようがないよね。

    山路:どんなふうになると思います? つまり、こういうのが出揃ってきた時に、使う人間はいっぱいいるじゃないですか。

    小飼:だから、裁判やるでしょ。その裁判もAIだ(笑)。

    山路:もうとにかく裁判やりまくるとか、そういう、これはおかしいだろうみたいな世論が形成されてくる、

    小飼:でも、AI判事が出たら、裁判のインフレーションというか、裁判費用のデフレーションが起きたりして。

    山路:それって、AI裁判?

    小飼:そう。だから、今のところは裁判というのは、ものすごい高コストなわけですよね。わりとカジュアルに法に訴えるアメリカとかでも、ほとんどの事例というのは、じつは高コストすぎて、

    山路:アメリカですら?

    小飼:アメリカですら。だから、法の力を借りるというのは、氷山の一角なわけですよ。「ましてや日本は」という話だけど、それがAIで変わったりして。

    山路:しかし、AI判事こそ、判例主義になってしまうのではないか。

    小飼:いや、まさに。しかも事実認定とかでハルシネーション起こしまくったりしてね(笑)。

    スタッフ:すみません。ちょっと軽い質問なんですけど。判事AIが出てくるかもってことは、弁護士AIとか、検事AIとか。

    小飼:いや、もちろん。

    山路:今、リーガルテックなんかではもう出てきているもんね。そういう、どの法律とどの法律を引っ張ってきたら、この裁判に勝てそうかみたいなことをアドバイスするAIっていうのは、なんか研究っていうか、あれ? もう実用化はしてないかな? まだ研究段階かもしれないけど、それは研究してるっていうのは、だいぶ前に見た覚えがあるから。

    スタッフ:じゃあ、(『エヴァンゲリオン』に出てくる)MAGIシステムみたいな感じのやつに犯罪者が裁かれていくみたいな感じになるんですか?

    小飼:MAGIシステムではないでしょ。だから、けっこう、我々がLLMの前に予想していたAIの姿と、LLM以降ではけっこう違うでしょ。だから特にハルシネーションに関しては、あんまきちっと予測してなかったよね。

    山路:でもとりあえずAIに出させて、裁判官はそのハルシネーション、問題ないかをチェックする役割みたいになっていくのかもしれないですけどね。

    小飼:ハルシネートしすぎて使えなかったりしてね。

    山路:ただ、著作権とかで、今までの法的な理論とかそんなものってもう、成り立たなくなるほど例外が多いとは思うので。

    小飼:ただけっこうあれよ、AI判事はとにかく、裁判進行のアシスタンスっていうのはけっこうAIが活躍する余地っていうのはあると思いますよ。さっき証拠なければ即判決とか理想的って言いましたけれども、だから、あなたがこう主張してるけども、だからその主張にはこれが足りないんじゃないですかっていうのが洗い出すというのは。

    山路:なるほどね。しかし、法律上の矛盾も思いっきり指摘してきそうですけどもね(笑)。

    「AI原告、AI被告」(コメント)

    山路:無限ループになりそうな感じもありますけどもね。ただ、本当にAI絡みの法律とかも、どうなるのかっていうのはちょっと見てみたい感じはありますよね。

    小飼:(コメントを見ながら)Live Speech、まだだ。失礼。

    山路:iPhoneのLive Speechで声の合成、なんかアシスティブの、そういうなんていうか、支援機能のやつですよね。

    小飼:そうそうそう、

    山路:あれ英語だったらできるんでしたっけ? 確か英語の文章を15分間ぐらいいろいろ学習させないといけないとか、そんなんじゃなかったかな。そうすると、弾さんの声で英語の文章を喋ってくれるみたいなやつですよね。

    「銃規制やキリスト教原理主義へ難しい」(コメント)

    山路:銃規制やキリスト教原理主義へ難しい、というのは、そういうのを受け入れられないってことなんですかね。AIによる判決みたいなものをその人々のほうが。

    「GPUパワーがあるほうが勝つ」(コメント)

    山路:それはそれで気になりますねって(笑)、GPUパワーがあるほうが裁判側と弁護士側で、どっちが優秀な理論を組み立ててくるのか、

    小飼:じつは同じAIエンジンを、同じクラウドを使ってるという可能性は、みんなChatGPTでやってました、みたいなオチというのはとてもありうるよね(笑)。

    山路:これ、検索エンジンだったら、ほぼ今Google一択になってたじゃないですか。AIのモデル、LLMのモデルが一つに集約されていくことってありえますかね?

    小飼:ありえなくはないんじゃない?

    山路:今、それこそOpenAIが頭一つ抜けて、それに続いてオープンなAIのモデルもいろいろ出てきましたけど、そんなのがいろいろあったことをやっているうちに、結局これやろみたいなふうに落ち着いていくことがありえるかも。

    小飼:それで前よりも、今はもっとあり得るなぁと思ったのは、AWSってLLMをうちで育ててくださいっていうようなことはやってるけれども、ChatGPTみたいなサービスそのものを提供しようとかしてないでしょ。

    山路:ほぉ。

    小飼:そう、あくまでもあなたたちがそれをやりたいのであれば、うちはリソース準備しますよまではAmazonウェブサービスではやってるんだけれども。なんか、ある意味不気味な沈黙というのか。

    山路:じゃあ結局、ベゾス、まぁ今はもうCEOベゾスじゃないのか、そういうチャットAI的なサービスみたいなものは表層的な「皮」であって、根幹的なビジネスの革新にはならないかもと、

    小飼:ならない。

    山路:はぁー。

    小飼:ならないというのか、しないというのか。いや、だからAWS上に実装されたGoogleに対抗する検索エンジンというのも、見当たらないよね。だから、ないとまでは言わない。DuckDuckGoがどこでホストされているのかっていうのは、僕もわかんないけど、少なくともAWSではない、AWSじゃ高すぎて維持出来ないと思う(笑)。

    山路:「マグニフィセント7」、「GAFAM」と言われる会社の戦略も、微妙な違いがけっこうあるわけですね。みんながAI、AIのモデル作ることに一生懸命というわけじゃなくて。なかなかAIビジネス、また話面白くなってきましたねと。

    小飼:Appleはまぁどこが勝つにしても、窓口がもうウチなら、それはOKよっていうスタンスに見えるね。

    山路:ただ、それにしてもこの入り口になる、AmazonもAlexaの改良に関してはものすごくアピールしてきたじゃないですか、生成AI使ってAlexaとかをリプレースしていくよみたいなことを言ってるし、

    小飼:でもなんか、Alexa熱、なんか冷めたような気がするな。やっぱりそれも、背景にはどうやっても儲からんというのが(笑)。

    山路:あと、会話がつまんなかったっていうのがあるんじゃないですかっていう。思ったほど結局、私もこのSiriなんか使うのって、タイマーが何分かとか、そんなぐらいしか、天気予報ぐらいしか使わないんで。それがLLM使った音声のインターフェースになったら、もうちょっと、

    小飼:あー、あと時々川柳、読ませる、

    山路:あれも1回か2回やったらだいたい満足ですけどね(笑)。で、ちょっとそのIT絡みで重要なニュース、もう一ついっておくと。これAIとは関係ないんですけども、かなりでかいニュースじゃないですか。

    小飼:あー、これはありがたいね。

    山路:ありがたい?

    小飼:というのもですね、うるう秒というのはどう実装されているかというと、60秒目が設定されているんですね。だから、普通の時刻を扱う変数型では、秒の部分、秒フィールドっていうのは0から59までしか入らないはずなんだけど、60秒目が入るんです。でも、それ実装してないところが多いんですよ。だから、普通のタイムスタンプでは、60秒というのはないんですね。0から59秒までしか記録できないんですよね。別の言い方をすると、タイムスタンプが押せない。