• このエントリーをはてなブックマークに追加
小飼弾の論弾 #262 「泥沼のイスラエルとパレスチナ、障害相次ぐ金融機関のネットワーク、増税や超法規的措置を求める人たち」
閉じる
閉じる

新しい記事を投稿しました。シェアして読者に伝えましょう

×

小飼弾の論弾 #262 「泥沼のイスラエルとパレスチナ、障害相次ぐ金融機関のネットワーク、増税や超法規的措置を求める人たち」

2023-10-24 07:00

     「小飼弾の論弾」で進行を務める、編集者の山路達也です。
     無料公開部分の生配信およびアーカイブ公開はニコ生・ニコ動のほか、YouTube Liveでも行っておりますので、よろしければこちらもぜひチャンネル登録をお願いいたします!

     今回は、2023年10月17日(火)配信のテキストをお届けします。

     次回は、2023年10月31日(火)20:00の配信です。

     お楽しみに!

    2023/10/17配信のハイライト

    • マルチモーダル対応のChatGPTレビュー
    • 「AIと著作権とコピーライト」と「うるう秒廃止」
    • 「全銀ネットと商習慣」と「NTT西日本の個人情報900万件流出」
    • 視聴者質問「舐められないための方法」と「パレスチナとイスラエルのややこしさ」
    • 「イスラエルの強さ」と「宗教と紛争」「次の選挙で考えること」

    マルチモーダル対応のChatGPTレビュー

    山路:最初、軽いニュースから、なんか、ChatGPTあたりから行ってみようかなと思ってるんですけど、弾さんは、

    小飼:軽いのか(笑)?

    山路:軽い(笑)、マルチモーダルに対応したChatGPTって使ってみました?

    小飼:まぁ、Bing経由だけど、

    山路:なかなかすごいですよね、新しいやつって。ちょっと待ってくださいよ。
     これで写真を、出していいですよ、この今の画面をこう撮って。こんな感じで。どうしようかな、これのところ、あれ、ここで音声入力をすればいいのか。写真の説明をして、これでOKかな、いってます? あ、いった。おっ、なんかもっともらしいこと言ってません? こいつ。

    小飼:もっともらしいこと言ってますね。

    山路:お、頑張れ、頑張れ、これはネットの問題なのか? ChatGPTがサチって詰まっているのか。あれ、なんかいいところ、さっきリハではうまくいったんだけど。

    小飼:まぁよくある。

    山路:仕方がない。先ほど試した時はいい感じに、撮った写真のやつを説明してくれたんですけれども、突然止まってしまって、ダメになりましたということで。

    小飼:よくあるよね。

    山路:なかなかいい感じにいくところだったんですけれどもね、映ってるものとかも全部、この辺のモニターとか三脚とか、それをやって紙も散らばってますねみたいなことも言ってくれたところだったんですけど。
     あれ? おっおっおっ、あってるじゃん、あってるじゃん。(スタジオ内を撮影した写真に写っているものを、ChatGPTがテキストで説明)ケーブルや撮影関連の。これってしかし、本当どうやって学習してんだろうなっていう、つまり、けっこう入り組んでるじゃないですか、状況。それをどうやってセグメンテーションして。

    小飼:やっぱりいっぱい学習させたんだろうねー。日本語でラベル付けされて、散らばってます。

    山路:あってるあってる。

    小飼:ちゃんと認識してるのかな。

    山路:「全体としてプロの撮影、放送に使用される機材と環境の一部と思われます」、正解。いやいや、大したもんですよ。

    「毒キノコの判別はできるのかな?」(コメント)

    小飼:毒キノコって見た目だけで判別できない奴もけっこうあるじゃん。

    山路:人間だって専門家じゃないと間違えるわけだし。

    小飼:カエンダケだのね、ベニテングだけだの、見た目がどぎついやつであれば、けっこう判別できるけど、それって人間もけっこう判別できたりするからね。

    山路:このChatGPT、弾さんがTwitter/Xでポストしてて感心してたのがあったじゃないですか、それっていうのは、ちょっとリンク、パッと出せないんですけど、このPythonのよくあるややこしい仕様、

    小飼:そうそうそう、

    山路:つまり、たとえば数値の大きさを比べるときに、xイコールは1なんですかみたいな、xイコール1ですかみたいな、調べてくるんだけど、

    小飼:Pythonで「a is b」って言った場合には、aとbが同じものを指し示しているのかっていう意味なんですよ。で、この場合は値の中身を比べてるんじゃなくて、Pythonの変数というのか、オブジェクトのほとんどは参照なんですね。

    山路:あるメモリー領域のとこに入れてるっていう、

    小飼:同じメモリー領域を指しているかっていうのを示すものなんですけれども、小さな数値だと同じになるんですね。だから、数値の場合っていうのは、本質的な違いがないんですよ。だから、値を比べても、参照を比べても、本質的な違いはないんですけども、Pythonの本来の仕様では、例え値が同じでも、メモリー領域が違うのであれば違うって答えるわけですよね。だからたとえば、aイコール16、bイコール16っていうふうに入れたら、a is bって言った場合には、これfalseって答えてもいいはずなんですけども、trueになるんですね。小さな数値だと。それはなぜかというと、速度を上げるために1バイトよりも小さな数値の場合っていうのは同じメモリー領域を指すように。だからそれ専用の小さな数値を表すためのメモリー領域っていうのはあらかじめ用意してるんですよね。

    山路:たとえばaが5000と、bが1万だったら、常にfalseになるんですか?

    小飼:常にfalse、数値が違えば必ずfalseになります。

    山路:ふーん。

    小飼:ただ、aイコール5000、bイコール5000って場合はfalseなんですけど、ここで注意点。aイコール5000、bイコールaって言った場合にはa is bって言った場合にはtrueになります。参照が同じになるから。

    山路:これなんか、めちゃめちゃ素人というか、初心者がハマりそうな。

    小飼:というのか、初心者のうちはisはそんなに使わないはずなんですけれども。だから、ちょっとisが必要にあのなるか否かっていうのは、けっこう初級と中級の境目みたいなのところがあるんですけど、isっていう名前からして、イコールと同じ意味なんだろうなっていうふうに、

    山路:AppleScript使ってる人だったら思うかもしれない(笑)、

    小飼:スクリプト系言語ではけっこうあるんです。だから、変数が同じものを指し示しているのか、中身は同じだけれども、別のものを指し示しているのかっていうのを判定したい状況というのはけっこうあるんですよ。
     だから、そのスクリプトをボーンと投げて、「なんでこうなるのか?」って言ったところを正しく説明したっていうのは、感心したんだけども、でも、よくよく考えたら、似たようなものをStack Overflowで検索しても、出てくるよなと。

    山路:つまり、それを学習してるんじゃないですか。

    小飼:そう。だから、これけっこうすごくない? って言ったら、「いやぁ、まぁでも、それほどすごくもないかなぁ」と思い直したという(笑)。

    山路:その後で、この話を聞くと怖いんですよね。

    小飼:だから、Stack Overflowの中身というのは明らかに学習対象なんですよね、ChatGPTやBardや、その他のLLMの。たぶんWikipediaの次か、Wikipedia以上に学習されていると思う。なぜかというと、プログラム関連の質問には特に強いじゃん。なぜなら、ここをソースに学習したから。だけれども、従業員の28パーセントカットというね(笑)。

    山路:これはどう考えればいいんですか、Stack Overflowとしては、ビジネスを立て直すためにAIによるロボットの巡回っていうのを弾くべきなのか、

    小飼:あるいはStack OverflowにもAIを組み込むのか。

    山路:Copilotみたいなものを入れて。

    小飼:Stack Overflowのビジネスモデルっていうのは、古き良き広告なので。

    山路:ああ、なるほどね。なかなかきつい状況にあるんですね。

    小飼:まぁでも、もともとそれほど従業員が必要かって言ったら、それはサイトを作っている時には必要だけれども、いったん出来上がってしまえば。

    山路:まぁ、昔よく言ったUGC(User Generated Contents)みたいな話で、

    小飼:そうそうそう、だから一番の手間暇というのはユーザーがやってくれるので。Wikipediaなんかにもそれは言えることだけれども。でも、Wikipediaのほうはもう非営利なので。

    山路:そう考えると、UGCでやってて、なおかつAIみたいなものってものすごく意外に多いかもしれないですよね。それこそクリップアート集みたいなんて、もう消えつつ、もう風前の灯火みたいな感じになってきてるじゃないですか。

    小飼:いやでも、その割には「いらすとや」のイラストだらけになっているっていうことは。
     だからけっこう、これで例のChatGPTが画像の入出力にも対応したっていうことからもわかるように、けっこうキャプションもAI化されるのかなと。ごめんなさい、逆キャプションですね、イラストレーションね。なんかGoogleも、著作権侵害を受けたGoogleも援助してくれると。

    山路:なんかこう、えらい勢いで物事が進んでるなというところがありませんか。この、ちょっとリンク出しますと、前回もMicrosoftがCopilotで、GitHubのCopilotとかで著作権とかの問題にユーザーが巻き込まれたら、Microsoftが金払うよっていうことを言ってたと思うんですけど、今度はGoogleも、生成AI使ってユーザーが著作権問題に直面したら、Googleが金払うよと。またAdobeはFireflyで、

    小飼:でも、それを言うんだったらさ、前々からGoogleは検索の結果、リンクだけ出すんでなくて、コンテンツそのものを出しててさ。だから、コピーライトはどうなってるんだっていうのはあるよね。たぶん一番それをやられてるWikipediaとかは、まぁ非営利だから、非営利だし、いちおう著作権はクリエイティブ・コモンズということになっているので、それされてもいいという位置づけなんだろうけれども、そうでない、明らかにそうでないものもあるんだよね。

    山路:今までGoogleとかニュースのやつなんかに関してもぜんぜん、報道のほうには、はした金しか払ってこなかったじゃないですか。それとか、そういうふうな流れっていうのがこの生成AIで大きく変わるかもしれないというのは面白いところかなと。何かを作った人がトラブルに遭ったときに賠償金払うよって言ってるけど、これって言ってみたら、申告制の収益分配みたいな感じもするんですよね、極端なことを言えば。

    小飼:それに対して、コストに関してはどうなんだろうなっていうのも、これがたとえばUGCとかであれば、そのサイトに人気が集中すれば集中するほど、コストは逓減されるわけですよね。しかもまぁ、自分たちでそのコンテンツを用意するわけではなくて、自動でクロールしてインデックスしているだけなので、だからネットが成長するにつれて検索あたりのコストっていうのは減るわけですよ。なんだけれども、LLMの場合、生成あたりのコストというのはユーザーが増えても逓減するところか、逓増するんじゃないかっていう懸念もあるんですよね。

    山路:GPUの消費電力半端ないみたいな感じなわけですよね。

    小飼:そうそうそう。だから、そのあたりはどうするのかなぁと。

    山路:まぁしかし、これが解決になるかどうかわかんないですけど、いろいろ逓減させようという、アイデアみたいなものとかはいろいろ、たとえば今出したリンクなんかだと電子のスピンを利用してこう、ニューラルネットワークを作ろうぜみたいな話もできて、それができるとめっちゃ消費電力下げられますよみたいな、そういう話もなんか出てきたりとかしてますし。なんかそこはイノベーション、問題がもうわかっているところ、それを解決したら利益が出るとわかっているところには、やっぱり資源が投入されるんじゃないですか。

    小飼:まぁでもたぶん、今のLLM神話っていうのは、過去の経験から来てるよね。とにもかくにも、今赤字でも、ユーザーを集めておけば将来絶対マネタイズできるから、というのは。しかも、もともとお金を持ってる連中がそれをやってるので、Googleでも、Microsoftでも。

    山路:この、LLMのコストが仮にあんま下がらなくて上がり続けていった場合、MicrosoftとかGoogleとかなんかの会社はどこまで耐えられるもの、まだぜんぜん余裕な感じなんですかね?

    小飼:まだまだけっこう余裕なんじゃない? だから、孫さんじゃないですけれども、何だかんだ言って使ってない人のほうが多いわけですから。今のところは。

    山路:まぁはっきり言って、まだまだぜんぜん投資フェーズだからみたいな。ほんで、なんか彼らが金積めば積むほど、他のプレイヤー参入しづらくなりますしね(笑)。そうか、まだこれから、これからもしばらくはなんかこの、LLMのブームは続きそうな感じはありますね。

    小飼:まぁ少なくとも、まだまだ降りれないよね。Microsoftも、Googleも。

    「AIと著作権とコピーライト」と「うるう秒廃止」

    山路:なんかまだいけそうな感じ、これでもうOpenAIが完全に独り勝ちになってたら、まだ違うと思うんですけど。そうでなかったら、まだいけそうな感じはぜんぜんありますもんね、Googleも、それこそMetaとかも、なんかもビジネスの可能性見えてるわけだし。で、あとこのAI絡みでもう一ついっとくと。この音声クローンAIが著作権侵害になるよという。この人間の歌声をデータとして学習させて、歌声を再現したものというのは著作権侵害になるよという。

    小飼:えー、じゃあミクとかどうなるんだ?

    山路:ミクはそもそも、

    小飼:AIじゃないから逆にいいの?

    山路:人間の歌声をデータとして学習させた、音声クローンの話ですけどね。しかも初音ミクに関してはあれは、

    小飼:逆に、これを使って生成しても、それはあなたの著作物であって、うちの著作物でないっていうのを明記してくれてるからね。それは。初音ミク自体の著作権を持っている人たちがね。ちゃんとそれを使って、使わせたものというのは、歌わせたあなたの著作物っていうふうに言ってるからね。

    山路:これに関しては、人間の歌声をデータとして学習させるから、音声クローンなんか、

    小飼:いや、でも、それ、著作権っていうと、肖像権にどっちかっていうと近いよね。だって、声そのものは著作物じゃないじゃん。

    山路:いちおう、潜在的な著作権侵害市場のリストに追加するよう要請っていうことなんで、まだ審議中みたいな。

    小飼:うん、いや、だから、コピーライトには引っかかる、だから、前にも言ったように、コピーライトと著作権っていうのは、似てて異なる概念だから。コピーライトっていうのはあくまで複製権なので、複製権だけあって、逆にこういう場合というのは強いわけです。だから、単なる音声でも、複製した以上は複製権に侵害し得ると。だから俺は複製していいぞといった覚えはないよというふうに言えるわけですよね。でも、これは日本の法律においては著作物ではないわけですよね、明らかに。

    山路:これ、もう屁理屈かもしれないですけど、コメントにある「声真似はセーフ」ってあるじゃないですか。で、これ、声真似芸人で自由に声を使っていいですよっていう人のやつで作ったコンテンツというのはどうなるんでしょう? という。声真似芸人を使った音声クローンAIの扱いは、じゃあどうなるのでしょうかね?

    小飼:いや、だから、それは声真似をした人次第でしょうね。

    山路:その人がOKと言えば。

    小飼:まぁ、そういうことでしょうね。

    山路:だったら相当怖いっちゃ怖いのかな。でも、今でもそれは、今でも、どこまであれ、形態模写みたいなものは問われるもんなんでしょうね。

    小飼:片目をつぶってるっていうところはあるんですけどね。

    山路:物事ってけっこう、境界ってグレーだったりしますもんね。

    小飼:パロディーはOKだよって、だから著作権の、コピーライトの対象にはしませんよっていうふうにしてるところっていう、だからフェアユースの範囲ですよっていうふうにしてる国っていうのは多いから。だから、けっこう各国バラバラなんだよね。

    山路:これ、さらにここにそのクローンAI、生成AIが加わってくるわけじゃないですか(笑)、なんかわかりやすい落とし所なんて見つかりようがない気がする、

    小飼:見つかりようがないよね。

    山路:どんなふうになると思います? つまり、こういうのが出揃ってきた時に、使う人間はいっぱいいるじゃないですか。

    小飼:だから、裁判やるでしょ。その裁判もAIだ(笑)。

    山路:もうとにかく裁判やりまくるとか、そういう、これはおかしいだろうみたいな世論が形成されてくる、

    小飼:でも、AI判事が出たら、裁判のインフレーションというか、裁判費用のデフレーションが起きたりして。

    山路:それって、AI裁判?

    小飼:そう。だから、今のところは裁判というのは、ものすごい高コストなわけですよね。わりとカジュアルに法に訴えるアメリカとかでも、ほとんどの事例というのは、じつは高コストすぎて、

    山路:アメリカですら?

    小飼:アメリカですら。だから、法の力を借りるというのは、氷山の一角なわけですよ。「ましてや日本は」という話だけど、それがAIで変わったりして。

    山路:しかし、AI判事こそ、判例主義になってしまうのではないか。

    小飼:いや、まさに。しかも事実認定とかでハルシネーション起こしまくったりしてね(笑)。

    スタッフ:すみません。ちょっと軽い質問なんですけど。判事AIが出てくるかもってことは、弁護士AIとか、検事AIとか。

    小飼:いや、もちろん。

    山路:今、リーガルテックなんかではもう出てきているもんね。そういう、どの法律とどの法律を引っ張ってきたら、この裁判に勝てそうかみたいなことをアドバイスするAIっていうのは、なんか研究っていうか、あれ? もう実用化はしてないかな? まだ研究段階かもしれないけど、それは研究してるっていうのは、だいぶ前に見た覚えがあるから。

    スタッフ:じゃあ、(『エヴァンゲリオン』に出てくる)MAGIシステムみたいな感じのやつに犯罪者が裁かれていくみたいな感じになるんですか?

    小飼:MAGIシステムではないでしょ。だから、けっこう、我々がLLMの前に予想していたAIの姿と、LLM以降ではけっこう違うでしょ。だから特にハルシネーションに関しては、あんまきちっと予測してなかったよね。

    山路:でもとりあえずAIに出させて、裁判官はそのハルシネーション、問題ないかをチェックする役割みたいになっていくのかもしれないですけどね。

    小飼:ハルシネートしすぎて使えなかったりしてね。

    山路:ただ、著作権とかで、今までの法的な理論とかそんなものってもう、成り立たなくなるほど例外が多いとは思うので。

    小飼:ただけっこうあれよ、AI判事はとにかく、裁判進行のアシスタンスっていうのはけっこうAIが活躍する余地っていうのはあると思いますよ。さっき証拠なければ即判決とか理想的って言いましたけれども、だから、あなたがこう主張してるけども、だからその主張にはこれが足りないんじゃないですかっていうのが洗い出すというのは。

    山路:なるほどね。しかし、法律上の矛盾も思いっきり指摘してきそうですけどもね(笑)。

    「AI原告、AI被告」(コメント)

    山路:無限ループになりそうな感じもありますけどもね。ただ、本当にAI絡みの法律とかも、どうなるのかっていうのはちょっと見てみたい感じはありますよね。

    小飼:(コメントを見ながら)Live Speech、まだだ。失礼。

    山路:iPhoneのLive Speechで声の合成、なんかアシスティブの、そういうなんていうか、支援機能のやつですよね。

    小飼:そうそうそう、

    山路:あれ英語だったらできるんでしたっけ? 確か英語の文章を15分間ぐらいいろいろ学習させないといけないとか、そんなんじゃなかったかな。そうすると、弾さんの声で英語の文章を喋ってくれるみたいなやつですよね。

    「銃規制やキリスト教原理主義へ難しい」(コメント)

    山路:銃規制やキリスト教原理主義へ難しい、というのは、そういうのを受け入れられないってことなんですかね。AIによる判決みたいなものをその人々のほうが。

    「GPUパワーがあるほうが勝つ」(コメント)

    山路:それはそれで気になりますねって(笑)、GPUパワーがあるほうが裁判側と弁護士側で、どっちが優秀な理論を組み立ててくるのか、

    小飼:じつは同じAIエンジンを、同じクラウドを使ってるという可能性は、みんなChatGPTでやってました、みたいなオチというのはとてもありうるよね(笑)。

    山路:これ、検索エンジンだったら、ほぼ今Google一択になってたじゃないですか。AIのモデル、LLMのモデルが一つに集約されていくことってありえますかね?

    小飼:ありえなくはないんじゃない?

    山路:今、それこそOpenAIが頭一つ抜けて、それに続いてオープンなAIのモデルもいろいろ出てきましたけど、そんなのがいろいろあったことをやっているうちに、結局これやろみたいなふうに落ち着いていくことがありえるかも。

    小飼:それで前よりも、今はもっとあり得るなぁと思ったのは、AWSってLLMをうちで育ててくださいっていうようなことはやってるけれども、ChatGPTみたいなサービスそのものを提供しようとかしてないでしょ。

    山路:ほぉ。

    小飼:そう、あくまでもあなたたちがそれをやりたいのであれば、うちはリソース準備しますよまではAmazonウェブサービスではやってるんだけれども。なんか、ある意味不気味な沈黙というのか。

    山路:じゃあ結局、ベゾス、まぁ今はもうCEOベゾスじゃないのか、そういうチャットAI的なサービスみたいなものは表層的な「皮」であって、根幹的なビジネスの革新にはならないかもと、

    小飼:ならない。

    山路:はぁー。

    小飼:ならないというのか、しないというのか。いや、だからAWS上に実装されたGoogleに対抗する検索エンジンというのも、見当たらないよね。だから、ないとまでは言わない。DuckDuckGoがどこでホストされているのかっていうのは、僕もわかんないけど、少なくともAWSではない、AWSじゃ高すぎて維持出来ないと思う(笑)。

    山路:「マグニフィセント7」、「GAFAM」と言われる会社の戦略も、微妙な違いがけっこうあるわけですね。みんながAI、AIのモデル作ることに一生懸命というわけじゃなくて。なかなかAIビジネス、また話面白くなってきましたねと。

    小飼:Appleはまぁどこが勝つにしても、窓口がもうウチなら、それはOKよっていうスタンスに見えるね。

    山路:ただ、それにしてもこの入り口になる、AmazonもAlexaの改良に関してはものすごくアピールしてきたじゃないですか、生成AI使ってAlexaとかをリプレースしていくよみたいなことを言ってるし、

    小飼:でもなんか、Alexa熱、なんか冷めたような気がするな。やっぱりそれも、背景にはどうやっても儲からんというのが(笑)。

    山路:あと、会話がつまんなかったっていうのがあるんじゃないですかっていう。思ったほど結局、私もこのSiriなんか使うのって、タイマーが何分かとか、そんなぐらいしか、天気予報ぐらいしか使わないんで。それがLLM使った音声のインターフェースになったら、もうちょっと、

    小飼:あー、あと時々川柳、読ませる、

    山路:あれも1回か2回やったらだいたい満足ですけどね(笑)。で、ちょっとそのIT絡みで重要なニュース、もう一ついっておくと。これAIとは関係ないんですけども、かなりでかいニュースじゃないですか。

    小飼:あー、これはありがたいね。

    山路:ありがたい?

    小飼:というのもですね、うるう秒というのはどう実装されているかというと、60秒目が設定されているんですね。だから、普通の時刻を扱う変数型では、秒の部分、秒フィールドっていうのは0から59までしか入らないはずなんだけど、60秒目が入るんです。でも、それ実装してないところが多いんですよ。だから、普通のタイムスタンプでは、60秒というのはないんですね。0から59秒までしか記録できないんですよね。別の言い方をすると、タイムスタンプが押せない。

     
    この記事は有料です。記事を購読すると、続きをお読みいただけます。
    ニコニコポイントで購入

    続きを読みたい方は、ニコニコポイントで記事を購入できます。

    入会して購読

    この記事は過去記事の為、今入会しても読めません。ニコニコポイントでご購入下さい。

    コメントを書く
    コメントをするにはログインして下さい。