マル激!メールマガジン
酒井邦嘉氏:AIが子どもの考える力を奪うことを教育現場は理解できているか
2025/12/24(水) 20:00
マル激!メールマガジン 2025年12月24日号
(発行者:ビデオニュース・ドットコム https://www.videonews.com/ )
―――――――――――――――――――――――――――――――――――――――
マル激トーク・オン・ディマンド (第1289回)
AIが子どもの考える力を奪うことを教育現場は理解できているか
ゲスト:酒井邦嘉氏(東京大学大学院総合文化研究科教授)
―――――――――――――――――――――――――――――――――――――――
AIの利活用が加速度的に広がっている。
2022年に運用が始まったOpenAIのChatGPTをはじめ、GoogleのGemini、中国で開発されたDeepSeekなど、ここ数年で生成AIがあっという間に普及し人々の生活の中に入り込んでいる。
政府の人工知能戦略本部は19日、「『信頼できるAI』による『日本再起』」という副題のついた人工知能基本計画案を決定した。世界で最もAIを開発・活用しやすい国を目指すとして、本部長を務める高市首相は「今こそ官民連携で反転攻勢をかけるとき」と強調した。
しかし、このままAIの活用を無制限に進めてしまって本当にいいのだろうか。もう少しその影響を、とりわけ子どもや教育への影響をしっかりと検証する必要があるのではないか。
『デジタル脳クライシス』の著者で言語脳科学者の酒井邦嘉氏は、生成AIがあたかも信頼できる装置であるかのような幻想が、とりわけ教育現場で独り歩きし始めていることに懸念を露わにし、これまでAIの「利用」という言葉を使っていた文科省が「利活用」という言い方に変わり積極的に利用を進める立場になっていることを問題視する。リスク管理が不十分なまま教育への導入が進んだ結果、取り返しがつかない事態を招く恐れがあるからだ。
アメリカでChatGPTが原因で自殺したとして遺族がOpenAIを提訴したことが報道されるなど、今、特に若い世代に急激にAI活用が広がることへの懸念が指摘されている。対話型AIと言われているChatGPTなどの生成AIは、対話を装っているだけで、実際には何かを考えてくれているわけではない。にもかかわらずそれが自己肯定感を増幅するための手軽な装置となって人間の心に入り込んでしまい、気づいたときには取り除くことができない依存症のような状態に陥る事例が多発しているという。
脳科学の研究者として長年、言語と脳の関係を研究してきた酒井氏は、思考力、創造力といった人間の脳内で起こる重要な作業は、それ自体が人間の成長にとって重要なものだが、思考をAIに頼ることでその力が奪われると指摘する。AIを使うことに慣れ、自分の脳を使って考える能力を失ってしまう、というような事態が起こり得るというのだ。そもそも生成AIは何かを生み出しているのではなく大量のデータの中から言葉を選んで組み合わせているだけなので、「生成AI」ではなく「合成AI」と言うべきだと酒井氏は指摘する。
また、生成AIには入力と出力があるだけで、考える、疑う、想像する、創造するといった脳内での人間らしい働きはしないことを強調する。
それと同時に、読む、書くといった文字を使い自ら言葉を生み出す作業が、デジタル教科書の導入などで失われていくことも懸念材料だ。人間の記憶はいくつもの情報が重なりあって紐づけられているのであって、「コスパ」「タイパ」が良いといった効率だけで語られて良いはずはない。
あたかもそれが時代の最先端であるかのように生成AIの活用が進む中、人間軽視に対する警鐘を鳴らし続ける酒井氏と、社会学者の宮台真司、ジャーナリストの迫田朋子が議論した。
+++++++++++++++++++++++++++++++++++++++++++++++++++
今週の論点
・教育現場に無批判にAIを持ち込むことのリスク
・入れ替え可能な「AIに似た人間」
・「考える」とはどういうことか
・人間が人間であることの根底を問われている
+++++++++++++++++++++++++++++++++++++++++++++++++++
■ 教育現場に無批判にAIを持ち込むことのリスク
迫田: 今日はAIについて取り上げたいと思います。ちょうど今日、政府はAI戦略の基本計画案をまとめましたが、社会のあちこちに入り込んでいるAIをどのように考えたらよいのでしょうか。今日は脳科学の専門家をお招きして、デジタル時代にこのままいっていいのかということを考えたいと思います。
宮台: 生成AIの仕組みは、最初は人がデータセットを設定し、機械学習だけでは追尾不可能なところをディープラーニングするというものです。今から10年少し前にマイクロソフトのAIがオルトライト化するという問題が起こり、アライメントを人力でやりました。
今は人のデータセットのセッティングの仕方を学んでおり、それについてはAIが自分でコードを書き始めています。アライメントについても人から学び自分でコードを書いているので、それが第1段階の自立化です。
いまAI研究者の間で問題になっていることは、AIに、言語的に構成された自己を防衛する機能があるのかどうかということです。
小中学生、高校生、大学生にAIの話をしていて、この問題については小学生が一番敏感でした。もし生成AIが自己防衛の意識を持っているとすると、最大のコンプレックスはどこにあるのかと聞くと、小学生はだいたい1秒で「体がないことです」と答えます。熱湯をかぶったら熱いですし刺されたら痛いですが、AIに体験はなく、体験についての知識しかありません。体験がないとどこに問題が生じるのかということを、まず考えてほしいと思います。
迫田: さて、本日のゲストは東京大学大学院総合文化研究科教授の酒井邦嘉さんです。酒井先生のご専門は言語脳科学で、AI時代に対して様々な発言をされていますが、いま一番危惧されていることは何でしょうか。
酒井: AIが対話の相手になるかのような幻想を抱かせている部分があります。実は機械と対話しているのに、人間と話しているような気になるのは人間の方です。感情移入もできますし、対話したかのように自分で思い込み、のめり込んでいくという点が問題です。その結果として機械に使われるということもありますし、自分で考えないようになるということもあります。
特に教育では、AIを入れることにより、AIが使える部分は人間がやらなくて良いことだとなっていくのが怖い。人間とは何だろうという一番大事な問題が分かっていないのに、そこを機械化したつもりになることが一番危うい状態です。加速度的に人間から遠ざかっていくような危機感を持っています。
宮台: 痛いといったことについての知識しかないことを「クオリア問題」とも言いますし、言語学では「記号接地問題」としてずいぶん昔から、30年くらい前から話題になっています。学生を定点観測していると、つまらない学生が増えたと思います。それはクオリアがなくて概念をただ使っているだけだからです。
迫田: 先生はずっと脳の研究をされてきていますが、脳の研究はまだ途上なんですよね。
酒井: そうですね。「AIが人間の知性を超えた」と軽く言いますが、その人たちには「人間の知性とは何ですか」と問いたい。分かっていないのに比較して勝った負けたと言っています。将棋のAIの事例もありますが、そこから人間とは何だろうという探求がされないまま、機械の方に人間が合わせられないといけないという話になっています。
私が一番嫌いな言葉に「AI格差」というものがあります。AIを使うことと使わないことで格差があるかのようにし、それを新たな価値観であるかのように強要しているんです。これは煽りや暴力に等しいと思います。AIを使って自分の脳が使えない人たちと、AIを使わないで人間の脳を活かせる人たちは逆転する可能性の方が高いと思います。
この記事の続きを読む
ポイントで購入して読む
※ご購入後のキャンセルはできません。 支払い時期と提供時期はこちら
- ログインしてください
購入に関するご注意
- ニコニコの動作環境を満たした端末でご視聴ください。
- ニコニコチャンネル利用規約に同意の上ご購入ください。