3a2ad5db24e5fedf7ac2a850f6ad45d74c7f3c9a.png

 

最近は生成AIの使用が当たり前になりまして、私も文章作成やアイデア出しなどにめっちゃ使っております。なかには、意思決定まで任せている人も多いんじゃないでしょうか。

 

となると、その功罪と言いますか、「AIを使いすぎることのメリデメ」みたいなところが気になるわけですが、当然ながら技術が新しすぎるもんで明確な答えは出ていないわけです。そんななか、個人的に「まぁ、そうだよなぁ」と思える内容のレビュー論文(R)が出てましたんで、ちょっと内容を整理してみましょう。これからAIを使う上で、かなり役立つ話になるんじゃないかと。

 

 

 

AIを使ってると考え方が平凡になっちゃうのでは?問題

これは過去に出たAI研究をまとめたレビュー論文で、これまでのデータを整理しつつ「AIってこういう問題があるんじゃない?」ってのを整理したものになっております。ここで研究チームがどんな問題を指摘しているのかと言いますと、

 

  • AIを使ってると考え方が平凡になっちゃうのでは?

 

って感じです。AIを普段から多く使っている人ほど、発想や意見の幅が狭まり、平均的な思考に寄ってしまうのではないかというんですな。

 

では、なぜこういう話になるのか? ここで問題になるのが、ChatGPTのような大規模言語モデル(LLM)の存在であります。これらのモデルって何をやっているかと言うと、超ざっくり言えば、「過去のデータから、もっともそれっぽい次の言葉を予測する」じゃないですか。要するに、大量の人間の文章から“平均的に自然なパターン”を学習して、それを再現するみたいなことをやってるわけですね(まぁ違うところもあるんだけど、超おおまかなメカニズムとしては、そんな感じ)。

 

なので、これでどんなことが起きるのかと言いますと、AIってのは仕組み上、

 

  • よくある表現
  • よくある考え方
  • 多くの人が支持する視点

 

を優先的に出力するってことです。言い換えれば、個性的な表現ほど出力に上がってこなくなるメカニズムになってるんだよーってことですね。さらに、強化学習(RLHF)によって、わかりやすくて、礼儀正しくて、安全な回答が優先されやすくなるので、その結果どうなるかというと、

 

  • 誰が書いても似たような文章のスタイルになる

  • 「無難で平均的」な意見ばっかりになる

  • 少数派の視点が消えて、つまらないアイデアが増える

 

といった現象が起きることになるわけです。ここらへんは、私も普段からAIを使っててよく思うところっすね。