前回の記事では、ポッドキャストをNotebookLMに蓄積し特定の人の思考を「参照先」として壁打ちするというAIの使い方について書いた。
その後、ふと一つの疑問が浮かんだ。
生成AIも、結局はインターネット上のコンテンツを学習しているのだとすると、自分がやっていることと、何が違うのだろうか。
少し意地悪な問いかもしれないが、この違いを整理しないと話が感覚論で終わってしまう気がしたので、散歩をしながらいろいろ考えてみたら考えがまとまったのでこれも記録しておく。
一見すると、やっていることは同じに見える
例えばChatGPTやGeminiに、
「◯◯という経営者の思考を前提に考えてください」
と伝えることはできる。
ロール指定やペルソナ指定を使えば、それっぽい回答は返ってくるし、ここだけを見ると、生成AIに頼んでもポッドキャストを蓄積して壁打ちしても同じことをやっているように見える。
でも、実際に使ってみると、 思考の手触りが明らかに違う。1
違いは「学習データ」ではなく「参照の仕方」にある
この違いは、「生成AIの学習データは何か」という話では説明できない。
重要なのは、 どの集合を、どんな前提で参照しているか だ。生成AIが扱っているのは、
- 不特定多数の発言
- 不特定多数の立場
- 不特定多数の価値観
が混ざり合った、非常に広く平均化された知であるのに対して、自分がやっているのは、
- 特定の人が
- 公の場で
- 時間をかけて語ってきた発言だけ
を、意図的に切り出して参照することをおこなっている。同じインターネット上の情報でも、 参照している集合の性質がまったく違う。
平均化された知と、固定された文脈
生成AIは、設計上どうしても、「この状況では、多くの人がこう考える可能性が高い」という方向に寄っていく。
これは欠点ではなく、汎用性を持たせるための必然だ。
ただ、その結果として生まれるのは、 誰のものでもない思考 でもある。
一方、特定の人の発言を参照する場合、
- 偏りがある
- 矛盾もある
- 時間による変化もある
でも、その分、「この人なら、ここを問題視しそうだ」という感覚が立ち上がる。
自分は、ここに価値を感じている。
人が他人の意見を参考にするとき無意識に次のことを判断している。
- これは誰の考えか
- どんな立場で語られているか
- どこまで信頼してよいか
生成AIの出力には、この「帰属先」が存在しない2。あるのは、もっともらしい文章だけだ。
一方で、ポッドキャストを参照している場合、その考えには必ず「この人のものだ」と指差せる帰属先があるし、それはパーソナリティ自身の言葉として発信されたものである。
個人的にこの差は、意思決定をしていくための壁打ちの場面では想像以上に大きい。
文脈を選ぶ責任を、誰が持っているか
もう一つ大きな違いは、 文脈の選択責任にある。
生成AIの場合、
- どの情報を
- どんな重みで
- どう組み合わせたか
はブラックボックスなのに対して、自分のやり方では、
- この人の考えを参照する
- この人の文脈を使う
という選択を、自分自身が明示的に行っている。
つまり、判断に使う「前提」を人間側が引き受けている。この違いは、実務や経営の場面ではとても重要だと思っている。
ここまで整理してみると、自分が生成AIに求めている役割は、はっきりしてきて、何か自分自身が壁打ちをしながら思考を深めたり考えを進めていくときに求めているのは「AIに考えさせること」ではなく、人が考えてきたことを、「引き出しやすくする媒介になること」だ。
NotebookLMは、その役割にかなり向いている。
生成AIも私もそうした意味では同じインターネット上の情報を使っている。
それでも結果が違うのは、
- 平均を取りにいくか
- 文脈を固定しにいくか
という、参照の姿勢が違うからだ。どちらが正しい、という話ではない。ただ、意思決定や壁打ちの場面では、私は後者のほうがしっくりくる。生成AIがどんどん賢くなる中で重要なのは、何をAIに任せ、何を人が引き受けるのかを意識的に設計することだと思っている。
私にとっては、
- 思考の参照先を選ぶこと
- その文脈を信頼するかどうかを決めること
は、人間側の仕事だ。AIは、その補助線を引く存在でいい。
おわりに
前回の記事と、今回の記事で書いているのは、どちらも「AIの使い方」というより、人がどうやって考えてきたかを、どこまで外に出せるか という話なのだと思っている。
生成AIは、その延長線上にある。便利さに目を奪われる前に、どの文脈を使って考えているのか。その問いを持ち続けたい。