AIで賢くなる人、バカになる人
CHAT GPTを使う人は、
これから確実に増える。
でも同時に、
はっきり分かれていく。
AIで賢くなる人と、
AIでバカになる人。
これは能力差の話じゃない。
学歴でも、ITリテラシーでもない。
使い方以前の「前提」の差だ。
AIでバカになる人の共通点
先に、分かりやすいほうから。
AIでバカになる人は、
だいたいこう使う。
・答えを聞く
・判断を任せる
・結論だけ欲しがる
そして、
AIの出力をそのまま信じる。
「AIがそう言ってたから」
これが口癖になる。
この使い方をすると、
思考は確実に減る。
なぜなら、
考える工程を全部スキップしているから。
AIは「考えなくていい装置」じゃない
ここ、かなり重要。
AIを使うと楽になる。
速くなる。
それは事実。
でもそれは
考えなくてよくなる
という意味じゃない。
考える前にAIを使うと、
人はこうなる。
・前提を確認しない
・違和感を拾わない
・判断基準を持たない
結果、
それっぽい答えに
そのまま乗っかる。
これが積み重なると、
自分で考える筋肉が
目に見えない速度で落ちていく。
AIで賢くなる人は、逆をやっている
一方、
AIで賢くなる人はこうだ。
・自分の考えを先に出す
・仮説や違和感を投げる
・整理役として使う
つまり、
考えてからAIを使う。
AIに聞いているようで、
実際には
自分の思考を叩き台にしている。
だから、
・ズレに気づける
・前提の違いを見抜ける
・「これは使えない」と切れる
AIに振り回されない。
分岐点は、たった一つ
AIで賢くなるか、
バカになるか。
分かれ目はシンプル。
「考える前に使っているか」
「考えた後に使っているか」
これだけ。
AIの性能は関係ない。
最新モデルかどうかも関係ない。
人間側の姿勢だけで、
結果が真逆になる。
毎日使っていて確信したこと
私は、
CHAT GPTをほぼ毎日使っている。
でも、
判断を預けたことはない。
使っているのは、
・思考の整理
・論点の洗い出し
・視点の追加
それだけ。
AIは
思考を代行する存在じゃない。
思考を
拡張する道具だ。
この線を守れる人は、
どんどん賢くなる。
守れない人は、
静かに考えなくなる。
次回は、
「AIは思考の外部CPUである」
ここで一度、
AIの正しい置き場所を
はっきりさせる。
#CHATGPT #AI時代 #思考の前提 #前提整理 #考える力
この話は「思考の前提」カテゴリにまとめています。


コメント