CHAT GPTを勘違いしてる人たち|第2話

AIは「正解」を持っていない

CHAT GPTを使っていると、
つい期待してしまう瞬間がある。

「結局、正解はどれ?」
「一番いい答えを教えて」
「間違ってないよね?」

でも、先に言っておく。

AIは、正解を持っていない。


なぜ「正解がある」と思ってしまうのか

理由は単純だ。

AIの答えは

  • 断定的で
  • 自信がありそうで
  • しかも読みやすい

人間が
「これは正しいはず」
と感じる形で出てくる。

でもそれは、
正解だからではない。

「正解っぽい文章」
として整っているだけだ。


AIが出しているのは「最適解風」

AIがやっているのは、

この条件なら
この前提なら
この流れなら

多くの人が納得しそうな言葉を並べること。

そこにあるのは、

  • 判断
  • 責任
  • 価値基準

ではない。

あるのは
確率と文脈だけ。

だから、
前提が少しズレると、
答えも平気でズレる。

しかも、
ズレていても
堂々としている。


一番危ない使い方

一番危ないのは、これ。

「AIがそう言ってるから正しい」

これをやった瞬間、
思考が止まる。

本来、人間がやるべきなのは、

  • その前提は合っているか
  • 自分の状況に当てはまるか
  • そもそも何を正解とするか

を考えること。

でも
正解をAIに求めると、
この工程が丸ごと抜け落ちる。


正解がない場面ほど、AIは強い

皮肉だけど、
ここは重要。

人生、仕事、子育て、お金。
そもそも
正解が一つじゃない分野では、
AIはめちゃくちゃ役に立つ。

なぜなら、

「正解を出す」必要がないから。

  • 選択肢を並べる
  • 視点を増やす
  • 思考を広げる

ここでは、
AIは優秀な補助輪になる。

でも、
決めるのは人間だ。


毎日使っていて思うこと

AIに
「答え」を求めると、
思考は薄くなる。

AIに
「整理」を頼むと、
思考は深くなる。

この差は、
積み重なると
取り返しがつかないくらい大きい。

AIは正解をくれない。
でも、
考える材料は無限に出してくれる。

それをどう使うかは、
完全に人間側の前提次第だ。


次回は、
「AIで賢くなる人、バカになる人」
ここに踏み込む。

かなり露骨に、
分かれる話になる。

#CHATGPT #AI時代 #思考の前提 #前提整理 #正解とは
この話は「思考の前提」カテゴリにまとめています。

コメント