第4部 — 品質が悪化する本当の理由
ここまでで分かったこと
履歴が積もる → 大事な情報が薄まる → 品質が落ちる
これは分かりますよね。でも、現場で観測される品質低下って、もっとひどいんですよね。
品質低下は、加速度的 に進む
なぜそうなるのか。
品質劣化は「雪だるま式」に進む
実際に起きるのは、こういう加速ループです。
- 情報を詰め込みすぎる
- AI の出力品質が落ちる
- ユーザーが「違う、もっとこう」と指摘
- 指摘のやり取りも履歴に積もる
- 次の出力はさらにブレる
- さらに厳しく指摘する
…で、1 に戻る。
ちなみに、この構造は AI 特有の話じゃなくて、他の分野にも同じものがあります。
- 化学:自己触媒反応
- 制御工学:発振
- 生態系:正のフィードバック
要は、放置すると勝手に大きくなる現象です。
雪だるまの「核」は、修正のやり取り
雪だるまの中心 — 加速のエネルギー源になっているのは、実は 修正・やり直しのやり取り です。
| ふつうの指示 | やり直し・修正のやり取り |
|---|---|
| 仕事の話 | 過去の失敗を蒸し返す話 |
| AI が前進する材料になる | AI を混乱させる材料になる |
| 品質に貢献 / 中立 | 品質を急落させる |
過去の失敗の話が混ざるほど、AI は「結局、いま何をすべきか」を見失っていきます。
つまり、品質を決めているのは AI じゃなくて「人間の振る舞い」なのです。
AI の調子が悪くなる原因の半分は、私たちの「付き合い方」にある
しかも、悪循環がきれいにできあがっています。
出力が悪い → 苛立ち・焦り → 過剰な再指示 → さらに出力悪化
ということで、これは AI 側を変える話じゃなくて、私たちの使い方を変える話 です。
私も仕事として実際にコーディングする事は少なくて、指示出しなどマネジメントが殆どですが、感覚的には人に指示してプログラムを作成して貰うのも、生成AIに指示してプログラムを作成するのも、変わらない印象です。結局は「相手を見て何を伝えるか? どう伝えるか?」を考え続けています。

0 件のコメント:
コメントを投稿