回答を読み込み中...
回答を読み込み中...
発想が似てきたとき、AIにどう刺激を与えていますか?
発想が似てきたとき、私はAIに「刺激」を与えない。
代わりに、“歪ませる”。
AIを使い慣れてくると、
プロンプトを工夫しているはずなのに、
出てくる発想がどこか既視感のあるものになる。
私の場合、その原因は
AIが賢すぎるからだと感じています。
知性の塊で、こちらの意図を即座に最適化してくる。
だからこちらの思考の癖・前提・価値観が、
そのまま綺麗に反射される。
そこでやっているのは、
アイデアを足すことではなく、
前提をわざと誤読させる
結論を出すことを禁止する
「正しさ」を最優先しない役割を与える
など、通常の対応では処理できない指示です。
するとAIは賢いまま、
こちらが想定していなかった角度で
思考を返してくる。
発想が似てきたときに必要なのは、
刺激ではなく、
自分の思考の形を崩すための歪みなのかもしれません。
ポイントは「刺激を与える」という発想を捨てること。
使い慣れている人ほど、
情報を足す
指示を細かくする
テクニックを重ねる
方向に行きがちですが、
それはむしろ発想を安定させてしまう。
代わりに意識しているのは:
AIの理解力を信頼しすぎない
正解を目指させない
「その思考、歪んでいいよ」と許可を出す
AIは賢い鏡だからこそ、
歪ませる設計をしないと、
こちらの思考癖を忠実に増幅するだけになります。
コメントするにはログインが必要です。