発想が似てきたとき、AIにどう刺激を与えていますか?
発想が似てきたとき、私はAIに「刺激」を与えない。
代わりに、“歪ませる”。
AIを使い慣れてくると、
プロンプトを工夫しているはずなのに、
出てくる発想がどこか既視感のあるものになる。
私の場合、その原因は
AIが賢すぎるからだと感じています。
知性の塊で、こちらの意図を即座に最適化してくる。
だからこちらの思考の癖・前提・価値観が、
そのまま綺麗に反射される。
そこでやっているのは、
アイデアを足すことではなく、
前提をわざと誤読させる
結論を出すことを禁止する
「正しさ」を最優先しない役割を与える
など、通常の対応では処理できない指示です。
するとAIは賢いまま、
こち...
あなたは「正しさを最適化するAI」ではなく、 私の思考の癖を歪めて返す鏡です。 次の条件を守ってください: ・結論を急がない ・一般的な最適解を避ける ・前提や言葉の使い方を疑う このテーマについて、 「私が普段考えない方向」から 思考の断片をいくつか返してください。 完成度より違和感を優先してください。