TL;DR 前稿では、商用生成AIを単なる次トークン予測器ではなく、ベースモデル、alignment、policy、router、monitor などを含む多層システムとして捉えるべきだと述べた。その視点に立つと、表面の prompt だけで生成AI全体を思い通りに制御しようとする発想には限界がある。 それにもかかわらず、実務では入力設計の違いによって安定性が大きく変わる。その理由は、prompt がモデル内部を直接支配するからではない。むしろ、外側から意味の通路を狭め、拘束条件を与える からである。 本稿では、私が以前「Efficient Prompt」と呼んだ考え方を、単なる prompt テクニックではなく、 なぜ長い自然文 prompt は不安定になりやすいのか なぜ構造を持った入力は安定しやすいのか なぜ「意味圧縮」や「高密度ロジックシード」と似て見えても少し違うのか という観点

