llm-architecture
SIの立場で、生成AI活用をどう設計して売るのが「誠実」なのか整理してみた
導入:売りやすさと構造的正解の乖離 前稿では、文字通り業務ロジックを確率モデルに預けるなという原則を提示しました。しかし現実のSI案件では、この原則を守ることが必ずしも容易ではありません。 人材の制約、納期の制約、営業資料的見栄え、そして何より「AIが判断します」という訴求の強さ——これらの要因が、構造的に健全とは言いづらい設計を選択させる圧力として働くこともあると思います。 本稿では、現実的な制約の中でSIが取りうる「誠実なライン」を構造的に考察します。 誠実なライン:判断UIとしてのAI 基本構成 SIにおける生成AI活用の最も誠実な構成は、次のような流れになります: 人間の曖昧な入力 ↓ LLM(意味解釈・正規化) ↓ 既存 or 新規の業務ロジック(決定論的処理) ↓ 確定結果 ↓ LLM(説明・要約・自然言語化) ↓ 人間 この構成では、生成AIを"判断エンジン"として売らず、"判断UI"として売ることになります。 構造的特性 この設計が持つ特性: 決定性の保証: