Copilot や Cursor など生成 AI の普及により、コードを書くコストは劇的に下がりました。しかし、出力されたコードのレビューが開発の新たなボトルネックになっています。AIの出力を日々ひたすらレビューをしていて、生成AI登場以前より大変だと感じる方もいらっしゃるのではないでしょうか。
そこで本トークでは、レビュー負荷を低減する試みとして「AI による仕様と実装の一貫性チェック」の検証結果を共有します。
まず、仕様と実装のズレの原因を「仕様の解釈ミス」「情報漏れ」などのいくつかのパターンに分類します。サンプルプロジェクトにそれらのズレを仕込み、Cursor等のコーディングエージェントがどこまで自動検出できるかを比較します。
トークを通じて、皆さんのプロジェクトでも一貫性チェックを組み込むべきか、その判断材料を提供します。