## Memo ## Abstract 本稿では、次のような問いに取り組む: ラージ・ランゲージ・モデル(Large Language Models: [[LLM]])を使って、どのように人間とは無関係にコードを改善できるか? - 元のコードの特性を後退させないか? - 検証可能で測定可能な方法で、元のコードを改善できるか? この疑問を解決するために、私たちは「保証されたLLMベースのソフトウェア工学」を提唱します。これは、遺伝的改良にヒントを得た、生成とテストを繰り返すアプローチです。アシュアードLLMSEは、これらの双子の保証を満たさないコードを破棄する一連のセマンティックフィルタを適用する。これにより、LLMの幻覚を見やすいという潜在的な問題を克服することができる。これにより、人間とは無関係にLLMを使ってコードを生成することができる。人間は、他の人間のエンジニアが生成したコードと同じように、最終的なコード・レビュアーの役割を果たすだけである。 本稿は、2024年4月15日(月)にポルトガルのリスボンで開催される「International Workshop on Interpretability, Robustness, and Benchmarking in Neural Software Engineering(ニューラル・ソフトウェア・エンジニアリングにおける解釈可能性、ロバスト性、ベンチマーキングに関する国際ワークショップ)」でのマーク・ハーマンによる基調講演の内容をまとめたものである。