## Memo
## Memo with LLM
## Abstract
大規模なソフトウェアを多用するシステムでは、トラブルシューティングのために、実行時のステータスやイベントを記録する大量のログが生成されることがよくある。ログデータの豊富な情報は、様々なシステム管理と診断タスクを可能にします。長年にわたり、自動ログ解析のための多くのアプローチが提案されてきました。しかし、これらのアプローチは通常、特定のタスクごとに個別のモデルを設計するため、他のタスクに一般化することができません。また、異種ソースからのログを扱う場合、ロバストではありません。本稿では、ログ解析のための新しい事前学習済みモデルであるPreLogを提案する。PreLogは、ログのセマンティックな意味を捉えるために、ラベル付けされていない大量のログデータに対して事前に訓練される。PreLogがログの隠された構造とセマンティクスをより良く理解することを可能にする、エントリーレベルとシーケンスレベルを含む2つのログ固有の事前学習目標を設計する。下流のログ分析タスクを実行するために、プロンプトチューニングパラダイムを活用し、下流のタスクの目的を事前学習段階と同様の形に変換する。我々は、2つの主要なログ解析タスク(すなわち、ログ解析とログベースの異常検知)について広範な実験を行った。実験の結果、PreLogは最先端のタスクに特化したアプローチと比較して、より良い、あるいは同等の結果を達成することがわかりました。PreLogは費用対効果が高く、プロンプトチューニングパラダイムを通じて多くのログ分析タスクに一様に適用することができます。