## Memo
## Abstract
DB-BERTは、マニュアルやその他の関連テキスト文書の自然言語解析によって得られた情報を利用するデータベースチューニングツールです。テキストを使用して、チューニングすべきデータベース・システム・パラメータと推奨パラメータ値を特定します。DB-BERT は、テキスト分析のために、事前に訓練された[[LLM|大規模言語モデル]](具体的には、[[BERT]] モデル)を適用します。最初のトレーニング段階では、自然言語のヒントを推奨設定に変換するために、モデルの重みを微調整します。実行時に、DB-BERT は、特定のデータベースシステムおよびベンチマークに対して最適なパフォーマンスを達成するために、ヒントを集約、適応、および優先順位付けすることを学習します。両フェーズとも反復的であり、[[強化学習]]を使用して、評価するチューニング設定の選択をガイドします(データベースシステムが拒否する設定にはペナルティを課し、パフォーマンスを向上させる設定には報酬を与えます)。実験では、データベースのチューニングに関する数百のテキスト文書を DB-BERT の入力として活用します。異なるベンチマーク([[TPC-C]] と [[TPC-H]])、メトリクス(スループットと実行時間)、およびデータベースシステム([[PostgreSQL]] と [[MySQL]])を考慮して、さまざまなベースラインに対して DB-BERT を比較します。この実験は、DB-BERTが、テキスト文書から収集されたデータベースチューニングに関する一般的な情報と、試行を通じて得られたシナリオ固有の洞察とを組み合わせることで利益を得られることを明確に示しています。DB-BERTの完全なソースコードは、 https://itrummer.github.io/dbbert/ 。