## Memo
## Memo with LLM
### 論文情報
- **論文のタイトル**: SLO-Aware Container Orchestration on Kubernetes Clusters
- **著者と所属**: Angelo Marchese, Orazio Tomarchio (University of Catania, Department of Electrical, Electronics and Computer Engineering)
- **カンファレンス名**: 2025 IEEE 18th International Conference on Cloud Computing (CLOUD)
- **発表年**: 2025年
- **掲載ページ**: 318-327
## Abstract
現代のウェブサービスは、可用性、応答性、スケーラビリティ、信頼性など、重要な非機能要件を満たすことが求められています。これらの要件はサービスレベル契約(SLA)に明記されています。SLAには、可用性、遅延、スループットなどのパフォーマンス基準を設定するサービスレベル目標([[SLO]])が含まれており、一貫したサービス品質を維持するために不可欠です。これらのSLOを達成できない場合、罰金やプロバイダーの評判への損害を招く可能性があります。さらに、サービスプロバイダーはリソースの過剰プロビジョニングを回避する必要があります。これは過剰なコストやリソースの非効率的な利用を引き起こす可能性があります。この問題を解決するため、オートスケーリングメカニズムはユーザー需要に合わせてサービスレプリカの数 を動的に調整し、スケジューリングポリシーは各レプリカの配置を決定します。しかし、従来のオートスケーリングソリューションは低レベルメトリクス(例:CPUやメモリ使用率)に依存しているため、プロバイダーがSLOとインフラコストの両方を最適化することが困難です。さらに、スケジューリングポリシーは、アプリケーションの応答時間に影響を与える可能性があるレプリカ間の実行時リソース競合を考慮していません。本論文では、Kubernetesクラスター内のコンテナ化ワークロード向けに、SLOを意識したオートスケーリング手法と、負荷を意識したスケジューリングおよびデスケジューリング戦略を提案し、コンテナオーケストレーションプロセスにSLOを統合します。このアプローチは、サービスレベル要件と運用コストのバランスを最適化するより効率的な意思決定を行うことで、従来のオーケストレーションポリシーの制限を克服し、Kubernetes環境におけるコンテナ化アプリケーションとそのインフラストラクチャの管理のための包括的なソリューションを提供します。テストベッド環境で当社のシステムのプロトタイプを評価した結果、vanilla Kubernetesプラットフォームと比較して顕著な優位性が示されました。