## Memo
## Abstract
[[ChatGPT]]やGPT4に代表される大規模言語モデル([[notes/data-science/LLM]])は、その創発能力と汎化可能性により、自然言語処理や人工知能の分野で新たな波を起こしている。しかし、LLMはブラックボックス的なモデルであり、事実知識を捕捉し、それにアクセスするには不十分であることが多い。対照的に、知識グラフ(KG)は、例えばウィキペディアやHuapuのように、豊富な事実知識を明示的に格納する構造化された知識モデルである。KGは、推論や解釈のための外部知識を提供することで、LLMを強化することができる。一方、KGはその性質上、構築や進化が困難であり、KGの既存の手法では新しい事実を生成したり、未知の知識を表現したりすることが困難である。従って、LLMとKGを一緒に統合し、同時にそれぞれの利点を活用することが補完的である。本論文では、LLMとKGの統合のための将来を見据えたロードマップを提示する。すなわち、1)LLMの事前学習と推論の段階で、あるいはLLMによって学習された知識の理解を深める目的で、KGを組み込むKG強化LLM; 2) LLM補強型KGは、埋め込み、補完、構築、グラフからテキストへの生成、質問応答などの様々なKGタスクにLLMを活用するものである。我々のロードマップでは、これら3つのフレームワークにおける既存の取り組みをレビューし、要約し、今後の研究の方向性を示す。