LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent 原創
前面筆者介紹了《??大模型在知識圖譜問答上的核心算法詳細思路及實踐????》,一般的Text2Sparql/Text2SQL技術路線圖如下,目標是獎自然語言轉話為可查詢的SQL語句。
目前基于KG+LLM+Agent的KBQA方案,在多語言場景未得到充分探索。下面來看一個智能體框架-mKGQAgent,通過模擬人類推理過程將自然語言問題轉化為SPARQL查詢。
mKGQAgent架構
mKGQAgent 工作流演示(在線階段)。在評估階段,mKGQAgent 利用經驗池中的實例來優化規劃,通過上下文學習訓練示例提升 SPARQL 查詢生成意識,并借助反饋糾正潛在錯誤。離線階段,則是為收集經驗池所必需。評估或在線階段——即 mKGQAgent 各組件及其集成模塊的調度過程。
工作流程分為離線階段和評估(在線)階段,核心是模塊化的子任務分解與協同,結合經驗池(Experience Pool)和工具調用提升多語言場景下的性能。
1、離線階段(Offline Phase)
離線階段的核心是構建經驗池(Experience Pool),為在線階段的推理提供上下文學習的示例。該階段通過一個簡化版代理(SAgent)完成,包括以下步驟:
1.1 命名實體鏈接工具(Named Entity Linking, NEL Tool)
模擬人類查詢知識圖譜中資源標識符的行為,將自然語言中的實體和關系候選映射到知識圖譜中的URI(統一資源標識符)。例如,將“Angela Merkel”鏈接到Wikidata的URI(Q567)。
復用現有NEL服務(如Wikidata的實體查詢接口)和關系鏈接工具(如Falcon 2.0),而非提出新算法:
- 輸入實體候選(E)和關系候選(R);
- 調用NEL服務獲取每個候選的URI;
- 返回鏈接后的實體和關系字典。
1.2 計劃步驟(Plan Step)
將生成SPARQL查詢的復雜任務分解為一系列子任務(如實體識別、關系鏈接、查詢優化等),模擬人類分步解決問題的邏輯。
通過LLM生成分步計劃:
- 輸入自然語言問題(qi)和系統提示(Splan);
- LLM輸出子任務列表(pi),作為后續行動的指南。
1.3 無經驗池的行動步驟(Action Step without Experience Pool)
按計劃步驟順序執行子任務,結合NEL工具完成實體鏈接,逐步生成SPARQL查詢。
- 實現:
- 輸入計劃(pi)、LLM、NEL工具和系統提示(Saction);
- 依次執行每個子任務,必要時調用NEL工具;
- 保存對話歷史(Hi),最終輸出初步SPARQL查詢(
)。
1.4 經驗池構建(Experience Pool Construction)
- 功能:存儲的推理過程和結果(包括成功與失敗案例),作為在線階段的上下文學習示例。
- 實現:
1.對訓練集中的問題(qi),生成SPARQL查詢并與真實查詢()對比,計算F1分數;
2.將問題向量、計劃、對話歷史、F1分數等元數據存入向量數據庫;
3.經驗池包含成功(F1=1.0)和失?。‵1<1.0)的案例,支持后續相似問題的檢索。
2、評估階段(Evaluation Phase)
在線階段基于離線構建的經驗池,通過計劃、行動和反饋的協同生成最終SPARQL查詢。
2.1 帶經驗池的計劃步驟(Plan Step with Experience Pool)
利用經驗池中相似問題的成功計劃優化當前計劃,提升子任務分解的準確性。
1.將輸入問題(qi)轉換為向量(vqi);
2.從經驗池中檢索Top-N個高F1分數的相似計劃;
3.將這些計劃融入系統提示(),引導LLM生成更優計劃(pi)。
2.2 帶經驗池的行動步驟(Action Step with Experience Pool)
結合經驗池中相似問題的SPARQL示例,優化查詢生成過程,同時支持反饋步驟的結果整合。
1.檢索經驗池中Top-N個相似SPARQL查詢,融入行動階段的系統提示();
2.按計劃執行子任務,調用NEL工具,并可結合反饋結果調整查詢。
3.2.3 反饋步驟(Feedback Step)
通過執行初步查詢并分析知識圖譜的返回結果,修正查詢錯誤,模擬人類“試錯-改進”的推理過程。
1.將初步生成的SPARQL查詢()在三元組存儲中執行,獲取返回結果(Ai);
2.將結果填入反饋提示模板(),返回給行動步驟;
3.行動步驟根據反饋優化查詢,輸出最終結果(僅觸發一次,避免無限循環)。
實驗性能
參考文獻:Text-to-SPARQL Goes Beyond English: Multilingual Question Answering Over Knowledge Graphs through Human-Inspired Reasoning,https://arxiv.org/pdf/2507.16971v1
本文轉載自??大模型自然語言處理?? 作者:余俊暉
