精品一区二区三区在线成人,欧美精产国品一二三区,Ji大巴进入女人66h,亚洲春色在线视频

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent 原創

發布于 2025-7-29 10:00
瀏覽
0收藏

前面筆者介紹了《??大模型在知識圖譜問答上的核心算法詳細思路及實踐????》,一般的Text2Sparql/Text2SQL技術路線圖如下,目標是獎自然語言轉話為可查詢的SQL語句。

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區

目前基于KG+LLM+Agent的KBQA方案,在多語言場景未得到充分探索。下面來看一個智能體框架-mKGQAgent,通過模擬人類推理過程將自然語言問題轉化為SPARQL查詢。

mKGQAgent架構

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區

mKGQAgent 工作流演示(在線階段)。在評估階段,mKGQAgent 利用經驗池中的實例來優化規劃,通過上下文學習訓練示例提升 SPARQL 查詢生成意識,并借助反饋糾正潛在錯誤。離線階段,則是為收集經驗池所必需。評估或在線階段——即 mKGQAgent 各組件及其集成模塊的調度過程。

工作流程分為離線階段評估(在線)階段,核心是模塊化的子任務分解與協同,結合經驗池(Experience Pool)和工具調用提升多語言場景下的性能。

1、離線階段(Offline Phase)

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區

離線階段的核心是構建經驗池(Experience Pool),為在線階段的推理提供上下文學習的示例。該階段通過一個簡化版代理(SAgent)完成,包括以下步驟:

1.1 命名實體鏈接工具(Named Entity Linking, NEL Tool)

模擬人類查詢知識圖譜中資源標識符的行為,將自然語言中的實體和關系候選映射到知識圖譜中的URI(統一資源標識符)。例如,將“Angela Merkel”鏈接到Wikidata的URI(Q567)。

復用現有NEL服務(如Wikidata的實體查詢接口)和關系鏈接工具(如Falcon 2.0),而非提出新算法:

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區

  1. 輸入實體候選(E)和關系候選(R);
  2. 調用NEL服務獲取每個候選的URI;
  3. 返回鏈接后的實體和關系字典。

1.2 計劃步驟(Plan Step)

將生成SPARQL查詢的復雜任務分解為一系列子任務(如實體識別、關系鏈接、查詢優化等),模擬人類分步解決問題的邏輯。

通過LLM生成分步計劃:

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區

  1. 輸入自然語言問題(qi)和系統提示(Splan);
  2. LLM輸出子任務列表(pi),作為后續行動的指南。

1.3 無經驗池的行動步驟(Action Step without Experience Pool)

按計劃步驟順序執行子任務,結合NEL工具完成實體鏈接,逐步生成SPARQL查詢。

  • 實現

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區

  1. 輸入計劃(pi)、LLM、NEL工具和系統提示(Saction);
  2. 依次執行每個子任務,必要時調用NEL工具;
  3. 保存對話歷史(Hi),最終輸出初步SPARQL查詢(LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區)。

1.4 經驗池構建(Experience Pool Construction)

  • 功能:存儲的推理過程和結果(包括成功與失敗案例),作為在線階段的上下文學習示例。
  • 實現

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區

1.對訓練集中的問題(qi),生成SPARQL查詢并與真實查詢(LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區)對比,計算F1分數;

2.將問題向量、計劃、對話歷史、F1分數等元數據存入向量數據庫;

3.經驗池包含成功(F1=1.0)和失?。‵1<1.0)的案例,支持后續相似問題的檢索。

2、評估階段(Evaluation Phase)

在線階段基于離線構建的經驗池,通過計劃、行動和反饋的協同生成最終SPARQL查詢。

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區

2.1 帶經驗池的計劃步驟(Plan Step with Experience Pool)

利用經驗池中相似問題的成功計劃優化當前計劃,提升子任務分解的準確性。

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區

1.將輸入問題(qi)轉換為向量(vqi);

2.從經驗池中檢索Top-N個高F1分數的相似計劃;

3.將這些計劃融入系統提示(LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區),引導LLM生成更優計劃(pi)。

2.2 帶經驗池的行動步驟(Action Step with Experience Pool)

結合經驗池中相似問題的SPARQL示例,優化查詢生成過程,同時支持反饋步驟的結果整合。

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區

1.檢索經驗池中Top-N個相似SPARQL查詢,融入行動階段的系統提示(LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區);

2.按計劃執行子任務,調用NEL工具,并可結合反饋結果調整查詢。

3.2.3 反饋步驟(Feedback Step)

通過執行初步查詢并分析知識圖譜的返回結果,修正查詢錯誤,模擬人類“試錯-改進”的推理過程。

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區

1.將初步生成的SPARQL查詢(LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區)在三元組存儲中執行,獲取返回結果(Ai);

2.將結果填入反饋提示模板(LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區),返回給行動步驟;

3.行動步驟根據反饋優化查詢,輸出最終結果(僅觸發一次,避免無限循環)。

實驗性能

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區

LLM+KG+Agent的Text2SPARQL多語言KBQA智能體框架—mKGQAgent-AI.x社區

參考文獻:Text-to-SPARQL Goes Beyond English: Multilingual Question Answering Over Knowledge Graphs through Human-Inspired Reasoning,https://arxiv.org/pdf/2507.16971v1

本文轉載自??大模型自然語言處理??   作者:余俊暉

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
已于2025-7-29 10:02:41修改
收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 阳江市| 银川市| 北辰区| 盘锦市| 闻喜县| 潼关县| 哈密市| 龙川县| 万州区| 阿尔山市| 扎鲁特旗| 北海市| 普兰县| 九寨沟县| 辛集市| 革吉县| 桃园市| 读书| 平塘县| 宜昌市| 菏泽市| 和林格尔县| 股票| 游戏| 麻城市| 和林格尔县| 上栗县| 阜城县| 株洲县| 萨迦县| 靖江市| 海宁市| 蓬溪县| 花莲市| 锦州市| 且末县| 梓潼县| 涪陵区| 新民市| 城市| 剑阁县|