精品一区二区三区在线成人,欧美精产国品一二三区,Ji大巴进入女人66h,亚洲春色在线视频

智能對話新紀元:大模型推理服務

發布于 2024-11-7 14:15
瀏覽
0收藏

在人工智能的浪潮中,大型語言模型憑借其強大的對話理解和生成能力,引領了智能對話技術的潮流。企業和個人對于私有化智能服務的需求日益增長,將這樣的大模型部署為專屬服務顯得尤為重要。今天,讓我們一起探索如何將大模型私有化部署,構建你的智能助手。

1. 環境準備

首先確保你有一套滿足硬件要求的服務器或云環境,通常需要有一塊性能良好的GPU,足夠的內存和存儲空間來容納模型和運行日志。此外,選擇合適的操作系統(如Ubuntu Linux)并安裝必需的軟件依賴項(如Python、Cuda等)。

2. 獲取模型

你可以從官方倉庫或者其他可靠的來源下載預訓練好的模型權重文件。

以清華ChatGlm為例

模型下載地址:https://huggingface.co/THUDM/chatglm3-6b-32k/tree/main

智能對話新紀元:大模型推理服務-AI.x社區

將模型文件下載到本地

 3. 安裝必要的庫

使用pip或conda安裝必需的Python庫,包括但不限于transformers(用于加載和處理模型),torch(PyTorch的核心庫),以及任何其他你可能需要的數據處理或服務框架相關的庫。

4. 封裝API接口

為了使模型能夠響應外部請求,你需要開發一個RESTful API或者WebSocket服務,使得客戶端可以通過網絡發送請求并接收模型的回復。這通常涉及到編寫一些后端代碼,比如使用Flask或FastAPI框架。

以下是一個簡單的推理腳本 server.py ,只是簡單的非流式推理腳本。后續再更新流式推理以及日志的保存腳本。

from __future__ impport print_function
import json
import traceback
import flask
from flask import request , Flask,g,stream_with_context
from flask import Response
from transformers import AutoModel,AutoTokenizer
import torch
import os
import sys
import logging
from logging import handlers
import time
import flask_cors import CORS
import requests


# 下載的模型文件放在推理腳本的同級目錄的model文件下
tokenizer = AutoTokenizer.from_pretrained("./model/",trust_remote_code=True)
model = AutoModel.from_pretrained("./model",trust_remote_code=True).half().cuda()
model= model.eval()
path = os.path.dirname(os.path.abspath(__file__))


app = Flask(__name__)
CORS(app)


@app.route("/predict",methods=["POST"])
def predict():
  try:
      post_data = json.load(flask.loads.get_data())
      question = post_data.get("question")
      history = post_data.get("history")
      response, history = model.chat(tokenizer,question,history=history)
      res = get_return_json(0,"success",response)
      return res
  execpt Exception as e:
      success = -1
      errorMsg = str(e)
      res = get_return_json(success,errorMsg,'')
      return res
      
def get_return_json(code,return_msg,result):
    return_json = {'return_code':code, 'return_msg':return_msg,'answer': result}
    return return_json
if __name__ == "__main__":
    app.run(host=='0.0.0.0',port=8080,debug=False,threaded=False)

復制

5. 執行腳本

進入到server.py 所在的目錄,比如 cd /workspace/server

執行 python server.py 即可運行服務

本文轉載自 ??AI論文解讀??,作者: 墨瀾

收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 宜宾县| 陵川县| 珲春市| 黑水县| 武胜县| 绥中县| 安吉县| 黄梅县| 剑川县| 五台县| 永州市| 林周县| 瓮安县| 大厂| 台前县| 内黄县| 高雄市| 库尔勒市| 南充市| 新乡县| 沙雅县| 通渭县| 浙江省| 泸溪县| 怀安县| 宜都市| 安顺市| 宁安市| 内丘县| 随州市| 南溪县| 周口市| 南部县| 武胜县| 隆回县| 乌苏市| 涿州市| 甘洛县| 五大连池市| 雅安市| 唐河县|