哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何手?jǐn)]一個(gè)自有知識(shí)庫(kù)的RAG系統(tǒng)

京東云 ? 來源:jf_75140285 ? 作者:jf_75140285 ? 2024-06-17 14:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

RAG通常指的是"Retrieval-Augmented Generation",即“檢索增強(qiáng)的生成”。這是一種結(jié)合了檢索(Retrieval)和生成(Generation)的機(jī)器學(xué)習(xí)模型,通常用于自然語言處理任務(wù),如文本生成、問答系統(tǒng)等。

我們通過一下幾個(gè)步驟來完成一個(gè)基于京東云官網(wǎng)文檔的RAG系統(tǒng)

數(shù)據(jù)收集

建立知識(shí)庫(kù)

向量檢索

提示詞與模型

數(shù)據(jù)收集

數(shù)據(jù)的收集再整個(gè)RAG實(shí)施過程中無疑是最耗人工的,涉及到收集、清洗、格式化、切分等過程。這里我們使用京東云的官方文檔作為知識(shí)庫(kù)的基礎(chǔ)。文檔格式大概這樣:

{
    "content": "DDoS IP高防結(jié)合Web應(yīng)用防火墻方案說明n=======================nnnDDoS IP高防+Web應(yīng)用防火墻提供三層到七層安全防護(hù)體系,應(yīng)用場(chǎng)景包括游戲、金融、電商、互聯(lián)網(wǎng)、政企等京東云內(nèi)和云外的各類型用戶。nnn部署架構(gòu)n====nnn[!["部署架構(gòu)"]("https://jdcloud-portal.oss.cn-north-1.jcloudcs.com/cn/image/Advanced%20Anti-DDoS/Best-Practice02.png")]("https://jdcloud-portal.oss.cn-north-1.jcloudcs.com/cn/image/Advanced%20Anti-DDoS/Best-Practice02.png")  nnDDoS IP高防+Web應(yīng)用防火墻的最佳部署架構(gòu)如下:nnn* 京東云的安全調(diào)度中心,通過DNS解析,將用戶域名解析到DDoS IP高防CNAME。n* 用戶正常訪問流量和DDoS攻擊流量經(jīng)過DDoS IP高防清洗,回源至Web應(yīng)用防火墻。n* 攻擊者惡意請(qǐng)求被Web應(yīng)用防火墻過濾后返回用戶源站。n* Web應(yīng)用防火墻可以保護(hù)任何公網(wǎng)的服務(wù)器,包括但不限于京東云,其他廠商的云,IDC等nnn方案優(yōu)勢(shì)n====nnn1. 用戶源站在DDoS IP高防和Web應(yīng)用防火墻之后,起到隱藏源站IP的作用。n2. CNAME接入,配置簡(jiǎn)單,減少運(yùn)維人員工作。nnn",
    "title": "DDoS IP高防結(jié)合Web應(yīng)用防火墻方案說明",
    "product": "DDoS IP高防",
    "url": "https://docs.jdcloud.com/cn/anti-ddos-pro/anti-ddos-pro-and-waf"
}

每條數(shù)據(jù)是一個(gè)包含四個(gè)字段的json,這四個(gè)字段分別是"content":文檔內(nèi)容;"title":文檔標(biāo)題;"product":相關(guān)產(chǎn)品;"url":文檔在線地址

向量數(shù)據(jù)庫(kù)的選擇與Retriever實(shí)現(xiàn)

向量數(shù)據(jù)庫(kù)是RAG系統(tǒng)的記憶中心。目前市面上開源的向量數(shù)據(jù)庫(kù)很多,那個(gè)向量庫(kù)比較好也是見仁見智。本項(xiàng)目中筆者選擇則了clickhouse作為向量數(shù)據(jù)庫(kù)。選擇ck主要有一下幾個(gè)方面的考慮:

ck再langchain社區(qū)的集成實(shí)現(xiàn)比較好,入庫(kù)比較平滑

向量查詢支持sql,學(xué)習(xí)成本較低,上手容易

京東云有相關(guān)產(chǎn)品且有專業(yè)團(tuán)隊(duì)支持,用著放心

文檔向量化及入庫(kù)過程

為了簡(jiǎn)化文檔向量化和檢索過程,我們使用了longchain的Retriever工具集
首先將文檔向量化,代碼如下:

from libs.jd_doc_json_loader import JD_DOC_Loader
from langchain_community.document_loaders import DirectoryLoader

root_dir = "/root/jd_docs"
loader = DirectoryLoader(
    '/root/jd_docs', glob="**/*.json", loader_cls=JD_DOC_Loader)
docs = loader.load()

langchain 社區(qū)里并沒有提供針對(duì)特定格式的裝載器,為此,我們自定義了JD_DOC_Loader來實(shí)現(xiàn)加載過程

import json
import logging
from pathlib import Path
from typing import Iterator, Optional, Union

from langchain_core.documents import Document

from langchain_community.document_loaders.base import BaseLoader
from langchain_community.document_loaders.helpers import detect_file_encodings

logger = logging.getLogger(__name__)


class JD_DOC_Loader(BaseLoader):
    """Load text file.


    Args:
        file_path: Path to the file to load.

        encoding: File encoding to use. If `None`, the file will be loaded
        with the default system encoding.

        autodetect_encoding: Whether to try to autodetect the file encoding
            if the specified encoding fails.
    """

    def __init__(
        self,
        file_path: Union[str, Path],
        encoding: Optional[str] = None,
        autodetect_encoding: bool = False,
    ):
        """Initialize with file path."""
        self.file_path = file_path
        self.encoding = encoding
        self.autodetect_encoding = autodetect_encoding

    def lazy_load(self) -> Iterator[Document]:
        """Load from file path."""
        text = ""
        from_url = ""
        try:
            with open(self.file_path, encoding=self.encoding) as f:
                doc_data = json.load(f)
                text = doc_data["content"]
                title = doc_data["title"]
                product = doc_data["product"]
                from_url = doc_data["url"]

                # text = f.read()
        except UnicodeDecodeError as e:
            if self.autodetect_encoding:
                detected_encodings = detect_file_encodings(self.file_path)
                for encoding in detected_encodings:
                    logger.debug(f"Trying encoding: {encoding.encoding}")
                    try:
                        with open(self.file_path, encoding=encoding.encoding) as f:
                            text = f.read()
                        break
                    except UnicodeDecodeError:
                        continue
            else:
                raise RuntimeError(f"Error loading {self.file_path}") from e
        except Exception as e:
            raise RuntimeError(f"Error loading {self.file_path}") from e
        # metadata = {"source": str(self.file_path)}
        metadata = {"source": from_url, "title": title, "product": product}
        yield Document(page_content=text, metadata=metadata)

以上代碼功能主要是解析json文件,填充Document的page_content字段和metadata字段。

接下來使用langchain 的 clickhouse 向量工具集進(jìn)行文檔入庫(kù)

import langchain_community.vectorstores.clickhouse as clickhouse
from langchain.embeddings import HuggingFaceEmbeddings

model_kwargs = {"device": "cuda"}
embeddings = HuggingFaceEmbeddings(
    model_name="/root/models/moka-ai-m3e-large", model_kwargs=model_kwargs)

settings = clickhouse.ClickhouseSettings(
    table="jd_docs_m3e_with_url", username="default", password="xxxxxx", host="10.0.1.94")

docsearch = clickhouse.Clickhouse.from_documents(
    docs, embeddings, config=settings)

入庫(kù)成功后,進(jìn)行一下檢驗(yàn)

import langchain_community.vectorstores.clickhouse as clickhouse
from langchain.embeddings import HuggingFaceEmbeddings

model_kwargs = {"device": "cuda"}~~~~
embeddings = HuggingFaceEmbeddings(
    model_name="/root/models/moka-ai-m3e-large", model_kwargs=model_kwargs)

settings = clickhouse.ClickhouseSettings(
    table="jd_docs_m3e_with_url_splited", username="default", password="xxxx", host="10.0.1.94")
ck_db = clickhouse.Clickhouse(embeddings, config=settings)
ck_retriever = ck_db.as_retriever(
    search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.9})
ck_retriever.get_relevant_documents("如何創(chuàng)建mysql rds")

有了知識(shí)庫(kù)以后,可以構(gòu)建一個(gè)簡(jiǎn)單的restful 服務(wù),我們這里使用fastapi做這個(gè)事兒

from fastapi import FastAPI
from pydantic import BaseModel
from singleton_decorator import singleton
from langchain_community.embeddings import HuggingFaceEmbeddings
import langchain_community.vectorstores.clickhouse as clickhouse
import uvicorn
import json

app = FastAPI()
app = FastAPI(docs_url=None)
app.host = "0.0.0.0"

model_kwargs = {"device": "cuda"}
embeddings = HuggingFaceEmbeddings(
    model_name="/root/models/moka-ai-m3e-large", model_kwargs=model_kwargs)
settings = clickhouse.ClickhouseSettings(
    table="jd_docs_m3e_with_url_splited", username="default", password="xxxx", host="10.0.1.94")
ck_db = clickhouse.Clickhouse(embeddings, config=settings)
ck_retriever = ck_db.as_retriever(
    search_type="similarity", search_kwargs={"k": 3})


class question(BaseModel):
    content: str


@app.get("/")
async def root():
    return {"ok"}


@app.post("/retriever")
async def retriver(question: question):
    global ck_retriever
    result = ck_retriever.invoke(question.content)
    return result


if __name__ == '__main__':
    uvicorn.run(app='retriever_api:app', host="0.0.0.0",
                port=8000, reload=True)

返回結(jié)構(gòu)大概這樣:

[
  {
    "page_content": "云緩存 Redis--Redis遷移解決方案n###RedisSyncer 操作步驟n####數(shù)據(jù)校驗(yàn)n```nwget   https://github.com/TraceNature/rediscompare/releases/download/v1.0.0/rediscompare-1.0.0-linux-amd64.tar.gznrediscompare compare single2single --saddr "10.0.1.101:6479" --spassword "redistest0102" --taddr "10.0.1.102:6479" --tpassword  "redistest0102" --comparetimes 3nn```  n**Github 地址:** [https://github.com/TraceNature/redissyncer-server]("https://github.com/TraceNature/redissyncer-server")",
    "metadata": {
      "product": "云緩存 Redis",
      "source": "https://docs.jdcloud.com/cn/jcs-for-redis/doc-2",
      "title": "Redis遷移解決方案"
    },
    "type": "Document"
  },
  {
    "page_content": "云緩存 Redis--Redis遷移解決方案n###RedisSyncer 操作步驟n####數(shù)據(jù)校驗(yàn)n```nwget   https://github.com/TraceNature/rediscompare/releases/download/v1.0.0/rediscompare-1.0.0-linux-amd64.tar.gznrediscompare compare single2single --saddr "10.0.1.101:6479" --spassword "redistest0102" --taddr "10.0.1.102:6479" --tpassword  "redistest0102" --comparetimes 3nn```  n**Github 地址:** [https://github.com/TraceNature/redissyncer-server]("https://github.com/TraceNature/redissyncer-server")",
    "metadata": {
      "product": "云緩存 Redis",
      "source": "https://docs.jdcloud.com/cn/jcs-for-redis/doc-2",
      "title": "Redis遷移解決方案"
    },
    "type": "Document"
  },
  {
    "page_content": "云緩存 Redis--Redis遷移解決方案n###RedisSyncer 操作步驟n####數(shù)據(jù)校驗(yàn)n```nwget   https://github.com/TraceNature/rediscompare/releases/download/v1.0.0/rediscompare-1.0.0-linux-amd64.tar.gznrediscompare compare single2single --saddr "10.0.1.101:6479" --spassword "redistest0102" --taddr "10.0.1.102:6479" --tpassword  "redistest0102" --comparetimes 3nn```  n**Github 地址:** [https://github.com/TraceNature/redissyncer-server]("https://github.com/TraceNature/redissyncer-server")",
    "metadata": {
      "product": "云緩存 Redis",
      "source": "https://docs.jdcloud.com/cn/jcs-for-redis/doc-2",
      "title": "Redis遷移解決方案"
    },
    "type": "Document"
  }
]

返回一個(gè)向量距離最小的list

結(jié)合模型和prompt,回答問題

為了節(jié)約算力資源,我們選擇qwen 1.8B模型,一張v100卡剛好可以容納一個(gè)qwen模型和一個(gè)m3e-large embedding 模型

answer 服務(wù)

from fastapi import FastAPI
from pydantic import BaseModel
from langchain_community.llms import VLLM
from transformers import AutoTokenizer
from langchain.prompts import PromptTemplate
import requests
import uvicorn
import json
import logging

app = FastAPI()
app = FastAPI(docs_url=None)
app.host = "0.0.0.0"

logger = logging.getLogger()
logger.setLevel(logging.INFO)
to_console = logging.StreamHandler()
logger.addHandler(to_console)


# load model
# model_name = "/root/models/Llama3-Chinese-8B-Instruct"
model_name = "/root/models/Qwen1.5-1.8B-Chat"
tokenizer = AutoTokenizer.from_pretrained(model_name)
llm_llama3 = VLLM(
    model=model_name,
    tokenizer=tokenizer,
    task="text-generation",
    temperature=0.2,
    do_sample=True,
    repetition_penalty=1.1,
    return_full_text=False,
    max_new_tokens=900,
)

# prompt
prompt_template = """
你是一個(gè)云技術(shù)專家
使用以下檢索到的Context回答問題。
如果不知道答案,就說不知道。
用中文回答問題。
Question: {question}
Context: {context}
Answer: 
"""

prompt = PromptTemplate(
    input_variables=["context", "question"],
    template=prompt_template,
)


def get_context_list(q: str):
    url = "http://10.0.0.7:8000/retriever"
    payload = {"content": q}
    res = requests.post(url, json=payload)
    return res.text


class question(BaseModel):
    content: str


@app.get("/")
async def root():
    return {"ok"}


@app.post("/answer")
async def answer(q: question):
    logger.info("invoke!!!")
    global prompt
    global llm_llama3
    context_list_str = get_context_list(q.content)

    context_list = json.loads(context_list_str)
    context = ""
    source_list = []

    for context_json in context_list:
        context = context+context_json["page_content"]
        source_list.append(context_json["metadata"]["source"])
    p = prompt.format(context=context, question=q.content)
    answer = llm_llama3(p)
    result = {
        "answer": answer,
        "sources": source_list
    }
    return result


if __name__ == '__main__':
    uvicorn.run(app='retriever_api:app', host="0.0.0.0",
                port=8888, reload=True)

代碼通過使用Retriever接口查找與問題相似的文檔,作為context組合prompt推送給模型生成答案。
主要服務(wù)就緒后可以開始畫一張臉了,使用gradio做個(gè)簡(jiǎn)易對(duì)話界面

gradio 服務(wù)

import json
import gradio as gr
import requests


def greet(name, intensity):
    return "Hello, " + name + "!" * int(intensity)


def answer(question):
    url = "http://127.0.0.1:8888/answer"
    payload = {"content": question}
    res = requests.post(url, json=payload)
    res_json = json.loads(res.text)
    return [res_json["answer"], res_json["sources"]]


demo = gr.Interface(
    fn=answer,
    # inputs=["text", "slider"],
    inputs=[gr.Textbox(label="question", lines=5)],
    # outputs=[gr.TextArea(label="answer", lines=5),
    #          gr.JSON(label="urls", value=list)]
    outputs=[gr.Markdown(label="answer"),
             gr.JSON(label="urls", value=list)]
)


demo.launch(server_name="0.0.0.0")


審核編輯 黃宇
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • SQL
    SQL
    +關(guān)注

    關(guān)注

    1

    文章

    807

    瀏覽量

    46918
  • 數(shù)據(jù)庫(kù)
    +關(guān)注

    關(guān)注

    7

    文章

    4082

    瀏覽量

    68527
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    RAG、MCP與智能體:大模型落地的三道關(guān)

    大模型能力越來越強(qiáng),但落地沒那么快。從單次對(duì)話到多步任務(wù),中間隔著系統(tǒng)工程。這篇文章聊三個(gè)繞不開的技術(shù)方向:RAG、MCP和智能體。 、RAG
    的頭像 發(fā)表于 03-19 13:55 ?136次閱讀

    HPM知識(shí)庫(kù) | [EtherCAT] 從站運(yùn)行過程中報(bào)錯(cuò)(錯(cuò)誤碼:0x1A\\0x1B\\0x2C)的代碼分析

    HPM知識(shí)庫(kù)先楫半導(dǎo)體官方公眾號(hào)全新上線「HPM知識(shí)庫(kù)」專欄。我們將在這里不定期更新技術(shù)文檔、開發(fā)指南與實(shí)戰(zhàn)教程,打造先楫MCU開發(fā)的“站式技術(shù)參考指南”!了解更多,歡迎訪問https
    的頭像 發(fā)表于 03-13 08:34 ?255次閱讀
    HPM<b class='flag-5'>知識(shí)庫(kù)</b> | [EtherCAT] 從站運(yùn)行過程中報(bào)錯(cuò)(錯(cuò)誤碼:0x1A\\0x1B\\0x2C)的代碼分析

    開發(fā)知識(shí)庫(kù)測(cè)試添加知識(shí)庫(kù)

    文檔類型的知識(shí)要等待數(shù)據(jù)校驗(yàn)完成后才能上架 可以點(diǎn)擊知識(shí)名稱查看知識(shí)詳情 等待后端處理完成可以點(diǎn)擊知識(shí)列表的上架 在智能體中知識(shí)庫(kù)的位置點(diǎn)
    發(fā)表于 03-06 15:07

    鴻蒙智能體開發(fā)知識(shí)庫(kù)---創(chuàng)建知識(shí)庫(kù)

    在小藝智能體平臺(tái)頁(yè)面,通過【工作空間】-【知識(shí)庫(kù)】-【新建知識(shí)庫(kù)】,進(jìn)入新建知識(shí)庫(kù)流程。 若勾選【授權(quán)知識(shí)庫(kù)用于知識(shí)問答,授權(quán)后該
    發(fā)表于 03-06 10:18

    HPM知識(shí)庫(kù) | 力位混合控制庫(kù)使用指南

    概述力位混合控制(HybridForce-PositionControl)是種結(jié)合力控制和位置控制的阻抗控制方法,廣泛應(yīng)用于機(jī)器人關(guān)節(jié)控制、柔順裝配、人機(jī)交互等場(chǎng)景。本庫(kù)實(shí)現(xiàn)了
    的頭像 發(fā)表于 03-02 12:05 ?2024次閱讀
    HPM<b class='flag-5'>知識(shí)庫(kù)</b> | 力位混合控制<b class='flag-5'>庫(kù)</b>使用指南

    RAG(檢索增強(qiáng)生成)原理與實(shí)踐

    ,它通過結(jié)合外部知識(shí)庫(kù)和生成模型,顯著提升了AI回答的準(zhǔn)確性和時(shí)效性。 本文將深入探討RAG的核心原理,重點(diǎn)解析向量檢索和上下文注入兩大關(guān)鍵技術(shù),并提供實(shí)踐指導(dǎo)。 、RAG是什么?
    發(fā)表于 02-11 12:46

    設(shè)備維修總踩坑?故障知識(shí)庫(kù) + AI 診斷,新手也能修復(fù)雜機(jī)

    設(shè)備維修的核心痛點(diǎn),本質(zhì)是知識(shí)難沉淀、故障難預(yù)判。知識(shí)庫(kù)解決經(jīng)驗(yàn)傳承問題,AI診斷實(shí)現(xiàn)精準(zhǔn)高效,二者結(jié)合讓維修從“經(jīng)驗(yàn)依賴”轉(zhuǎn)向“標(biāo)準(zhǔn)化+智能輔助”。
    的頭像 發(fā)表于 01-08 14:04 ?521次閱讀
    設(shè)備維修總踩坑?故障<b class='flag-5'>知識(shí)庫(kù)</b> + AI 診斷,新手也能修復(fù)雜機(jī)

    openDACS 2025 開源EDA與芯片賽項(xiàng) 賽題七:基于大模型的生成式原理圖設(shè)計(jì)

    智能生成。 4. 賽題內(nèi)容 4.1賽題描述 本賽題要求參賽隊(duì)伍構(gòu)建合理規(guī)模的知識(shí)庫(kù),運(yùn)用提示詞工程,構(gòu)建個(gè)完整的生成式原理圖設(shè)計(jì)系統(tǒng)。 參賽系統(tǒng)
    發(fā)表于 11-13 11:49

    經(jīng)緯恒潤(rùn)亮相AICC人工智能計(jì)算大會(huì),以智能體技術(shù)助推汽車電子研發(fā)創(chuàng)新

    電氣開發(fā)與測(cè)試應(yīng)用的技術(shù)體系,并在此基礎(chǔ)上推出適配車企的知識(shí)庫(kù)系統(tǒng)和面向業(yè)務(wù)應(yīng)用的智能體系統(tǒng),旨在為企業(yè)提供高效、精準(zhǔn)的研發(fā)支持。
    的頭像 發(fā)表于 11-06 15:03 ?1719次閱讀
    經(jīng)緯恒潤(rùn)亮相AICC人工智能計(jì)算大會(huì),以智能體技術(shù)助推汽車電子研發(fā)創(chuàng)新

    RAG實(shí)踐:文掌握大模型RAG過程

    RAG(Retrieval-Augmented Generation,檢索增強(qiáng)生成), 種AI框架,將傳統(tǒng)的信息檢索系統(tǒng)(例如數(shù)據(jù)庫(kù))的優(yōu)勢(shì)與生成式大語言模型(LLM)的功能結(jié)合在
    的頭像 發(fā)表于 10-27 18:23 ?1704次閱讀
    <b class='flag-5'>RAG</b>實(shí)踐:<b class='flag-5'>一</b>文掌握大模型<b class='flag-5'>RAG</b>過程

    零基礎(chǔ)在智能硬件上克隆原神可莉?qū)崿F(xiàn)桌面陪伴(提供人設(shè)提示詞、知識(shí)庫(kù)、固件下載)

    和回復(fù)語的固件,直接下載燒錄就可以使用了) 詳細(xì)的人設(shè)提示詞、知識(shí)庫(kù)、固件下載地址已在文章末尾提供。 、創(chuàng)建配置可莉的基礎(chǔ)信息核心性格、語言習(xí)慣和行為特點(diǎn)等可以通過提示詞的方式進(jìn)行塑造,用電腦打開聆思
    發(fā)表于 08-22 19:51

    【「零基礎(chǔ)開發(fā)AI Agent」閱讀體驗(yàn)】操作實(shí)戰(zhàn),開發(fā)個(gè)編程助手智能體

    . 首先要理解智能體的相關(guān)概念 ,比如角色,限定,技能:包括插件等,知識(shí):包括知識(shí)庫(kù),文檔等等. 創(chuàng)建步驟: 二.創(chuàng)建智能體: 預(yù)覽和調(diào)試 智能體發(fā)布: 最后是使用智能體: 1.從coze
    發(fā)表于 05-27 11:16

    HarmonyOS5云服務(wù)技術(shù)分享--自有賬號(hào)對(duì)接AGC認(rèn)證

    agconnect-services.json文件到項(xiàng)目資源目錄 ? ??三、開發(fā)步驟(代碼示例+詳解)?? ??步驟1:生成自有賬號(hào)的JWT令牌?? 當(dāng)用戶在你的服務(wù)器登錄后,需生成個(gè)??JWT(JSON Web Token
    發(fā)表于 05-22 16:32

    在Cherry Studio中快速使用markitdown MCP Server?

    。 在使用RAG技術(shù)配置私有知識(shí)庫(kù)的過程中,由于RAG技術(shù)不能直接處理PDF這樣的非結(jié)構(gòu)化數(shù)據(jù),所以,必須使用轉(zhuǎn)換工具把PDF文檔轉(zhuǎn)換為RAG技術(shù)可以使用的結(jié)構(gòu)化數(shù)據(jù)文檔,例如:Mar
    的頭像 發(fā)表于 05-15 10:39 ?1676次閱讀
    在Cherry Studio中快速使用markitdown MCP Server?
    耒阳市| 钦州市| 得荣县| 武山县| 南木林县| 子洲县| 得荣县| 安丘市| 通河县| 靖州| 新龙县| 上栗县| 高尔夫| 自治县| 靖宇县| 曲麻莱县| 大邑县| 东海县| 榆林市| 金华市| 当雄县| 肇源县| 江北区| 读书| 利津县| 花莲市| 松江区| 思茅市| 阜平县| 浏阳市| 横山县| 河间市| 吉安县| 惠水县| 教育| 兰州市| 沈阳市| 威远县| 策勒县| 和顺县| 诸暨市|