哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA T4 GPU和TensorRT加速微信搜索速度

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:NVIDIA ? 2022-04-21 10:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

案例簡(jiǎn)介

騰訊公司利用NVIDIA TensorRT推理引擎的INT8推理能力和基于知識(shí)蒸餾的QAT訓(xùn)練,大大加速了微信中的搜索動(dòng)能,節(jié)省了約70%的計(jì)算資源。本案例主要應(yīng)用到NVIDIA T4 GPU和TensorRT。

客戶簡(jiǎn)介及應(yīng)用背景

隨著騰訊微信的發(fā)展,微信搜索也成為其越來(lái)越重要的功能,這個(gè)功能可以用來(lái)搜索微信內(nèi)部的賬號(hào)、信息,以及搜索互聯(lián)網(wǎng)上的內(nèi)容。微信搜索月活躍用戶數(shù)量達(dá)到五億以上。搜索業(yè)務(wù)當(dāng)中使用了大量的神經(jīng)網(wǎng)絡(luò)模型,包括自然語(yǔ)言理解、匹配排序等等,這些模型的訓(xùn)練和推理都大量依賴于NVIDIA GPU,尤其在推理方面,NVIDIA GPU及相應(yīng)的解決方案都滿足了業(yè)務(wù)所需的延遲和吞吐要求。

客戶挑戰(zhàn)

微信搜索業(yè)務(wù)由多個(gè)子模塊構(gòu)成,包括查詢理解、匹配、搜索排序等等。由于搜索的業(yè)務(wù)特點(diǎn),這些任務(wù)對(duì)線上服務(wù)的延遲和吞吐都十分敏感。然而在最近幾年,隨著算力的提升以及算法的創(chuàng)新,很多大型復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型開(kāi)始應(yīng)用在這些任務(wù)上,比如BERT/Transformer等模型。

這些大模型需要的計(jì)算資源和業(yè)務(wù)上的高要求對(duì)推理端的軟硬件都是很大的挑戰(zhàn),必須針對(duì)具體的硬件做極致的優(yōu)化。而且對(duì)于大模型的推理,很多技術(shù)被探索、應(yīng)用在這些場(chǎng)景上以便實(shí)現(xiàn)性能加速、節(jié)約資源,比如模型壓縮、剪枝、低精度計(jì)算等。這些技術(shù)可能會(huì)帶來(lái)精度下降等負(fù)面影響,限制了這些技術(shù)的廣泛應(yīng)用。因此,如何在保證精度效果以及服務(wù)吞吐延遲需求的情況下,高效地對(duì)這些模型進(jìn)行推理成為了業(yè)務(wù)上的巨大挑戰(zhàn)。NVIDIA GPU以及NVIDIA TensorRT給這一場(chǎng)景提供了解決方案。

應(yīng)用方案

為了滿足線上服務(wù)的需求,并且盡可能地節(jié)約成本,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來(lái)進(jìn)行線上大模型的推理。

線上服務(wù)對(duì)于吞吐和延遲有很高的要求,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來(lái)做線上推理服務(wù),利用NVIDIA基于TensorRT開(kāi)源的BERT實(shí)現(xiàn),可以很方便地在FP16精度下實(shí)現(xiàn)滿足需求的線上推理功能。這個(gè)方案在線上取得了很好的效果。

在此基礎(chǔ)上,微信搜索希望進(jìn)一步加快推理速度,節(jié)約計(jì)算資源,以便更好地服務(wù)用戶,節(jié)約成本。低精度推理成為了很好的選擇。NVIDIA GPU從圖靈(Turing)架構(gòu)開(kāi)始就有了INT8 Tensor Core,其計(jì)算吞吐量最高可達(dá)FP16精度的2倍。同時(shí)低精度推理跟其他的優(yōu)化方法也是正交的,可以同時(shí)使用其他技術(shù)比如剪枝、蒸餾等做進(jìn)一步提升。微信搜索線上大量使用NVIDIA T4 GPU,非常適合使用INT8推理。而且TensorRT對(duì)INT8推理也有良好的支持。利用TensorRT的“校準(zhǔn)”(Calibration)功能,能夠方便地將Float精度模型轉(zhuǎn)換為INT8低精度模型,實(shí)現(xiàn)低精度推理。通過(guò)低精度推理,模型的單次推理時(shí)間大大縮短。

通過(guò)“校準(zhǔn)”來(lái)做模型轉(zhuǎn)換已經(jīng)在很多計(jì)算機(jī)視覺(jué)模型上被驗(yàn)證是十分有效的,并且其精度和推理性能都十分優(yōu)秀。然而對(duì)于像BERT一類的模型, “校準(zhǔn)” 無(wú)法使得精度和性能都完全令人滿意。因此,騰訊搜索使用了NVIDIA開(kāi)發(fā)的基于PyTorch/TensorFlow的量化工具進(jìn)行基于知識(shí)蒸餾的量化感知訓(xùn)練(Quantization Aware Training)克服精度下降的問(wèn)題。TensorRT對(duì)于導(dǎo)入量化感知訓(xùn)練好的模型進(jìn)行INT8低精度推理有著很好的支持。導(dǎo)入這樣的模型,不僅得到了最佳性能,而且精度沒(méi)有損失,線上服務(wù)只需更換TensorRT構(gòu)建好的引擎即可,極大地簡(jiǎn)化了部署的流程。

通過(guò)這樣的方案,微信搜索中的一些關(guān)鍵任務(wù),比如查詢理解等自然語(yǔ)言理解任務(wù),可以在精度沒(méi)有損失的情況下,達(dá)到2-10倍的加速效果,平均單句推理時(shí)間達(dá)到了0.1ms。任務(wù)相應(yīng)的計(jì)算資源節(jié)省了約70%。這個(gè)方案大大優(yōu)化了微信搜索業(yè)務(wù)的性能,降低了部署成本。

使用效果及影響

使用NVIDIA T4 GPU以及TensorRT推理引擎進(jìn)行INT8低精度推理,極大提升了微信搜索的速度,進(jìn)一步提升了用戶體驗(yàn),節(jié)約了公司成本。

微信搜索的Hui Liu、Raccoon Liu和Dick Zhu表示:”我們已經(jīng)實(shí)現(xiàn)了基于TensorRT和INT8 QAT的模型推理加速,以加速微信搜索的核心任務(wù),包括Query理解和查詢結(jié)果排序等。我們用GPU+TensorRT的解決方案突破了NLP模型復(fù)雜性的限制,BERT/Transformer可以完全集成到我們的解決方案中。此外,我們利用卓越的性能優(yōu)化方法,節(jié)省了70%的計(jì)算資源?!?/p>

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5682

    瀏覽量

    110109
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5268

    瀏覽量

    136054
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7838

    瀏覽量

    93451
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NVIDIA向Kubernetes社區(qū)捐贈(zèng)動(dòng)態(tài)資源分配GPU驅(qū)動(dòng)程序

    此外,NVIDIA 在 KubeCon Europe 大會(huì)上宣布推出適用于 GPU 加速工作負(fù)載的機(jī)密容器解決方案、NVIDIA KAI Scheduler 更新,以及用于實(shí)現(xiàn)大規(guī)模
    的頭像 發(fā)表于 04-01 09:10 ?698次閱讀

    Oracle和NVIDIA合作加速向量搜索和企業(yè)數(shù)據(jù)處理

    Oracle 和 NVIDIA 正在與客戶合作,將 GPU 加速的向量索引構(gòu)建應(yīng)用于實(shí)際工作負(fù)載。Oracle Private AI Services Container 初期支持 CPU 執(zhí)行,現(xiàn)
    的頭像 發(fā)表于 03-23 15:26 ?417次閱讀

    KIOXIA單服務(wù)器實(shí)現(xiàn)48億高維向量搜索數(shù)據(jù)庫(kù),借助GPU實(shí)現(xiàn)索引構(gòu)建時(shí)間加速7.8倍

    通過(guò)NVIDIA cuVS利用GPU加速,顯著縮短索引構(gòu)建時(shí)間的成果。這兩項(xiàng)成果標(biāo)志著檢索增強(qiáng)生成(RAG)搜索解決方案取得了重大進(jìn)展。目前公司正持續(xù)開(kāi)發(fā),以支持超過(guò)48億向量的更大規(guī)
    的頭像 發(fā)表于 03-18 16:57 ?1050次閱讀

    本地部署公眾號(hào)文章搜索MCP服務(wù)并實(shí)現(xiàn)遠(yuǎn)程訪問(wèn)

    本文介紹如何在本地部署基于FastAPI的公眾號(hào)文章搜索MCP服務(wù),并通過(guò)內(nèi)網(wǎng)穿透實(shí)現(xiàn)公網(wǎng)訪問(wèn),支持關(guān)鍵詞搜索。
    的頭像 發(fā)表于 01-12 14:58 ?1047次閱讀
    本地部署<b class='flag-5'>微</b><b class='flag-5'>信</b>公眾號(hào)文章<b class='flag-5'>搜索</b>MCP服務(wù)并實(shí)現(xiàn)遠(yuǎn)程訪問(wèn)

    RSoft GPU加速技術(shù)重塑光子元件設(shè)計(jì)效率革命

    設(shè)計(jì)效率。為了解決這個(gè)問(wèn)題,RSoft 光子器件工具的 FullWAVE FDTD 模組中引入 GPU 加速,通過(guò) NVIDIA GPU 的平行運(yùn)算能力,使得模擬
    的頭像 發(fā)表于 01-12 14:09 ?399次閱讀
    RSoft <b class='flag-5'>GPU</b><b class='flag-5'>加速</b>技術(shù)重塑光子元件設(shè)計(jì)效率革命

    NVIDIA RTX PRO 5000 Blackwell GPU的深度評(píng)測(cè)

    NVIDIA RTX PRO 5000 Blackwell 是 NVIDIA RTX 5000 Ada Generation 的升級(jí)迭代產(chǎn)品,其各項(xiàng)核心指標(biāo)均針對(duì) GPU 加速工作流的
    的頭像 發(fā)表于 01-06 09:51 ?3931次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 5000 Blackwell <b class='flag-5'>GPU</b>的深度評(píng)測(cè)

    NVIDIA RTX PRO 2000 Blackwell GPU性能測(cè)試

    越來(lái)越多的應(yīng)用正在使用 AI 加速,而無(wú)論工作站的大小或形態(tài)如何,都有越來(lái)越多的用戶需要 AI 性能。NVIDIA RTX PRO 2000 Blackwell 是全新 NVIDIA
    的頭像 發(fā)表于 11-28 09:39 ?6957次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 2000 Blackwell <b class='flag-5'>GPU</b>性能測(cè)試

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標(biāo)是突破 NVIDIA 平臺(tái)上的推理性能瓶頸。為實(shí)現(xiàn)這一目標(biāo),其構(gòu)建了多維度的核心實(shí)現(xiàn)路徑:一方面,針對(duì)需
    的頭像 發(fā)表于 10-21 11:04 ?1392次閱讀

    DeepSeek R1 MTP在TensorRT-LLM中的實(shí)現(xiàn)與優(yōu)化

    TensorRT-LLM 在 NVIDIA Blackwell GPU 上創(chuàng)下了 DeepSeek-R1 推理性能的世界紀(jì)錄,Multi-Token Prediction (MTP) 實(shí)現(xiàn)了大幅提速
    的頭像 發(fā)表于 08-30 15:47 ?4667次閱讀
    DeepSeek R1 MTP在<b class='flag-5'>TensorRT</b>-LLM中的實(shí)現(xiàn)與優(yōu)化

    NVIDIA RTX PRO 4500 Blackwell GPU測(cè)試分析

    今天我們帶來(lái)全新 NVIDIA Blackwell 架構(gòu) GPU —— NVIDIA RTX PRO 4500 Blackwell 的測(cè)試,對(duì)比上一代產(chǎn)品 NVIDIA RTX 450
    的頭像 發(fā)表于 08-28 11:02 ?4340次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 4500 Blackwell <b class='flag-5'>GPU</b>測(cè)試分析

    NVIDIA桌面GPU系列擴(kuò)展新產(chǎn)品

    NVIDIA 桌面 GPU 系列擴(kuò)展,推出 NVIDIA RTX PRO 4000 SFF Edition GPU 和 RTX PRO 2000 Blackwell
    的頭像 發(fā)表于 08-18 11:50 ?1629次閱讀

    NVIDIA RTX AI加速FLUX.1 Kontext現(xiàn)已開(kāi)放下載

    NVIDIA RTX 與 NVIDIA TensorRT 現(xiàn)已加速 Black Forest Labs 的最新圖像生成和編輯模型;此外,Gemma 3n 現(xiàn)可借助 RTX 和
    的頭像 發(fā)表于 07-16 09:16 ?2167次閱讀

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開(kāi)源庫(kù),可幫助開(kāi)發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)品部署。
    的頭像 發(fā)表于 07-04 14:38 ?2404次閱讀

    NVIDIA Blackwell GPU優(yōu)化DeepSeek-R1性能 打破DeepSeek-R1在最小延遲場(chǎng)景中的性能紀(jì)錄

    本文將探討 NVIDIA TensorRT-LLM 如何基于 8 個(gè) NVIDIA Blackwell GPU 的配置,打破 DeepSeek-R1 在最小延遲場(chǎng)景中的性能紀(jì)錄:在 G
    的頭像 發(fā)表于 07-02 19:31 ?3554次閱讀
    <b class='flag-5'>NVIDIA</b> Blackwell <b class='flag-5'>GPU</b>優(yōu)化DeepSeek-R1性能 打破DeepSeek-R1在最小延遲場(chǎng)景中的性能紀(jì)錄

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

    針對(duì)基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Love
    的頭像 發(fā)表于 06-12 15:37 ?2059次閱讀
    使用<b class='flag-5'>NVIDIA</b> Triton和<b class='flag-5'>TensorRT</b>-LLM部署TTS應(yīng)用的最佳實(shí)踐
    池州市| 三门县| 嘉黎县| 扬中市| 合江县| 于田县| 凤阳县| 阿拉尔市| 全椒县| 南岸区| 阳山县| 仲巴县| 临沧市| 岳池县| 保康县| 曲阜市| 建阳市| 临沂市| 临漳县| 清苑县| 青州市| 平遥县| 拉萨市| 奈曼旗| 盈江县| 咸宁市| 七台河市| 乌鲁木齐县| 巴林右旗| 龙门县| 富锦市| 镇雄县| 龙岩市| 宁津县| 张家川| 鹤壁市| 南和县| 望奎县| 广饶县| 津市市| 陇西县|