哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA RTX AI套件簡化AI驅(qū)動(dòng)的應(yīng)用開發(fā)

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2024-09-06 14:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NVIDIA 于近日發(fā)布NVIDIA RTX AI套件,這一工具和 SDK 集合能夠幫助 Windows 應(yīng)用開發(fā)者定制、優(yōu)化和部署適用于 Windows 應(yīng)用的 AI 模型。該套件免費(fèi)提供,不要求使用者具備 AI 框架和開發(fā)工具方面的經(jīng)驗(yàn),并且可以為本地和云端部署提供絕佳的 AI 性能。

生成式預(yù)訓(xùn)練轉(zhuǎn)換器(GPT)模型的普及為 Windows 開發(fā)者創(chuàng)造了將 AI 功能集成到應(yīng)用中的絕佳機(jī)會(huì)。但要實(shí)現(xiàn)這些功能仍面臨著巨大的挑戰(zhàn)。首先,您需要根據(jù)應(yīng)用的特定需求來定制模型。其次,需要優(yōu)化模型,使其在適應(yīng)各種硬件的同時(shí),仍然能夠提供絕佳的性能。之后,需要一條同時(shí)適用于云端和本地 AI 的簡便部署路徑。

NVIDIA RTX AI 套件為 Windows 應(yīng)用開發(fā)者提供了端到端工作流。您可以根據(jù)應(yīng)用的特定要求,使用常用的微調(diào)技術(shù)對(duì) Hugging Face 的預(yù)訓(xùn)練模型進(jìn)行定制,并將它們量化到適合消費(fèi)類 PC 的規(guī)模。然后,可以對(duì)它們進(jìn)行優(yōu)化,使其能夠在整個(gè)NVIDIA GeForce RTX GPU系列以及云端 NVIDIA GPU 上發(fā)揮絕佳性能。

當(dāng)需要部署時(shí),無論您是選擇將經(jīng)過優(yōu)化的模型與應(yīng)用捆綁在一起,還是在應(yīng)用安裝/更新時(shí)下載模型,亦或是建立一個(gè)云微服務(wù),RTX AI 套件都能提供多種途徑來滿足您的應(yīng)用需求。該套件還包含NVIDIA AI 推理管理器(AIM)SDK,能夠根據(jù)用戶的系統(tǒng)配置或當(dāng)前的工作負(fù)載讓應(yīng)用在本地或云端運(yùn)行 AI。

適用于各種應(yīng)用的強(qiáng)大定制 AI

當(dāng)今的生成式模型在龐大的數(shù)據(jù)集上訓(xùn)練而成。整個(gè)訓(xùn)練過程可能需要數(shù)周時(shí)間,并使用數(shù)百顆全球最強(qiáng)大的 GPU。雖然這些計(jì)算資源對(duì)大多數(shù)開發(fā)者來說遙不可及,但開源預(yù)訓(xùn)練模型可以讓您獲得強(qiáng)大的 AI 功能。

開源預(yù)訓(xùn)練基礎(chǔ)模型通常在通用數(shù)據(jù)集上訓(xùn)練而成,因此在各種任務(wù)中都能夠提供不錯(cuò)的結(jié)果。但應(yīng)用往往需要專門的行為,例如游戲角色需要以特定的方式說話、科學(xué)寫作助手需要理解特定行業(yè)的術(shù)語等。

微調(diào)是一種可以根據(jù)應(yīng)用需求,在額外的數(shù)據(jù)上對(duì)預(yù)訓(xùn)練模型進(jìn)行進(jìn)一步訓(xùn)練的技術(shù),例如游戲角色的對(duì)話示例。

RTX AI 套件包含NVIDIA AI Workbench等支持微調(diào)的工具。今年早些時(shí)候發(fā)布的 AI Workbench 是一款用于在本地 RTX GPU 和云端中組織并運(yùn)行模型訓(xùn)練、調(diào)優(yōu)與優(yōu)化項(xiàng)目的工具。RTX AI 套件還包含使用 QLoRA 進(jìn)行微調(diào)的 AI Workbench 項(xiàng)目,QLoRA 是當(dāng)今最常用、效果最好的技術(shù)之一。

為了實(shí)現(xiàn)參數(shù)高效微調(diào),該套件使用 Hugging Face Transformer 庫來充分發(fā)揮 QLoRA 的作用,在減少內(nèi)存使用的同時(shí)實(shí)現(xiàn)了定制化,而且可以在搭載 RTX GPU 的客戶端設(shè)備上高效運(yùn)行。

微調(diào)完成后的下一步是優(yōu)化。

針對(duì) PC 和云端進(jìn)行優(yōu)化

AI 模型優(yōu)化需要解決兩大難題。首先,PC 用于運(yùn)行 AI 模型的內(nèi)存和計(jì)算資源有限。其次,PC 和云端之間存在各種具有不同功能的目標(biāo)硬件。

RTX AI 套件包含以下用于優(yōu)化 AI 模型并使其作好部署準(zhǔn)備的工具。

NVIDIA TensorRT 模型優(yōu)化器:即使較小的 LLM 也需要 14 GB 或以上的內(nèi)存。適用于 Windows 的 NVIDIA TensorRT 模型優(yōu)化器正式發(fā)布,它所提供的模型量化工具可在不顯著降低準(zhǔn)確性的情況下,將模型規(guī)模最多縮小至原來的三分之一。其中的 INT4 AWQ 后訓(xùn)練量化等方法便于在 RTX GPU 上運(yùn)行最先進(jìn)的 LLM。這樣一來,較小的模型不僅可以更加容易地適應(yīng)典型系統(tǒng)上可用的 GPU 內(nèi)存,還能通過減少內(nèi)存帶寬瓶頸來提高性能。

NVIDIA TensorRT Cloud:為了在每個(gè)系統(tǒng)上都能獲得絕佳的性能,可以針對(duì)每個(gè) GPU 專門優(yōu)化模型。當(dāng)前推出的NVIDIA TensorRT Cloud開發(fā)者預(yù)覽版是一項(xiàng)云服務(wù),用于為 PC 中的 RTX GPU 以及云端中的 GPU 構(gòu)建經(jīng)過優(yōu)化的模型引擎。它還為流行的生成式 AI 模型提供了預(yù)構(gòu)建的減重引擎,這些引擎可與微調(diào)的權(quán)重合并成優(yōu)化的引擎。與預(yù)訓(xùn)練模型相比,使用 TensorRT Cloud 構(gòu)建并使用 TensorRT 運(yùn)行時(shí)運(yùn)行的引擎可以實(shí)現(xiàn)高達(dá) 4 倍的性能提升。

優(yōu)化微調(diào)模型后的下一步是部署。

開發(fā)一次即可實(shí)現(xiàn)隨處部署

如果您的應(yīng)用能夠在本地或云端執(zhí)行推理,就能為大多數(shù)用戶提供絕佳的體驗(yàn)。將模型部署在設(shè)備上可以實(shí)現(xiàn)更低的延遲,并且不需要在運(yùn)行時(shí)調(diào)用云,但對(duì)硬件有一定的要求。將模型部署在云端則可以支持在任何硬件上運(yùn)行的應(yīng)用,但服務(wù)提供商需要承擔(dān)持續(xù)的運(yùn)營成本。在完成模型開發(fā)后,您就可以使用 RTX AI 套件將其部署到任意位置,且該套件中的工具既適用于設(shè)備端路徑,也適用于云端路徑,例如:

NVIDIA AI 推理管理器(AIM):當(dāng)前推出的 AIM 搶先體驗(yàn)版為 PC 開發(fā)者簡化了 AI 集成的復(fù)雜性,并且可以在 PC 端和云端無縫協(xié)調(diào) AI 推理。NVIDIA AIM 利用必要的 AI 模型、引擎和依賴關(guān)系對(duì) PC 環(huán)境進(jìn)行預(yù)配置,并支持 GPU、NPU、CPU 等各種不同加速器的所有主要推理后端(TensorRT、ONNX Runtime、GGUF、Pytorch)。它還能執(zhí)行運(yùn)行時(shí)兼容性檢查,以此確定 PC 是否能在本地運(yùn)行模型,或者根據(jù)開發(fā)者策略切換到云端。

借助 NVIDIA AIM,開發(fā)者既可以利用NVIDIA NIM在云端進(jìn)行部署,也可以利用 TensorRT 等工具在本地設(shè)備上進(jìn)行部署。

NVIDIA NIM:NVIDIA NIM 是一套易于使用的微服務(wù),能夠加速云、數(shù)據(jù)中心和工作站中的生成式 AI 模型部署。NIM 屬于NVIDIA AI Enterprise軟件套裝的一部分。RTX AI 套件提供的工具可將經(jīng)過優(yōu)化的模型與其依賴關(guān)系打包并上傳至?xí)捍娣?wù)器,然后啟動(dòng) NIM。這一步將調(diào)入經(jīng)過優(yōu)化的模型,并創(chuàng)建一個(gè)端點(diǎn)供應(yīng)用調(diào)用。

您還可以使用 NVIDIA AI 推理管理器(AIM)插件在設(shè)備上部署模型,有助于管理本地和云推理的細(xì)節(jié),減輕開發(fā)者的集成負(fù)擔(dān)。

NVIDIA TensorRT:NVIDIA TensorRT 10.0和TensorRT-LLM推理后端為配備張量核的 NVIDIA GPU 提供同類產(chǎn)品中的最佳性能。新發(fā)布的 TensorRT 10.0 簡化了將 AI 模型部署到 Windows 應(yīng)用中的流程。減重引擎可壓縮 99% 以上的已編譯引擎大小,因此可直接在終端用戶設(shè)備上使用模型權(quán)重對(duì)其進(jìn)行重新調(diào)整。此外,TensorRT 還為 AI 模型提供軟硬件前向兼容性,使其能與較新的運(yùn)行時(shí)或硬件配合使用。TensorRT-LLM 加入了在 RTX GPU 上加速生成式 AI LLM 和 SLM 的專門優(yōu)化措施,可進(jìn)一步加速 LLM 推理。

?這些工具使開發(fā)者能夠在應(yīng)用運(yùn)行時(shí)準(zhǔn)備好模型。

RTX AI 加速生態(tài)系統(tǒng)

包括 Adobe、Blackmagic Design、Topaz Labs 等在內(nèi)的頂尖創(chuàng)意獨(dú)立軟件開發(fā)商(ISV)正在將 NVIDIA RTX AI 套件集成到他們的應(yīng)用中,以提供在 RTX PC 上運(yùn)行的 AI 加速應(yīng)用,從而提升數(shù)百萬創(chuàng)作者的用戶體驗(yàn)。

如果您想要在 RTX PC 上構(gòu)建基于 RAG 和智能體的加速工作流,可以通過 LangChain 和 LlamaIndex 等開發(fā)者框架獲得 RTX AI 套件的功能和組件(如 TensorRT-LLM)。此外,常用的生態(tài)系統(tǒng)工具(如 Automatic1111、Comfy.UI、Jan.AI、OobaBooga 和 Sanctum.AI)也可通過 RTX AI 套件實(shí)現(xiàn)加速。通過這些集成,您可以輕松構(gòu)建經(jīng)過優(yōu)化的 AI 加速應(yīng)用,將其部署到設(shè)備和云端 GPU 上,并在應(yīng)用中實(shí)現(xiàn)能夠在各種本地和云環(huán)境中運(yùn)行推理的混合功能。

將強(qiáng)大的 AI

加入到 Windows 應(yīng)用中

NVIDIA RTX AI 套件為 Windows 應(yīng)用開發(fā)者提供了一套端到端工作流,使他們能夠充分利用預(yù)訓(xùn)練模型,對(duì)這些模型進(jìn)行定制和優(yōu)化,并將它們部署到本地或云端運(yùn)行。借助快速、強(qiáng)大的混合 AI,由 AI 驅(qū)動(dòng)的應(yīng)用既能夠快速擴(kuò)展,又能在各個(gè)系統(tǒng)上提供絕佳的性能。RTX AI 套件使您能夠?yàn)楦嘤脩魩砀嘤?AI 驅(qū)動(dòng)的功能,讓用戶在游戲、生產(chǎn)、內(nèi)容創(chuàng)建等所有活動(dòng)中都能享受到 AI 所帶來的好處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5694

    瀏覽量

    110119
  • WINDOWS
    +關(guān)注

    關(guān)注

    4

    文章

    3706

    瀏覽量

    94330
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41156

    瀏覽量

    302622
  • 應(yīng)用開發(fā)
    +關(guān)注

    關(guān)注

    0

    文章

    64

    瀏覽量

    9993

原文標(biāo)題:借助適用于 Windows RTX PC 的 NVIDIA RTX AI 套件簡化 AI 驅(qū)動(dòng)的應(yīng)用開發(fā)

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Vibe Coding AI全棧開發(fā)實(shí)戰(zhàn)

    門檻 Vibe Coding的核心在于自然語言驅(qū)動(dòng)開發(fā)。開發(fā)者無需掌握復(fù)雜的編程語法和框架細(xì)節(jié),只需用日常語言描述需求,AI就能理解并生成相應(yīng)的代碼。這種交互方式極大地降低了技術(shù)門檻,
    發(fā)表于 04-15 16:02

    NVIDIA和ComfyUI攜手簡化本地AI視頻生成工作流

    借助 ComfyUI 的應(yīng)用視圖、NVIDIA RTX Video 超分辨率和全新的 NVFP4 模型,AI 驅(qū)動(dòng)的視頻生成更加易用。
    的頭像 發(fā)表于 03-14 16:37 ?2508次閱讀
    <b class='flag-5'>NVIDIA</b>和ComfyUI攜手<b class='flag-5'>簡化</b>本地<b class='flag-5'>AI</b>視頻生成工作流

    AI端側(cè)部署開發(fā)(SC171開發(fā)套件V2-FAS)

    AI端側(cè)部署開發(fā)(SC171開發(fā)套件V2-FAS) 序列 課程名稱 視頻課程時(shí)長 視頻課程鏈接 課件鏈接 工程源碼 1 Fibo AI Stack模型轉(zhuǎn)化指南 27分19秒 https
    發(fā)表于 02-11 11:44

    AI端側(cè)部署開發(fā)(SC171開發(fā)套件V3)2026版

    AI端側(cè)部署開發(fā)(SC171開發(fā)套件V3)2026版 序列 課程名稱 視頻課程時(shí)長 視頻課程鏈接 課件鏈接 工程源碼 1 Fibo AI Stack模型轉(zhuǎn)化指南 27分19秒 http
    發(fā)表于 01-15 10:31

    生命科學(xué)領(lǐng)先企業(yè)采用 NVIDIA BioNeMo 平臺(tái)加速 AI 驅(qū)動(dòng)的藥物研發(fā)

    —— NVIDIA 近日宣布對(duì) NVIDIA BioNeMo? 進(jìn)行重大擴(kuò)展, 將通過一個(gè)開放式開發(fā)平臺(tái)支持實(shí)現(xiàn)實(shí)驗(yàn)室閉環(huán)(lab-in-the-loop)工作流,以推動(dòng) AI
    的頭像 發(fā)表于 01-14 11:40 ?662次閱讀
    生命科學(xué)領(lǐng)先企業(yè)采用 <b class='flag-5'>NVIDIA</b> BioNeMo 平臺(tái)加速 <b class='flag-5'>AI</b> <b class='flag-5'>驅(qū)動(dòng)</b>的藥物研發(fā)

    利用NVIDIA Cosmos開放世界基礎(chǔ)模型加速物理AI開發(fā)

    NVIDIA 最近發(fā)布了 NVIDIA Cosmos 開放世界基礎(chǔ)模型(WFM)的更新,旨在加速物理 AI 模型的測(cè)試與驗(yàn)證數(shù)據(jù)生成。借助 NVIDIA Omniverse 庫和 Co
    的頭像 發(fā)表于 12-01 09:25 ?1445次閱讀

    NVIDIA RTX PRO 2000 Blackwell GPU性能測(cè)試

    越來越多的應(yīng)用正在使用 AI 加速,而無論工作站的大小或形態(tài)如何,都有越來越多的用戶需要 AI 性能。NVIDIA RTX PRO 2000 Blackwell 是全新
    的頭像 發(fā)表于 11-28 09:39 ?7031次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>RTX</b> PRO 2000 Blackwell GPU性能測(cè)試

    MediaTek攜手NVIDIA開啟個(gè)人AI算力新紀(jì)元

    Spark 助力開發(fā)者能在本地端對(duì)大型 AI 模型進(jìn)行原型設(shè)計(jì)(Prototype)、微調(diào)(Fine-tune)和推理(Inference)。NVIDIA DGX Spark 將于 10 月 15 日上市,將
    的頭像 發(fā)表于 10-16 11:26 ?940次閱讀

    NVIDIA DRIVE AGX Thor開發(fā)套件重磅發(fā)布

    這款由 NVIDIA DriveOS 7 驅(qū)動(dòng)開發(fā)套件能夠幫助開發(fā)者們打造出更安全的智能汽車和交通解決方案。
    的頭像 發(fā)表于 09-04 11:20 ?1611次閱讀

    NVIDIA Jetson AGX Thor開發(fā)套件重磅發(fā)布

    開發(fā)者與未來創(chuàng)造者們,準(zhǔn)備好迎接邊緣AI的史詩級(jí)革新了嗎?NVIDIA以顛覆性技術(shù)再次突破極限,正式推出Jetson AGX Thor開發(fā)套件
    的頭像 發(fā)表于 08-28 14:31 ?1773次閱讀

    NVIDIA Jetson AGX Thor開發(fā)套件概述

    NVIDIA Jetson AGX Thor 開發(fā)套件為您提供出色的性能和可擴(kuò)展性。它由 NVIDIA Blackwell GPU和128 GB 顯存提供動(dòng)力支持,提供高達(dá) 2070
    的頭像 發(fā)表于 08-11 15:03 ?2083次閱讀

    NVIDIA RTX AI加速FLUX.1 Kontext現(xiàn)已開放下載

    NVIDIA RTXNVIDIA TensorRT 現(xiàn)已加速 Black Forest Labs 的最新圖像生成和編輯模型;此外,Gemma 3n 現(xiàn)可借助 RTX
    的頭像 發(fā)表于 07-16 09:16 ?2186次閱讀

    制作團(tuán)隊(duì)如何借助NVIDIA RTX AI讓創(chuàng)意成真

    藝術(shù)家和開發(fā)者已經(jīng)在利用生成式 AI 簡化工作、突破創(chuàng)意邊界,無論是探索概念、設(shè)計(jì)虛擬世界還是構(gòu)建智能應(yīng)用。借助 RTX AI PC,用戶能
    的頭像 發(fā)表于 07-09 16:28 ?939次閱讀

    NVIDIA技術(shù)助力企業(yè)創(chuàng)建主權(quán)AI智能體

    AI Factory 的經(jīng)驗(yàn)證設(shè)計(jì)將加速基礎(chǔ)設(shè)施與軟件(包括全新 NVIDIA NIM 微服務(wù)和經(jīng)擴(kuò)展的 NVIDIA Blueprint)相結(jié)合,為各國和企業(yè)簡化了全棧式
    的頭像 發(fā)表于 06-16 14:28 ?1536次閱讀

    NVIDIA計(jì)劃打造全球首個(gè)工業(yè)AI云平臺(tái)

    NVIDIA 宣布,其正在為歐洲制造商構(gòu)建全球首個(gè)工業(yè) AI 云。這家總部位于德國的 AI 工廠將配備 1 萬個(gè) GPU,包括通過 NVIDIA DGX B200 系統(tǒng) 和
    的頭像 發(fā)表于 06-16 14:17 ?1625次閱讀
    盐山县| 香港| 宁晋县| 塔城市| 台南市| 农安县| 襄汾县| 涞水县| 永登县| 仁怀市| 黄冈市| 萍乡市| 鄱阳县| 永和县| 甘肃省| 衡山县| 桐城市| 阿坝| 防城港市| 孟州市| 新民市| 腾冲县| 永丰县| 阜新| 汶川县| 长泰县| 寻甸| 长沙市| 科技| 腾冲县| 辽阳市| 谢通门县| 青岛市| 福贡县| 浙江省| 德阳市| 文水县| 正阳县| 莎车县| 拜泉县| 韶山市|