哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT炒熱GPU,ASIC和FPGA能否分一杯羹?

E4Life ? 來源:電子發(fā)燒友網(wǎng) ? 作者:周凱揚(yáng) ? 2023-02-22 09:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報道(文/周凱揚(yáng))ChatGPT的出現(xiàn),對于數(shù)據(jù)中心硬件市場無疑是一針強(qiáng)心劑,不少GPU廠商更是從中受益,從再度興起的聊天機(jī)器人潮流中收獲了更多訂單。那么對于ChatGPT這類對AI算力有著不小需求的應(yīng)用來說,ASICFPGA是否也能借上這股東風(fēng)呢?

不同硬件的成本對比

機(jī)器學(xué)習(xí)推理場景中,除了GPU外,還有一大通用AI硬件適合這一負(fù)載,那就是FPGA。與GPU一樣,在技術(shù)和算法還未成熟且仍在打磨階段時,可以隨時重新編程改變芯片功能的FPGA架構(gòu)前期硬件成本顯著低于GPU。在推理性能上,現(xiàn)如今的FPGA加速卡算力遠(yuǎn)超CPU,甚至高過不少GPU產(chǎn)品。

而且在ChatGPT這樣的聊天機(jī)器人應(yīng)用上,將FPGA用于推理得以發(fā)揮其最大的優(yōu)勢,那就是高吞吐量和低時延。更高的吞吐量和更低的時延也就意味著更大的并發(fā),對ChatGPT這種應(yīng)用來說可以極大增強(qiáng)其響應(yīng)速度。
CleanShot 2023-02-21 at 16.13.39@2x
Alveo V70推理加速卡 / AMD
但隨著算法和模型逐漸成熟,F(xiàn)PGA在成本上的優(yōu)勢就慢慢不存在了,在大語言模型上需要用到更多的硬件,而FPGA量產(chǎn)規(guī)模的單價成本還是太高了,一旦擴(kuò)充至成千上萬張加速卡,其成本也是不小的。比如AMD推出的新加速卡Alveo V70,據(jù)傳單卡價格就在2000美元左右。如果我們以INT8精度來衡量算力的話,假設(shè)ChatGPT需要28936塊A100 GPU,那么改用Alveo V70的話,也需要44693塊加速卡。

所以還是有不少人將目光投向了量產(chǎn)規(guī)模成本更低的ASIC,比如谷歌就選擇用自研的TPU來部署其聊天機(jī)器人Bard。ASIC方案在單芯片算力上或許不是最高的,但計算效率卻是最高的,而且隨著量產(chǎn)化單片成本會逐漸降低。比如谷歌的單個TPU v4 Pod就集成了4096個TPU v4芯片,單芯片的BF16算力達(dá)到275TFLOPS,已經(jīng)相當(dāng)接近A100單卡峰值算力了。如果只是這樣簡單換算的話,只需幾個TPU v4 Pod,就能滿足與ChatGPT同量級的應(yīng)用了。

不過ASIC方案并沒有我們想象得那么美好,首先這類硬件的前期設(shè)計成本較大,要想投入數(shù)據(jù)中心商用,必須組建強(qiáng)大的硬件設(shè)計和軟件開發(fā)團(tuán)隊,這樣才能有與GPU相抗衡的性能。其次,因為本身專用硬件的特性,專用于機(jī)器學(xué)習(xí)推理的ASIC方案很難最大化數(shù)據(jù)中心的硬件利用率,不像GPU還可以同時用于訓(xùn)練、視頻編解碼等等。

搭建屬于自己的ChatGPT的成本有多高

對于GPT-3這樣的大型模型來說,要想個人搭建和部署從成本上看肯定不是實惠的選擇,所以我們可以選擇其他的模型,比如Meta推出的1750億參數(shù)OPT-175B模型。加州大學(xué)伯克利分校的Sky Lab就借助該模型推出了一個開源系統(tǒng)Alpa,同時具備聊天機(jī)器人、翻譯、代碼編寫和數(shù)學(xué)計算的功能。

要想部署OPT-175B模型并搭建Alpa這樣的文字聊天應(yīng)用,對GPU的要求要遠(yuǎn)遠(yuǎn)小于ChatGPT。但這是建立在其本身響應(yīng)速度和功能特性就顯著弱于ChatGPT的情況下,比如一旦設(shè)定的回答長度過長,就需要等上數(shù)十秒,何況它列出的GPU需求也不算小。

根據(jù)Alpa的官方說明,雖然不需要用到最新一代的A100 80GB這樣價格高昂的GPU或是InfiniBand這樣先進(jìn)的互聯(lián)方案,但對顯存的最低要求也已經(jīng)達(dá)到了350GB。所以Alpa給的建議是使用32個英偉達(dá)Tesla V100 GPU,從而提供512GB的顯存,這樣硬件造價在50萬到150萬之間。
poYBAGP1btCARD6vAAdNQyw3qtA386.png
Tesla V100 GPU / 英偉達(dá)
如果你只是想開展聊天機(jī)器人的服務(wù),而不是自己買硬件的話,也可以選擇各大公有云服務(wù)廠商的方案,比如亞馬遜AWS的EC2 P3系列,就是專為機(jī)器學(xué)習(xí)和HPC準(zhǔn)備的實例。每個EC2 P3.16xlarge實例上有8塊Tesla V100 GPU,所以至少租賃4個實例就能運(yùn)行Alpa了。

不過這樣一來服務(wù)器的費(fèi)用也并不算便宜,單個實例按需付費(fèi)每小時的花費(fèi)在24.48美元左右,也就是說如果要全天運(yùn)行的話,運(yùn)行Alpa的成本為2400美元一天。哪怕云服務(wù)廠商通常都會給到長期承諾使用的折扣,這也是一筆不小的支出。

谷歌推出的Cloud TPU方案也是如此,如果真的打算以租賃服務(wù)器的方式來打造ChatGPT,那么谷歌目前給出的按需定價是每芯片小時價格3.22美元。要想部署數(shù)萬規(guī)模的TPU v4芯片媲美ChatGPT,那么一定逃不掉超高的費(fèi)用。

結(jié)語

不久前我們已經(jīng)提到了ChatGPT的加入或許會給微軟的現(xiàn)有產(chǎn)品帶來定價的提升,如今這個猜測也已經(jīng)成真。微軟近日宣布,從今年5月1日開始,微軟Bing搜索API的定價將會直線飆升,其中超大并發(fā)(每秒250次處理)的S1實例定價從每千次處理7美元提升至25美元,而額外的Bing統(tǒng)計更是從每千次處理1美元的價格拔高至10美元。如此看來,可見大語言模型的推理成本有多高可見一斑了,哪怕是微軟也經(jīng)不起這樣燒錢。

所以對于ChatGPT這種應(yīng)用,其運(yùn)營者不同,對待硬件成本的看法也會不同,比如微軟、谷歌之類已經(jīng)擁有大規(guī)模服務(wù)器硬件的廠商,必然會利用現(xiàn)有GPU資源的同時,考慮如何用定制化的ASIC進(jìn)一步節(jié)省成本。而體量較小的運(yùn)營者,例如聊天機(jī)器人應(yīng)用開發(fā)商、研究機(jī)構(gòu)等,還是會選擇租賃服務(wù)器或小規(guī)模本地部署,其首選硬件也會是GPU。

再說回FPGA,雖然從目前數(shù)據(jù)中心的市場現(xiàn)狀來看,F(xiàn)PGA的AI推理加速卡仍處于一個弱勢的位置。但隨著AMD開始推出Alveo V70這樣全新XDNA架構(gòu)的方案,或許能給未來需要更大吞吐量的模型提供新的出路,尤其是視頻分析推理應(yīng)用。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    OpenAI甩出王炸:個APP干翻整個辦公室,ASIC開始逆襲GPU?

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)北京時間7月18日凌晨,OpenAI通過場精彩絕倫的技術(shù)直播盛宴,向全球用戶正式揭開了具有劃時代意義的AI智能體——ChatGPT Agent的神秘面紗。這款智能體
    的頭像 發(fā)表于 07-21 07:20 ?7460次閱讀

    基于openEuler平臺的CPU、GPUFPGA異構(gòu)加速實戰(zhàn)

    隨著 AI、視頻處理、加密和高性能計算需求的增長,單 CPU 已無法滿足低延遲、高吞吐量的計算需求。openEuler 作為面向企業(yè)和云端的開源操作系統(tǒng),在 多樣算力支持 方面表現(xiàn)出色,能夠高效調(diào)度 CPU、GPU、FPGA
    的頭像 發(fā)表于 04-08 11:02 ?669次閱讀
    基于openEuler平臺的CPU、<b class='flag-5'>GPU</b>與<b class='flag-5'>FPGA</b>異構(gòu)加速實戰(zhàn)

    第三屆華南理工大學(xué)“紫光同創(chuàng)FPGA大賽成功舉辦

    1月24日,第三屆華南理工大學(xué)“紫光同創(chuàng)FPGA大賽成功舉辦。本屆“紫光同創(chuàng)”由華南理工大學(xué)微電子學(xué)院和深圳市紫光同創(chuàng)電子股份有限公司聯(lián)合舉辦,旨在讓學(xué)生熟練使用國產(chǎn)FPGA開發(fā)
    的頭像 發(fā)表于 02-02 14:03 ?938次閱讀

    FPGA+GPU異構(gòu)混合部署方案設(shè)計

    為滿足對 “納秒級實時響應(yīng)” 與 “復(fù)雜數(shù)據(jù)深度運(yùn)算” 的雙重需求,“FPGA+GPU”異構(gòu)混合部署方案通過硬件功能精準(zhǔn)拆分與高速協(xié)同,突破單硬件的性能瓶頸 ——FPGA聚焦低延遲實時交易鏈路,
    的頭像 發(fā)表于 01-13 15:20 ?486次閱讀

    WT588F02KD-32N二合語音芯片:讓智能保溫開口說話,喝水從此充滿儀式感

    顆指甲蓋大小的芯片,正在重新定義我們與一杯水的互動方式。清晨,當(dāng)你端起保溫,聲溫柔的“早上好,水溫45℃,適宜飲用”打破了沉默;工作繁忙時,貼心的“主人,您已2小時未飲水,請及時
    的頭像 發(fā)表于 12-05 08:55 ?639次閱讀
    WT588F02KD-32N二合<b class='flag-5'>一</b>語音芯片:讓智能保溫<b class='flag-5'>杯</b>開口說話,喝水從此充滿儀式感

    AI芯片市場鏖戰(zhàn),GPUASIC誰將占據(jù)主動?

    本文轉(zhuǎn)自:TechSugar隨著人工智能技術(shù)在大模型訓(xùn)練、邊緣計算、自動駕駛等領(lǐng)域的深度滲透,核心算力硬件的競爭進(jìn)入白熱化階段。圖形處理單元(GPU)與專用集成電路(ASIC)作為兩大主流技術(shù)路線
    的頭像 發(fā)表于 10-30 12:06 ?923次閱讀
    AI芯片市場鏖戰(zhàn),<b class='flag-5'>GPU</b>與<b class='flag-5'>ASIC</b>誰將占據(jù)主動?

    如何看懂GPU架構(gòu)?分鐘帶你了解GPU參數(shù)指標(biāo)

    GPU架構(gòu)參數(shù)如CUDA核心數(shù)、顯存帶寬、TensorTFLOPS、互聯(lián)方式等,并非“冰冷的數(shù)字”,而是直接關(guān)系設(shè)備能否滿足需求、如何發(fā)揮最大價值、是否避免資源浪費(fèi)等問題的核心要素。本篇文章將全面
    的頭像 發(fā)表于 10-09 09:28 ?1531次閱讀
    如何看懂<b class='flag-5'>GPU</b>架構(gòu)?<b class='flag-5'>一</b>分鐘帶你了解<b class='flag-5'>GPU</b>參數(shù)指標(biāo)

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰(zhàn)

    的工作嗎? 從書中也了解到了AI芯片都有哪些?像CPU、GPU、FPGA、ASIC都是AI芯片。 其他的還是知道的,FPGA屬于AI芯片這個真不知道,以為它是數(shù)字芯片的,不曉得屬于AI
    發(fā)表于 09-12 16:07

    FPGA技術(shù)為什么越來越牛,這是有原因的

    ,它直都被廣泛使用。但是,大部分人還不是太了解它,對它有很多疑問——FPGA到底是什么?為什么要使用它?相比CPU、GPU、ASIC(專用芯片),
    的頭像 發(fā)表于 08-22 11:39 ?5218次閱讀
    <b class='flag-5'>FPGA</b>技術(shù)為什么越來越牛,這是有原因的

    AI芯片,需要ASIC

    電子發(fā)燒友網(wǎng)報道(文/李彎彎) 2025年,全球AI芯片市場正迎來場結(jié)構(gòu)性變革。在英偉達(dá)GPU占據(jù)主導(dǎo)地位的大格局下,ASIC(專用集成電路)憑借針對AI任務(wù)的定制化設(shè)計,成為推動算力革命的新動力
    的頭像 發(fā)表于 07-26 07:30 ?7416次閱讀

    aicube的n卡gpu索引該如何添加?

    請問有人知道aicube怎樣才能讀取n卡的gpu索引呢,我已經(jīng)安裝了cuda和cudnn,在全局的py里添加了torch,能夠調(diào)用gpu,當(dāng)還是只能看到默認(rèn)的gpu0,顯示不了gpu1
    發(fā)表于 07-25 08:18

    一杯奶茶錢如何搞定大模型應(yīng)用開發(fā)?

    個很明顯的事實是,AI的進(jìn)步速度依然很快,而且超出了很多人的預(yù)期。 文字創(chuàng)作方面,Claude 3.7 Sonnet這樣的大模型已經(jīng)能夠應(yīng)付大多數(shù)場景下的寫作需求,不僅輸出質(zhì)量穩(wěn)定,文筆也十分簡潔
    的頭像 發(fā)表于 05-23 14:07 ?537次閱讀
    <b class='flag-5'>一杯</b>奶茶錢如何搞定大模型應(yīng)用開發(fā)?

    EZ-USB SX3 CYUSB3017-BZXI 能否與PolarFire MicrochipFPGA 在同電氣設(shè)計中共存?

    雖然 SX3 配置實用程序不支持給定的 FPGA,但EZ-USB SX3 CYUSB3017-BZXI 能否與PolarFire MicrochipFPGA 在同電氣設(shè)計中共存?
    發(fā)表于 05-23 07:10

    文看懂空心電機(jī)

    空心電機(jī)是種特殊結(jié)構(gòu)的直流電機(jī),其工作原理與普通電機(jī)有所不同。本文將詳細(xì)介紹空心電機(jī)的特點、工作原理、應(yīng)用領(lǐng)域等。 空心電機(jī)通常由外部罩杯、定子線圈、轉(zhuǎn)子磁體、軸承等組件組成。
    的頭像 發(fā)表于 05-09 08:45 ?4390次閱讀
    <b class='flag-5'>一</b>文看懂空心<b class='flag-5'>杯</b>電機(jī)
    东莞市| 旺苍县| 石嘴山市| 安平县| 阿勒泰市| 当雄县| 荥阳市| 永清县| 两当县| 来凤县| 建昌县| 秦安县| 阳谷县| 张北县| 古蔺县| 鄄城县| 拜城县| 宜丰县| 札达县| 灌南县| 林周县| 静安区| 澄迈县| 鄂温| 洪江市| 鄂尔多斯市| 峨山| 新干县| 正宁县| 万安县| 雷州市| 秦安县| 大同市| 衡东县| 海晏县| 张家口市| 修武县| 盐边县| 黄骅市| 吉安市| 安乡县|