哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Ambarella展示了在其CV3-AD芯片上運(yùn)行LLM的能力

Astroys ? 來源:Astroys ? 2023-11-28 09:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Ambarella前不久展示了在其CV3-AD芯片上運(yùn)行LLM的能力。這款芯片是CV3系列中最強(qiáng)大的,專為自動駕駛設(shè)計。

CV3-AD一年前開始出樣,使用Ambarella現(xiàn)有的AI軟件堆棧,運(yùn)行Llama2-13B模型時,可以實現(xiàn)每秒推理25個token。

Ambarella的CEO Fermi Wang表示:“當(dāng)transformer在今年早些時候變得流行時,我們開始問自己,我們擁有一個強(qiáng)大的推理引擎,我們能做到嗎?我們進(jìn)行了一些快速研究,發(fā)現(xiàn)我們確實可以。我們估計我們的性能可能接近Nvidia A100。”

Ambarella工程師正在展示Llama2-13B在CV3-AD上的實時演示,CV3-AD是一款50W的自動駕駛芯片。

Ambarella芯片上的CVFlow引擎包括其NVP(Neural Vector Processor)和一個GVP(General Vector Processor),演示中的LLM正在NVP上運(yùn)行。NVP采用數(shù)據(jù)流架構(gòu),Ambarella已將諸如卷積之類的高級運(yùn)算符指令組合成圖表,描述數(shù)據(jù)如何通過處理器進(jìn)行該運(yùn)算符的處理。所有這些運(yùn)算符之間的通信都使用片上內(nèi)存完成。CV3系列使用LPDDR5(而非HBM),功耗約為50W。

268a3c3c-8d86-11ee-939d-92fbcf53809c.png

Ambarella的CTO Les Kohn表示,LLM演示確實需要一些新軟件。實現(xiàn)transformer架構(gòu)核心操作的構(gòu)建模塊,目前這些操作針對的是像Llama2這樣的模型。

他說:“隨著時間的推移,我們將擴(kuò)展這些功能以覆蓋其它模型,但Llama2正在成為開源世界的事實標(biāo)準(zhǔn)。這絕對是一項不小的投資,但與從頭開始開發(fā)軟件相比,還差得遠(yuǎn)?!?

Edge LLM發(fā)展路線圖?????

Wang表示:“現(xiàn)在我們知道我們擁有這項技術(shù),我們可以解決一些實際問題。如果你與LLM的研發(fā)人員交談,問他們最頭疼的是什么,一個顯然是價格,另一個是功耗?!?

CV3-AD設(shè)計用于50W的功率范圍(包括整個芯片的功率,不僅僅是AI加速器)。因此,Wang希望Ambarella能夠以大約四分之一的功耗,為LLM提供與A100相似的性能。

他說:“這意味著對于固定的數(shù)據(jù)中心功率,我可以增加四倍的AI性能。這是巨大的價值。盡管這種想法很簡單,但我們相信我們可以為渴望使用LLM的任何人提供價值。在過去的六個月里,渴望使用LLM的人數(shù)迅速增加?!?

雖然超大規(guī)模計算中心可能是首批跟進(jìn)LLM趨勢的,但Ambarella在安防攝像頭和汽車領(lǐng)域的現(xiàn)有客戶開始考慮如何在他們的邊緣系統(tǒng)中實施LLM,以及LLM將如何實施他們的發(fā)展路線圖。

Wang說:“我們相信LLM將成為我們需要在路線圖中為當(dāng)前客戶提供的重要技術(shù)。當(dāng)前的CV3可以運(yùn)行LLM,而無需Ambarella進(jìn)行太多額外的工程投資,所以這對我們來說并非分心之事。我們當(dāng)前的市場在他們的路線圖中已經(jīng)有了LLM?!? 多模態(tài)AI???? Kohn指出,在邊緣計算中,具有生成文本和圖像能力的大型多模態(tài)生成型AI潛力日益增大。

他說:“對于像機(jī)器人這樣的應(yīng)用,transformer網(wǎng)絡(luò)已經(jīng)可以用于計算機(jī)視覺處理,這比任何傳統(tǒng)計算機(jī)視覺模型都要強(qiáng)大,因為這種模型可以處理零樣本學(xué)習(xí),這是小模型無法做到的?!?

零樣本學(xué)習(xí)指的是模型能夠推斷出在其訓(xùn)練數(shù)據(jù)中未出現(xiàn)的對象類別的信息。這意味著模型可以以更強(qiáng)大的方式預(yù)測和處理邊緣情況,這在自動系統(tǒng)中尤其重要。

他補(bǔ)充說:“自動駕駛本質(zhì)上是一種機(jī)器人應(yīng)用:如果你看看L4/L5系統(tǒng)需要什么,很明顯你需要更強(qiáng)大、更通用的AI模型,這些模型能以更類似于人類的方式理解世界,超越我們今天的水平。我們將這看作是為各種邊緣應(yīng)用獲取更強(qiáng)大的AI處理能力的一種方式?!?

LLM發(fā)展路線圖??

問及Ambarella是否會制造專門針對LLM的邊緣芯片時,Wang表示:“這可能是我們需要考慮的事情。我們需要一個具有更多AI性能的LLM路線圖。LLM本身需要大量的DRAM帶寬,這幾乎使得在芯片上集成其他功能變得不可能(因為其他功能也需要DRAM帶寬)。”

Wang說,盡管在某些人看來,一個大型信息娛樂芯片應(yīng)該能夠同時處理其他工作負(fù)載和LLM,但目前這是不可能的。LLM所需的性能和帶寬或多或少地需要一個單獨的加速器。

Kohn補(bǔ)充說:“這取決于模型的大小。我們可能會看到目前使用的模型比較小的版本應(yīng)用于像機(jī)器人學(xué)這樣的領(lǐng)域,因為它們不需要處理大型模型所做的所有通用事務(wù)。但與此同時,人們希望有更強(qiáng)大的性能。所以,我認(rèn)為最終我們將看到未來更優(yōu)化的解決方案,它們將被應(yīng)用于不同的價格/性能點。”

在邊緣計算之外,CV3系列也有可能在數(shù)據(jù)中心中使用。Kohn說,CV3系列有多個PCIe接口,這在多芯片系統(tǒng)中可能很有用。他還補(bǔ)充說,該公司已經(jīng)有一個可以利用的PCIe卡。

Wang表示:“對我們來說,真正的問題是,‘我們能否將當(dāng)前產(chǎn)品和未來產(chǎn)品銷售到超大規(guī)模計算中心或基于云的解決方案中?’這是一個我們還沒有回答的問題,但我們已經(jīng)確認(rèn)了技術(shù)的可行性,并且我們有一些差異化。我們知道我們可以將這種產(chǎn)品銷售到邊緣設(shè)備和邊緣服務(wù)器。我們正在制定一個計劃,希望如果我們想要進(jìn)入基于云的解決方案,我們可以證明進(jìn)一步投資是合理的?!?/p>







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    20329

    瀏覽量

    254789
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    31410

    瀏覽量

    223571
  • LPDDR5
    +關(guān)注

    關(guān)注

    2

    文章

    98

    瀏覽量

    13387
  • 自動駕駛芯片
    +關(guān)注

    關(guān)注

    3

    文章

    48

    瀏覽量

    5454
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    350

    瀏覽量

    1394

原文標(biāo)題:Ambarella展示在自動駕駛芯片上的LLM推理能力

文章出處:【微信號:Astroys,微信公眾號:Astroys】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    10W CV/CC USB充電器設(shè)計:LinkSwitch-4芯片的卓越應(yīng)用

    推出的基于LinkSwitch - 4系列IC的10W CV/CC USB充電器設(shè)計,為我們展示高集成度帶來的高功率密度和卓越性能。今天,我們就來深入剖析這個設(shè)計。 文件下載
    的頭像 發(fā)表于 04-11 16:30 ?619次閱讀

    Google正式發(fā)布LLM評測基準(zhǔn)Android Bench

    LLM 在 Android 開發(fā)任務(wù)中的表現(xiàn)。現(xiàn)在,我們發(fā)布 Android Bench 的首個版本,這是 Google 官方專門針對 Android 開發(fā)打造的 LLM 排行榜。
    的頭像 發(fā)表于 03-14 16:00 ?1871次閱讀
    Google正式發(fā)布<b class='flag-5'>LLM</b>評測基準(zhǔn)Android Bench

    NVIDIA TensorRT Edge-LLM在汽車與機(jī)器人行業(yè)的落地應(yīng)用

    大語言模型(LLM)與多模態(tài)推理系統(tǒng)正迅速突破數(shù)據(jù)中心的局限。越來越多的汽車與機(jī)器人領(lǐng)域的開發(fā)者希望將對話式 AI 智能體、多模態(tài)感知系統(tǒng)和高級規(guī)劃功能直接部署在端側(cè),因為在這些場景中,低延遲、高可靠性以及離線運(yùn)行能力至關(guān)重要。
    的頭像 發(fā)表于 01-14 09:10 ?3219次閱讀
    NVIDIA TensorRT Edge-<b class='flag-5'>LLM</b>在汽車與機(jī)器人行業(yè)的落地應(yīng)用

    安霸發(fā)布高性能端側(cè)AI 8K視覺感知芯片CV7

    美國加利福尼亞州圣克拉拉市,2026年1月5日——Ambarella(下稱“安霸”,納斯達(dá)克股票代碼:AMBA,AI 視覺感知芯片公司)在國際消費(fèi)電子展(CES)發(fā)布 CV7 端側(cè)
    的頭像 發(fā)表于 01-08 14:46 ?1024次閱讀

    PowerVRLLM加速:LLM性能解析

    作者:AlexPim,Imagination軟件架構(gòu)Fellow在Imagination,我們致力于加速大語言模型在日常設(shè)備運(yùn)行。在本系列關(guān)于大語言模型性能與加速的兩篇博客的首篇中,我們將介紹
    的頭像 發(fā)表于 12-10 08:34 ?402次閱讀
    PowerVR<b class='flag-5'>上</b>的<b class='flag-5'>LLM</b>加速:<b class='flag-5'>LLM</b>性能解析

    客戶案例 | Imagination GPU助力安霸 CV3-AD655 環(huán)視系統(tǒng)

    安霸的CV3-AD655智能駕駛AI域控制器將高能效計算能力與Imagination的IMGBXMGPU相結(jié)合,為L2++/L3級車輛實現(xiàn)實時環(huán)視可視化。本案例介紹行業(yè)正向集中式域控
    的頭像 發(fā)表于 11-14 10:29 ?2411次閱讀
    客戶案例 | Imagination GPU助力安霸 <b class='flag-5'>CV3</b>-AD655 環(huán)視系統(tǒng)

    【CIE全國RISC-V創(chuàng)新應(yīng)用大賽】+ 一種基于LLM的可通過圖像語音控制的元件庫管理工具

    成本下長時間的維持運(yùn)營一個良好的庫存環(huán)境。本項目實現(xiàn)多模態(tài)同步,在項目中聯(lián)合調(diào)用了CV(OCR),ASR,LLM。 主要功能構(gòu)想 ? 1.實現(xiàn)用戶將采購單或元器件標(biāo)簽或元器件(下文稱輸入資料)放置或
    發(fā)表于 11-12 19:32

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    ,TensorRT LLM 還承擔(dān)著推理領(lǐng)域新技術(shù)載體的角色,通過將前沿創(chuàng)新引入 LLM 推理生態(tài),持續(xù)提升整個生態(tài)系統(tǒng)合作伙伴的技術(shù)能力。
    的頭像 發(fā)表于 10-21 11:04 ?1392次閱讀

    米爾RK3576部署端側(cè)多模態(tài)多輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    話:基于歷史回答圖中女孩頭發(fā)和衣服分別是什么顏色 一次我們詳細(xì)講解在RK3576上部署多模態(tài)模型的案例,這次將繼續(xù)講解多輪對話的部署流程。整體流程基于 rknn-llm 里的多輪對話案例[1
    發(fā)表于 09-05 17:25

    DeepSeek R1 MTP在TensorRT-LLM中的實現(xiàn)與優(yōu)化

    TensorRT-LLM 在 NVIDIA Blackwell GPU 創(chuàng)下了 DeepSeek-R1 推理性能的世界紀(jì)錄,Multi-Token Prediction (MTP) 實現(xiàn)大幅提速
    的頭像 發(fā)表于 08-30 15:47 ?4667次閱讀
    DeepSeek R1 MTP在TensorRT-<b class='flag-5'>LLM</b>中的實現(xiàn)與優(yōu)化

    基于米爾瑞芯微RK3576開發(fā)板的Qwen2-VL-3B模型NPU多模態(tài)部署評測

    結(jié)果 下面我們再換一張圖片試試效果!測試圖片2:圖片背景是賽博風(fēng)格 測試圖片2:描述圖片 測試圖片2:多模態(tài)能力問答測試圖片3下圖展示測試圖片3
    發(fā)表于 08-29 18:08

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗證與產(chǎn)品部署。
    的頭像 發(fā)表于 07-04 14:38 ?2404次閱讀

    使用 llm-agent-rag-llamaindex 筆記本時收到的 NPU 錯誤怎么解決?

    使用 conda create -n ov-nb-demos python=3.11 創(chuàng)建運(yùn)行 llm-agent-rag-llamaindex notebook 的環(huán)境。 執(zhí)行“創(chuàng)建
    發(fā)表于 06-23 06:26

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
    的頭像 發(fā)表于 06-12 15:37 ?2057次閱讀
    使用NVIDIA Triton和TensorRT-<b class='flag-5'>LLM</b>部署TTS應(yīng)用的最佳實踐

    LM Studio使用NVIDIA技術(shù)加速LLM性能

    隨著 AI 使用場景不斷擴(kuò)展(從文檔摘要到定制化軟件代理),開發(fā)者和技術(shù)愛好者正在尋求以更 快、更靈活的方式來運(yùn)行大語言模型(LLM)。
    的頭像 發(fā)表于 06-06 15:14 ?1424次閱讀
    LM Studio使用NVIDIA技術(shù)加速<b class='flag-5'>LLM</b>性能
    金沙县| 通山县| 留坝县| 乳源| 区。| 江川县| 屯昌县| 婺源县| 砀山县| 丰台区| 元谋县| 宁津县| 海城市| 米林县| 资兴市| 巴彦县| 青铜峡市| 大关县| 南城县| 鹿泉市| 洪雅县| 射阳县| 平安县| 远安县| 赞皇县| 嘉鱼县| 健康| 郧西县| 清原| 新蔡县| 永宁县| 永嘉县| 东莞市| 娱乐| 铅山县| 荔波县| 枣强县| 广昌县| 简阳市| 石嘴山市| 泗阳县|