哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達:5nm實驗芯片用INT4達到INT8的精度

半導體產(chǎn)業(yè)縱橫 ? 來源:量子位 ? 作者:量子位 ? 2022-12-12 15:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

IEEE計算機運算研討會。

32位與16位格式的混合精度訓練,正是當前深度學習的主流。

最新的英偉達核彈GPU H100,剛剛添加上對8位浮點數(shù)格式FP8的支持。

英偉達首席科學家Bill Dally現(xiàn)在又表示,他們還有一個“秘密武器”:

在IEEE計算機運算研討會上,他介紹了一種實驗性5nm芯片,可以混合使用8位與4位格式,并且在4位上得到近似8位的精度。

目前這種芯片還在開發(fā)中,主要用于深度學習推理所用的INT4和INT8格式,對于如何應用在訓練中也在研究了。

相關(guān)論文已發(fā)表在2022 IEEE Symposium on VLSI Technology上。

7c5c2558-7950-11ed-8abf-dac502259ad0.png

新的量化技術(shù)

降低數(shù)字格式而不造成重大精度損失,要歸功于按矢量縮放量化(per-vector scaled quantization,VSQ)的技術(shù)。

具體來說,一個INT4數(shù)字只能精確表示從-8到7的16個整數(shù)。

其他數(shù)字都會四舍五入到這16個值上,中間產(chǎn)生的精度損失被稱為量化噪聲。

傳統(tǒng)的量化方法給每個矩陣添加一個縮放因子來減少噪聲,VSQ則在這基礎之上給每個向量都添加縮放因子,進一步減少噪聲。

7c8c5386-7950-11ed-8abf-dac502259ad0.png

關(guān)鍵之處在于,縮放因子的值要匹配在神經(jīng)網(wǎng)絡中實際需要表示的數(shù)字范圍。

英偉達研究人員發(fā)現(xiàn),每64個數(shù)字為一組賦予獨立調(diào)整過的縮放因子可以最小化量化誤差。

計算縮放因子的開銷可以忽略不計,從INT8降為INT4則讓能量效率增加了一倍。

7cbba276-7950-11ed-8abf-dac502259ad0.png

Bill Dally認為,結(jié)合上INT4計算、VSQ技術(shù)和其他優(yōu)化方法后,新型芯片可以達到Hopper架構(gòu)每瓦運算速度的10倍。

還有哪些降低計算量的努力

除了英偉達之外,業(yè)界還有更多降低計算量的工作也在這次IEEE研討會上亮相。

馬德里康普頓斯大學的一組研究人員設計出基于Posits格式的處理器核心,與Float浮點數(shù)相比準確性提高了多達4個數(shù)量級。

Posits與Float相比,增加了一個可變長度的Regime區(qū)域,用來表示指數(shù)的指數(shù)。

對于0附近的較小數(shù)字只需要占用兩個位,而這類數(shù)字正是在神經(jīng)網(wǎng)絡中大量使用的。

適用Posits格式的新硬件基于FPGA開發(fā),研究人員發(fā)現(xiàn)可以用芯片的面積和功耗來提高精度,而不用增加計算時間。

7cf8a87e-7950-11ed-8abf-dac502259ad0.png

ETH Zurich一個團隊的研究基于RISC-V,他們把兩次混合精度的積和熔加計算(fused multiply-add,F(xiàn)MA)放在一起平行計算。

這樣可以防止兩次計算之間的精度損失,還可以提高內(nèi)存利用率。

FMA指的是d = a * b + c這樣的操作,一般情況下輸入中的a和b會使用較低精度,而c和輸出的d使用較高精度。

研究人員模擬了新方法可以使計算時間減少幾乎一半,同時輸出精度有所提高,特別是對于大矢量的計算。

相應的硬件實現(xiàn)正在開發(fā)中。

7d2a0536-7950-11ed-8abf-dac502259ad0.png

巴塞羅那超算中心英特爾團隊的研究也和FMA相關(guān),致力于神經(jīng)網(wǎng)絡訓練可以完全使用BF16格式完成。

BF16格式已在DALL·E 2等大型網(wǎng)絡訓練中得到應用,不過還需要與更高精度的FP32結(jié)合,并且在兩者之間來回轉(zhuǎn)換。

這是因為神經(jīng)網(wǎng)絡訓練中只有一部分計算不會因BF16而降低精度。

最新解決辦法開發(fā)了一個擴展的格式BF16-N,將幾個BF16數(shù)字組合起來表示一個數(shù),可以在不顯著犧牲精度的情況下更有效進行FMA計算

7d5cadce-7950-11ed-8abf-dac502259ad0.png

關(guān)鍵之處在于,F(xiàn)MA計算單元的面積只受尾數(shù)位影響。

比如FP32有23個尾數(shù)位,需要576個單位的面積,而BF16-2只需要192個,減少了2/3。

另外這項工作的論文題目也很有意思,BF16 is All You Need。

7d784610-7950-11ed-8abf-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    463

    文章

    54409

    瀏覽量

    469084
  • 英偉達
    +關(guān)注

    關(guān)注

    23

    文章

    4115

    瀏覽量

    99601

原文標題:英偉達首席科學家:5nm實驗芯片用INT4達到INT8的精度

文章出處:【微信號:ICViews,微信公眾號:半導體產(chǎn)業(yè)縱橫】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    千里通 RK3576 ARM架構(gòu)智能邊緣計算盒

    (2.2GHz) + 四核Cortex-A53 (2.0GHz) 8核異構(gòu)架構(gòu),兼顧高性能與能效比 AI算力 6TOPS INT8 NPU 支持INT4/INT8/
    的頭像 發(fā)表于 04-04 12:51 ?621次閱讀
    千里通 RK3576 ARM架構(gòu)智能邊緣計算盒

    ElfBoard新品發(fā)布|【RV1126B】ELF-RV1126B開發(fā)板正式發(fā)布

    ELF-RV1126B開發(fā)板基于瑞芯微RV1126B處理器設計,集成四核ARMCortex-A53架構(gòu),主頻1.6GHz,并內(nèi)置3TOPS@INT8算力的NPU,支持INT8/INT
    的頭像 發(fā)表于 01-16 16:59 ?3245次閱讀
    ElfBoard新品發(fā)布|【RV1126B】ELF-RV1126B開發(fā)板正式發(fā)布

    黑芝麻智能華山A2000芯片通過美國審查,正式推向全球市場

    智能駕駛的商業(yè)化落地提供核心算力支持。 華山A2000芯片基于7nm先進工藝打造,集成高性能CPU、GPU、NPU及多種專用計算單元,實測性能媲美當前全球頂尖的智駕芯片。該芯片支持全F
    的頭像 發(fā)表于 01-05 17:15 ?473次閱讀
    黑芝麻智能華山A2000<b class='flag-5'>芯片</b>通過美國審查,正式推向全球市場

    AI算力模組TS-SG-SM9系列產(chǎn)品規(guī)格書

    騰視科技AI算力模組TS-SG-SM9系列搭載算能高集成度處理器CV186AH/BM1688片,功耗低、算力強、接口豐富、兼容性好。7.2-16TOPS INT8算力,兼容INT4/INT8
    發(fā)表于 10-27 17:12 ?4次下載

    小白必讀:到底什么是FP32、FP16、INT8

    網(wǎng)上關(guān)于算力的文章,如果提到某個芯片或某個智算中心的算力,都會寫:在FP32精度下,英偉H100的算力大約為0.9PFlops。在FP16精度
    的頭像 發(fā)表于 10-20 14:34 ?1670次閱讀
    小白必讀:到底什么是FP32、FP16、<b class='flag-5'>INT8</b>?

    英偉下一代Rubin芯片已流片

    為進入市場做準備,Rubin架構(gòu)將會有6個芯片,這些芯片都已經(jīng)流片。這一消息在半導體和人工智能領(lǐng)域引起了廣泛關(guān)注,預示著英偉芯片技術(shù)上的
    的頭像 發(fā)表于 09-12 17:15 ?2018次閱讀

    CCS 報錯:unkown int8_t

    我使用的是嘉立創(chuàng)天猛星(MSPM0G3507),CCS環(huán)境,原本工程里的stdint.h就有藍色波浪線警告,但是不影響debug和燒錄,今天上午也是好好地,下午突然int8_t,int16_t都用
    發(fā)表于 08-01 19:02

    雷卯針對靈眸科技RV1106G3開發(fā)板防雷防靜電方案

    ? 一、應用場景 人臉識別、危險駕駛、工地安全監(jiān)測、智慧餐桌 二、 功能概述 1 CPU 單核ARM Cortex-A7 32位內(nèi)核,1.2GHz集成了NEON和FPU 2 支持INT4/INT8
    的頭像 發(fā)表于 07-14 10:22 ?576次閱讀
    雷卯針對靈眸科技RV1106G3開發(fā)板防雷防靜電方案

    計算精度對比:FP64、FP32、FP16、TF32、BF16、int8

    、BF16、int8以及混合精度等。本文將淺顯易懂地介紹這些精度計算方式及其差別。什么是精度?精度,是數(shù)據(jù)表示的一個重要參數(shù),它決定了數(shù)據(jù)的
    的頭像 發(fā)表于 06-26 11:09 ?3234次閱讀
    計算<b class='flag-5'>精度</b>對比:FP64、FP32、FP16、TF32、BF16、<b class='flag-5'>int8</b>

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進行推理時出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯誤”,怎么解決?

    /Meta-Llama-3.1-8B --weight-format int4 --sym --group-size 128 --ratio 1.0 INT4-llama-3.1-8B 使用 NPU 插件
    發(fā)表于 06-25 07:20

    將Whisper大型v3 fp32模型轉(zhuǎn)換為較低精度后,推理時間增加,怎么解決?

    將 openai/whisper-large-v3 FP32 模型轉(zhuǎn)換為 FP16、INT8INT4。 推理所花費的時間比在 FP32 上花費的時間要多
    發(fā)表于 06-24 06:23

    迅為iTOP-3588S開發(fā)板核心板引腳240PIN全部引出8GB內(nèi)存32GBEMMC存儲

    8GB內(nèi)存,32GBEMMC。 四核心架構(gòu)GPU內(nèi)置GPU可以完全兼容0penGLES1.1、2.0和3.2。 內(nèi)置NPU RK3588S內(nèi)置NPU,支持INT4/INT8/INT1
    發(fā)表于 06-23 11:19

    為什么無法在GPU上使用INT8INT4量化模型獲得輸出?

    安裝OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包將 whisper-large-v3 模型轉(zhuǎn)換為 int 4int8,并在 GPU 上使用 OpenVINO? 運行推理。 沒有可用的
    發(fā)表于 06-23 07:11

    迅為iTOP-3576開發(fā)板采用瑞芯微RK3576高性能、低功耗的應用處理芯片

    計算、個人移動互聯(lián)網(wǎng)設備及其他多媒體產(chǎn)品。 支持INT4/INT8/INT16/FP16/BF16/TF32混合運算,并憑借其強大的兼容性,可以輕松轉(zhuǎn)換基于TensorFlow、MXNet
    發(fā)表于 05-20 11:15
    清原| 墨竹工卡县| 临沭县| 文登市| 南通市| 马边| 兴文县| 彭泽县| 新乐市| 麻栗坡县| 封开县| 锦州市| 壤塘县| 佳木斯市| 盐源县| 黑龙江省| 雅安市| 肇东市| 织金县| 土默特右旗| 科技| 随州市| 通州区| 揭东县| 宜兰市| 松阳县| 简阳市| 宜兰县| 虎林市| 连平县| 白水县| 时尚| 华安县| 长沙县| 壤塘县| 渭源县| 昆山市| 永泰县| 隆安县| 贞丰县| 宜君县|