人工智能、深度學(xué)習(xí)已經(jīng)滲入到社會(huì)的各行各業(yè),也切切實(shí)實(shí)地影響著我們生活的方方面面,比如新聞內(nèi)容或者電商網(wǎng)站的個(gè)性化推送、搜索引擎、語(yǔ)音輸入法、手機(jī)相冊(cè)中的照片自動(dòng)分類功能等。所有的這些背后都是AI/DL技術(shù)在支持,而支持這些AI/DL技術(shù)的背后又是一個(gè)又一個(gè)的大型數(shù)據(jù)中心。如何在大型的數(shù)據(jù)中心中部署一套有效的解決方案,來(lái)高效、靈活、低成本的支持?jǐn)?shù)以億計(jì)的日請(qǐng)求呢?
2018年9月13日,NVIDIA推出首款基于新一代圖靈架構(gòu)打造的GPU——Tesla T4,采用多精度 Turing Tensor Core和全新 RT Core,用于機(jī)器學(xué)習(xí)和數(shù)據(jù)推理。
Tesla T4配備16GB GDDR6,帶寬達(dá)到300GB/S。GPU中集成320個(gè)Turing Tensor Core和2560個(gè)Turing CUDA Core,支持4 種不同精度等級(jí)的各類 AI 工作負(fù)載。性能方面,Tesla T4的FP32單精度浮點(diǎn)計(jì)算性能8.1TFlops(每秒8.1萬(wàn)億次),F(xiàn)P16/32半精度和單精度混合計(jì)算性能65TFlops,INT8、INT4整數(shù)計(jì)算性能則是130Tops、260Tops。在此之前,NVIDIA曾推出過(guò)類似的 Tesla P4 ,但Tesla T4可在相同的功耗下,提供高達(dá) 12 倍的性能。
NVIDIA還提供了圍繞 T4 的一系列技術(shù),比如 TensorRT Hyperscale (人工智能數(shù)據(jù)中心平臺(tái))、專門針對(duì)圖靈架構(gòu)優(yōu)化的CUDA 10。T4還支持 PyTorch、TensorFlow、MXNet、以及 Caffee2 等主流的深度學(xué)習(xí)框架。
12月7日晚8點(diǎn),智東西聯(lián)合NVIDIA推出超級(jí)公開課NVIDIA專場(chǎng)第16講,由NVIDIA 中國(guó)區(qū)HPC/DL 解決方案架構(gòu)師程帥主講,主題為《基于圖靈架構(gòu)的Tesla T4如何讓AI推理更高效》。

課程信息
主題:基于圖靈架構(gòu)的Tesla T4如何讓AI推理更高效
時(shí)間:12月7日
地點(diǎn):「深度學(xué)習(xí)」社群、智東西公開課小程序
課程內(nèi)容
主題:基于圖靈架構(gòu)的Tesla T4如何讓AI推理更高效
講師:NVIDIA 中國(guó)區(qū)HPC/DL 解決方案架構(gòu)師程帥
提綱
1.當(dāng)前線上推理端的困境
2.新一代硬件推理平臺(tái)T4 GPU架構(gòu)剖析
3.線上自動(dòng)優(yōu)化工具TensorRT5特性介紹
4.TensorRT Inference Server如何提高線上推理服務(wù)部署效率
講師介紹
程帥,NVIDIA 中國(guó)區(qū)HPC/DL 解決方案架構(gòu)師,在HPC和DL領(lǐng)域有多年的架構(gòu)方案經(jīng)驗(yàn),支持過(guò)國(guó)內(nèi)多個(gè)大型HPC 數(shù)據(jù)中心以及多家大型CSP中DL集群設(shè)計(jì)。
入群路徑
本次課程我們將設(shè)置主講群,講師將親自入群交流。希望進(jìn)入主講群與老師認(rèn)識(shí)和交流的朋友,掃描海報(bào)上的二維碼添加智東西公開課聯(lián)絡(luò)員“動(dòng)動(dòng)(zhidxzb)”為好友,添加時(shí)請(qǐng)備注“姓名-公司-職位或姓名-學(xué)校-專業(yè)”,申請(qǐng)進(jìn)入主講群。
社群規(guī)則
1、智東西社群堅(jiān)持實(shí)名學(xué)習(xí)、交流和合作,入群后需要修改群昵稱為:姓名-公司-所在領(lǐng)域,違者踢群;
2、禁止在群內(nèi)廣告和發(fā)送二維碼等無(wú)關(guān)信息,違者踢群。