特斯拉展示超級電腦:分析自動駕駛數據
作者 愛范兒 | 發布日期 2021 年 06 月 25 日 8:00 |
國際電腦視覺和模式辨識會議(CVPR)週末的演講,特斯拉人工智慧團隊的負責人安德烈‧卡帕西(Andrej Karpathy)展示一台超級電腦。
電腦採用 5,760 個算力為 321TFLOPS 的輝達 A100 顯卡,組成 720 個節點,總算力突破 1.8EFLOPS,10PB 儲存空間。特斯拉超級電腦將用於處理車輛自動駕駛數據。
自動駕駛領域,特斯拉一直都逆勢而行。Waymo 等大部分公司致力自動駕駛團隊大力發展光達,以做到自動駕駛時,特斯拉堅持使用攝影鏡頭,以視覺辨識為主。特斯拉透過車內各感測器收集駕駛及車輛數據,上傳給超級電腦,人工智慧軟體分析數據,並學習如何像人類駕駛。
如今路上行駛的特斯拉多不勝數,要處理所有特斯拉的海量數據,需要強大算力。安德烈展示的超級電腦已開始使用,據稱算力接近世界第五大超級電腦 Selene。
安德烈受訪時承認,基於視覺的自動駕駛將比光達自動駕駛更難實現,後者使用雷射辨識周圍障礙,特斯拉的攝影鏡頭,某些情況下也面臨風險,譬如大霧、大雨、大雪。特斯拉早期的全自動駕駛測試期間,系統常判斷錯誤,需駕駛手動干預。
然而安德雷認為,為特斯拉加入光達可能不是太好的選擇:
同時使用光達與攝影鏡頭會帶來一個問題,即當兩者看到的內容不一樣時,系統可能難以判斷哪個感測器才正確。
倘若專注傳統攝影鏡頭,特斯拉可透過改善電腦視覺,訓練電腦應付行人與過往車輛的不可預測行為,因此不必使用昂貴的光達。
有趣的是,有人發現特斯拉在美國佛州棕櫚灘進行光達版車測試。照片可看到一輛搭載光達的特斯拉 Model Y。也有消息稱特斯拉是使用 Liminar 光達驗證基於攝影鏡頭的全自動駕駛可靠性。
特斯拉已有數百萬輛電動車上路,提供有用數據,超級電腦能根據這些數據分析與訓練。但特斯拉 Autopilot 自動輔助駕駛系統還遠未達「自動駕駛」程度,故此方案的正確與否還有待觀察。
資料來源:https://technews.tw/2021/06/25/tesla-shows-off-supercomputer/
a100顯卡 在 癮科技 Facebook 的最佳貼文
關於兩家新品的規格目前還未有明確的規格,不過以 RTX 30 來說,自先前公布的 NVIDIA A100 的特性,可預估除使用 Ampere 架構以外,將具備 AI 性能更強的第三代 Tensor Core ,同時做為光線追蹤的 RT Core 性能也會提升,並採用台積電 7nm 製程,但 GPU 規模會小於 NVIDIA A100 ,且不會採用價格高昂的 HBM2 記憶體,可能採用 GDDR6 。
a100顯卡 在 PC home雜誌- 根據某企業透露,該公司去年6 月購買的AI 伺服器 的推薦與評價
包含GPU 價格也不斷上漲,A100 GPU 市場單價漲幅可達50%。 ... NVIDIA又賺到了AI伺服器一年漲價20倍:A100顯示卡漲了50%. ... <看更多>
a100顯卡 在 a100 nvidia-在PTT/IG/網紅社群上服務品牌流行穿搭-2022-12 ... 的推薦與評價
快速出貨NVIDIA Tesla T4/A100/P100/V100/V100S GPU顯卡AI智能深度學習推理服務器工作站專... 現貨NVIDIA英偉達TESLA A100 GPU 40GB PCIe Ampere七喜姐姐露天拍賣. NVIDIA ... ... <看更多>
a100顯卡 在 [情報] 產生式AI 大爆發NVIDIA GPU 恐供不應求 的推薦與評價
生成式 AI 大爆發,NVIDIA GPU 恐供不應求
來源 https://reurl.cc/EG778n
微軟 Bing 搜尋引擎整合 ChatGPT,加上其他生成式 AI 工具的需求攀升
都相當依賴人工智慧處理能力,正是 NVIDIA GPU 優勢所在
當科技公司利用 NVIDIA GPU 滿足增長的 AI 需求
市場恐怕又要面臨 GPU 供貨短缺問題,尤其又會先擠壓遊戲玩家需求。
NVIDIA GPU 能高效運算,支援 AI 模型用 GPU 運算的 CUDA
(Compute Unified Device Architecture,統一計算架構)
因此廣泛應用於深度學習領域。FierceElectronics 網站報導
ChatGPT 初期在 1 萬個 NVIDIA GPU 訓練,自從獲得大眾關注後,系統不堪負荷
無法滿足龐大用戶需求。故 OpenAI 推出全新 ChatGPT Plus 訂閱服務
不僅能讓付費用戶尖峰時段優先造訪 ChatGPT,且回應時間更短,並能先使用最新功能。
產業分析師估計,目前 ChatGPT 模型在約 25,000 個 NVIDIA GPU 訓練
比初期測試 1 萬個 NVIDIA GPU 高許多。
微軟和 Google 雙雙宣布將類似 ChatGPT 的 LLM(對話式大型語言模型)
整合至自家搜尋引擎。如 Google 要將 AI 模型整合至搜尋結果
估計需要 512,820 台 A100 HGX 伺服器及 4,102,568 個 A100 GPU
光伺服器和網路成本,資本支出就高達 1,000 億美元(約台幣 3 兆元)左右。
生成式 AI 大爆發對 NVIDIA 來說是利多消息,但對消費市場尤其遊戲玩家
恐怕不算好消息。NVIDIA 有可能優先供貨給生成式 AI 的科技公司,排擠遊戲玩家需求
今年第一季因農曆新年使遊戲顯卡供應受限
儘管庫存問題仍在,但可能為已短缺的高階 GPU 增加供貨問題。
高階 GPU 提供 AI 功能,使 NVIDIA 有利可圖,可能為了滿足不斷增長的生成式 AI
而有供貨短缺問題。NVIDIA 如何因應 AI 領域龐大需求有待觀察
而 2 月 22 日其將公布 2023 財年第四季財報,屆時有望透露更多未來營運展望。
NVIDIA GPU Demand To Exceed Supply As Green Team Bets On ChatGPT,
Thousands of AI Chips Expected To be Incorporated By Tech Giants
相關新聞
NVIDIA AI GPU迎ChatGPT需求浪潮
楊智家/綜合報導
2023-02-14
ChatGPT相關熱潮帶動全球科技大廠人工智慧(AI)晶片需求增加
外界估可能導致NVIDIA GPU未來幾個月面臨供不應求
因ChatGPT與其他語言、影像、影視內容生成式...
https://www.digitimes.com.tw/tech/dt/n/shwnws.asp?id=0000656745
40 顯卡供應有限緊縮
https://www.youtube.com/watch?v=0dmzRwvObaE
PChome已出現 4090 禮包
4070Ti TUF ROG 限組裝
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 60.249.18.108 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1676377566.A.377.html
... <看更多>