
黃仁勛CES記者會實錄:AI擴展沒有物理限制,英偉達只專注做好兩件事

CES開幕演講的第二天,英偉達創(chuàng)始人兼CEO黃仁勛接受了全球媒體的采訪,持續(xù)1小時的采訪中,黃仁勛回答了關于英偉達策略、全球投資、AI生態(tài)格局、AGI時刻、Agentic AI、自動駕駛、物理AI等26個問題。
CES開幕演講的第二天,英偉達創(chuàng)始人兼CEO黃仁勛接受了全球媒體的采訪,持續(xù)1小時的采訪中,黃仁勛回答了關于英偉達策略、全球投資、AI生態(tài)格局、AGI時刻、Agentic AI、自動駕駛、物理AI等26個問題。
在記者會的最后,黃仁勛在回答至頂科技關于AI時代的學習教育趨勢時表示,“未來,每個學生都必須學會使用AI,就像現在這一代學生都必須學會使用計算機一樣。”
黃仁勛強調,AI革命極其深遠。他以計算機圖形學舉例,“這個領域的摩爾定律曲線,原本實際在放緩,但AI的加入讓它獲得了超級動力,現在幀率達到200、300、400幀每秒,圖像完全是光線追蹤且非常漂亮”,所以,我們已經看到了計算機圖形學的指數增長曲線,實際上,所有領域都看到了類似的陡峭增勢。
有趣的是,這次出現在記者會上的黃仁勛,換了一件皮衣,之所以沒穿前一天在CES上的“閃亮亮”皮衣,他調侃說道“too much(有點過了)”。
以下是針對黃仁勛本次記者會采訪的完整聽譯(為便于閱讀和可讀性,科技行者進行了文字和段落上的小幅修改):
【1】“英偉達只做兩件事”
問:去年英偉達重新定義了數據中心,現在又完成了系統(tǒng)層面的所有工作,特別是這次發(fā)布了NVLink72,接下來是不是應該考慮基礎設施、電力和其他系統(tǒng)組件的問題了?
黃仁勛:英偉達有個宗旨,只做兩件事情——要么是別人沒在做的事,要么是我們能做得明顯更好的事。所以英偉達進入新業(yè)務的標準其實很高。比如,如果英偉達不造NVLink72,誰去造呢?如果英偉達不開發(fā)Spectrum X這樣的以太網交換機,誰能做呢?
雖然我們有32000人,仍然是相對較小的公司。作為一家規(guī)模不大的公司,我們需要確保資源高度聚焦在能做出獨特貢獻的領域。
從早期的Hopper架構,到現在的Blackwell架構,功率密度在不斷提升。這是必然的發(fā)展趨勢,因為更高的功率密度,意味著更好的性能。不管光子的速度有多快,我們還是傾向于讓計算機更緊湊,而且現在Blackwell在液冷方面都已經做的很好。
【2】談AI PC:“我們正在把云端AI引入端側AI”
問:這次英偉達發(fā)布了很多關于AI PC的消息,但現階段AI PC的采用率還沒有真正起飛,你認為是什么原因阻礙了它的發(fā)展?英偉達如何幫助改變這種局面?
黃仁勛:很好的問題。AI技術最初是在云端環(huán)境下發(fā)展起來的,如果回顧英偉達過去幾年的增長軌跡,你會發(fā)現主要集中在云計算領域,這是因為訓練AI模型需要超級計算機。這些模型規(guī)模都很龐大,在云端部署和通過API調用比較容易。
但我們認為,仍然有很多設計師、軟件工程師、創(chuàng)意工作者和技術愛好者,他們更傾向于在PC上開發(fā)AI應用。其中一個挑戰(zhàn)在于,由于AI生態(tài)系統(tǒng)主要集中在云端,大量的精力、發(fā)展動力和工程努力都投入在云端,導致開發(fā)端側AI應用的人相對較少。
但其實Windows PC完全有能力支持AI開發(fā),特別是通過WSL2(Windows Subsystem for Linux 2)。WSL2本質上是一個虛擬機,是一個運行在Windows內部的雙操作系統(tǒng),它最初是為云原生應用創(chuàng)建的,支持Docker容器,而且支持CUDA。
我們正在努力確保PC上的WSL2能夠完美支持這些技術,從而把原本為云端打造的AI技術引入到PC端,就相當于把云端能力帶到PC端。
我堅信這是未來的正確方向,我對此很興奮,所有的PC制造商也都表現出極大的興趣。我們正在與合作伙伴一起,讓所有PC都支持帶有WSL2的Windows系統(tǒng),這樣就能把云端AI的所有技術進展、工程成果、生態(tài)系統(tǒng)帶到個人電腦上。
【3】談投資、競爭與合作:“我們的緊迫感來自客戶的真實需求”
問:去年GTC大會上,你分享了英偉達在以色列增加投資的情況,加強了你們作為該國最大雇主之一的地位。2024年你們繼續(xù)擴張,你們打算如何進一步增加在以色列的投資?具體來說,我們是否很快就會聽到一個正在進行中的新交易?另外,考慮到目前的局勢,你是否看到從那里引進人才的機會?
黃仁勛:我們從世界各地吸引優(yōu)秀人才,目前英偉達網站上收到了超過100萬份簡歷申請,而我們公司只有32000名員工。這表明大家對加入英偉達的興趣非常高,因為我們做的工作很有趣。
在以色列,我們有很大的發(fā)展機會。最初我們收購邁絡思的時候,在那里有2000名員工,現在我們在以色列的員工已達到近5000人。我們可能是以色列發(fā)展最快的企業(yè)雇主之一,我為此感到非常自豪。
在過去一段時間里,我們的以色列團隊創(chuàng)造了NVLink、Spectrum X、Bluefield 3等重要產品,我對團隊的專業(yè)水平和敬業(yè)精神感到非常自豪。
關于新的收購計劃,今天暫時沒有要宣布的消息,但我們始終保持開放態(tài)度。如果你們知道一些必須要拿下的好項目,請第一時間告訴我,只告訴我(開玩笑)。
問:作為一個游戲玩家,我感到很興奮,因為當你談到內存時,特別提到了HBM,為什么沒有選擇三星的?
黃仁勛:我認為三星和SK不生產顯卡,對吧?(此時黃仁勛問向現場媒體)他們生產嗎?(得到肯定回復后)好吧,抱歉,是我搞錯了,別告訴他們我說了這些。
關于HBM,他們正在努力,他們一定會成功的,這毫無疑問,我對此充滿信心。要知道,最早的HBM內存就是三星開發(fā)的,英偉達使用的第一塊HBM內存就來自三星,所以他們會重新崛起的,他們會強勢回歸的。
追問:為什么他們花了這么長時間?
黃仁勛:其實并不算太長。當然,韓國產業(yè)求變心切,這是好事。
但他們需要設計新方案,我相信他們一定能做到。而且他們進展很快,非常投入,我很有信心他們會成功。SK和三星都是優(yōu)秀的公司,尤其在內存領域,所以我相信他們會繼續(xù)取得成功。你們昨天也看到了Blackwell中使用了多少HBM內存,HBM內存對我們的計算非常重要。
問:盡管超大規(guī)?蛻魧τミ_產品的需求已經很明確,但我好奇的是,你們在擴大收入來源方面的緊迫感有多大?特別是在開拓企業(yè)客戶和政府客戶,幫助他們部署具有高性能AI計算能力的數據中心方面。尤其是在亞馬遜等公司正在研發(fā)自己的AI芯片時,你們感受到多大壓力?然后,能否詳細說說你們在企業(yè)和政府方面的進展嗎?
黃仁勛:我們的緊迫感來自于客戶的真實需求。我從不會因為一些客戶也在開發(fā)芯片而擔憂,因為大家做的是不同的事情。
我很高興看到客戶在云端使用英偉達的技術,很高興他們用英偉達的技術來開發(fā)AI。我們的技術進步現在非常快,每年性能可以翻一番,就代表每年成本降低一半。這比摩爾定律最好時期的進步要快得多。所以,我們會積極響應客戶需求,用產品回應他們。
關于企業(yè)級市場,現在主要有兩大行業(yè)服務:軟件服務商(比如ServiceNow、SAP等),以及幫助他們將軟件適配到業(yè)務流程中的解決方案集成商。英偉達的策略是與這兩個生態(tài)系統(tǒng)合作,幫助他們構建Agentic AI,而NIM、NeMo、AI Blueprints都是用于構建Agentic AI的工具包。
比如在軟件服務商方面,我們與ServiceNow團隊的合作就很成功,他們將因此推出一系列基于ServiceNow的AI代理服務,服務于員工和客戶。這就是我們的基本戰(zhàn)略。
在解決方案集成商方面,我們與埃森哲等公司合作。埃森哲在幫助客戶采用Agentic AI方面做得非常出色。
所以第一步是幫助整個生態(tài)系統(tǒng)開發(fā)AI,過去一年我們在構建Agentic AI工具包方面做得不錯,接下來就是部署的環(huán)節(jié)了。
問:很多公司都在開發(fā)Agentic AI,你們是如何與AWS、微軟、Salesforce這些同樣在為客戶提供開發(fā)平臺的公司合作或競爭的?你們是如何與這些公司打交道的?
黃仁勛:英偉達不是一家直接服務企業(yè)的公司,而是一家技術平臺公司。我們在構建工具包、庫和AI模型,這些都是為ServiceNow、SAP、Oracle、Synopsys、Cadence、西門子這樣的服務商提供的,但在計算層面、AI庫層面不是這些公司花精力投入的領域,所以英偉達可以為他們創(chuàng)建。
這其實相當復雜,因為我們實際在做的事情是在把類似ChatGPT的功能打包整合到容器中。優(yōu)化這些端點和微服務是非常復雜的。不過一旦完成,客戶就可以在任何云平臺上使用我們的產品,所以我們開發(fā)NIM、NeMo、AI Blueprints不是為了與他們競爭,而是為了服務他們。
事實上,已經有很多云服務提供商用NeMo訓練他們的模型,他們的云商店里也有NeMo和NIM,我們對此感到很高興。我們創(chuàng)建了這整個技術層,理解NIM和NeMo的作用就像理解CUDA和CUDA X庫一樣重要。CUDA X庫對于英偉達平臺起到了關鍵作用,其中有用于線性代數的cuBLAS,用于深度神經網絡處理的cuDNN(這真正革新了深度學習),以及cuTLAS等所有這些我們談論的高級模型,我們?yōu)樾袠I(yè)創(chuàng)建這些庫,這樣他們就不必自己做了。
同理,我們開發(fā)NeMo和NIM也是為了服務整個行業(yè),這樣企業(yè)就不必自己從零開發(fā)了。
問:我來自中國臺灣。CES主題演講提到,Digits的CPU是與聯(lián)發(fā)科合作的,想請您談談更多與其他中國臺灣公司合作的情況。另外還想了解英偉達是否會在中國臺灣建設總部?
黃仁勛:我們在中國臺灣有很多員工,但現有的辦公地太小了,我需要找到解決方案,也許我之后會宣布一些消息,我們正在物色地產。如果你知道好地方,請務必第一時間只告訴我一個人。
關于聯(lián)發(fā)科,我們在多個領域都有合作。比如自動駕駛汽車領域,雙方合作為行業(yè)提供完全軟件定義的智能汽車解決方案。所以我們在汽車行業(yè)的合作非常非常順利。
此外,新的Grace GB10 CPU也是與聯(lián)發(fā)科合作開發(fā)的。我們共同設計架構,實現了芯片間的互聯(lián)以及CPU和GPU的內存一致性。
坦白說,聯(lián)發(fā)科在芯片設計和制造方面都做得很出色,第一次做出來的就很完美,性能優(yōu)異。大家都知道聯(lián)發(fā)科在低功耗方面的優(yōu)勢,確實名不虛傳。我們很高興能與這樣優(yōu)秀的公司合作。
問:關于貿易限制,這個話題現在依然廣受關注,你對貿易限制可能影響到整個行業(yè)(包括英偉達)的盈利前景擔心嗎?
黃仁勛:我并不擔心。我相信政府會在貿易談判中做出正確的決定。無論最終結果如何,我們都會盡最大努力幫助客戶,推動市場向前發(fā)展。就像我們一直以來做的那樣。
【4】談AGI:“人在使用工具,機器終究是工具。”
問:我來自韓國,想問個哲學問題。最近Sam Altman發(fā)推文說我們已經接近AI“奇點”了,你這次也提到“通用機器人的ChatGPT時刻即將到來”,如果這是真的,機器人很快就會出現在我們身邊,也許有些機器人會比我們聰明,也許有些對我們來說很難理解。那么你認為,機器人會站在哪一邊?是與人類站在一起,還是對抗人類?
黃仁勛:會與人類站在一起,因為我們就是這樣設計它們的。
AGI(超級智能)這個概念并不陌生。在我的公司里,我的管理團隊、領導們和公司的科學家們都表現出超級智能,我已經被AGI包圍了,但我更愿意被AGI包圍,而不是相反的情況,因為這就是未來。
你會有超級智能來幫助你寫作、分析問題、做供應鏈規(guī)劃、編寫軟件、設計芯片、做數字營銷、做播客等等,而且它們隨時待命,為你提供服務。
追問:所以你不認為它們會有沖突?
黃仁勛:技術可以被用于多種用途。但要記住,是人在使用工具,機器終究是工具。
【5】談Cosmos:“一個能理解物理世界的基礎模型,會讓機器人成為現實”
問:這次在CES演講的某些部分,感覺像是在聽技術研討會,內容很專業(yè)。但現在你們的受眾群體更廣了,能否重新解釋一下這次發(fā)布的AI進展的核心意義,讓那些完全不了解技術的普通觀眾也能理解。
黃仁勛:首先,我承認有這個問題,但這還是次要的。要知道,英偉達是一家技術公司,而不是消費品公司,我們的技術會影響和改變消費電子產品的未來。
雖然CES熱情邀請英偉達來分享,但我們始終是一家專注于技術的公司。當然,這并不能成為我沒有把技術講解得更好的借口。
我重新試著講解一下。
我們這次宣布的一個最重要的突破,是開發(fā)了一個能夠理解物理世界的基礎模型Cosmos。就像GPT是理解語言的基礎模型,Stable Diffusion是理解圖像的基礎模型一樣,我們創(chuàng)造了一個理解物理世界的基礎模型。
它能理解摩擦力、慣性、重力、物體的存在和持續(xù)性,以及幾何和空間關系等概念——這些都是人類孩子們與生俱來就能理解的東西。我們認為需要有這樣一個“理解物理世界”的基礎模型,它能以大語言模型目前無法做到的方式理解物理世界。
現在,通過Cosmos,所有你能用GPT和Stable Diffusion完成的任務,都可以用它來實現。比如,你可以跟這個世界模型對話,問它“現在看到了什么?”它通過攝像頭獲取的畫面,可以描述“看到很多人坐在桌前,大家在一個房間里”的現實場景。
為什么我們需要Cosmos?因為如果你希望AI能夠在物理世界中合理地運作和互動,就必須讓AI理解物理世界。
自動駕駛汽車需要理解物理世界,機器人也需要理解物理世界,Cosmos是實現所有這些應用的起點。就像GPT催生了我們今天經歷的一切,就像Llama對當前所有的AI活動都很重要,就像Stable Diffusion觸發(fā)了所有這些生成式圖像和視頻模型一樣。
我們希望Cosmos也能達到同樣的效果,Cosmos會讓機器人成為現實。
問:我想問這次發(fā)布的模型,尤其是Cosmos,這些模型能在智能眼鏡上運行嗎?或者在開發(fā)這些模型時,你們有考慮過智能眼鏡嗎?因為考慮到行業(yè)的發(fā)展方向,智能眼鏡似乎是未來很多人體驗AI代理的一個重要平臺。
黃仁勛:是的,我對智能眼鏡很感興趣,它能回答“我看到了什么、如何到達目的地”,它可以幫助你閱讀,還有很多其他用途,使用場景非常廣闊。
對于Cosmos的使用方式,云端的Cosmos可以提供視覺理解能力,如果你想在設備本地運行,那么你可以使用Cosmos來提煉出一個小型模型。這樣,Cosmos就變成了一個知識遷移的AI工具,它將知識轉移到一個更小的AI模型中。
這種做法之所以可行,是因為更小的AI模型雖然通用性較差,但在特定領域非常專業(yè),這就是為什么可以進行定向的知識遷移。這也是為什么我們總是先構建基礎模型(大模型),然后通過知識蒸餾逐步構建更小的模型。
【6】談DLSS:“從最初沒人相信,現在大家終于意識到它確實是未來”
問:關于DLSS 4,你這次做了一些視頻展示,我想詳細了解一下,比如多幀生成技術,它是否仍然是渲染兩幀,然后在中間生成并進行插值?
另外,關于演示視頻里提到的RTX Neural Material,這是游戲開發(fā)者需要專門采用的技術嗎?還是它是驅動程序層面的功能,可以讓大部分PC游戲受益?
黃仁勛:在Blackwell中,我們增加了著色器處理器能夠運行神經網絡,這樣就可以在著色器管線中混合使用代碼和神經網絡模型。這非常重要,因為紋理和材質的處理,都是在著色器中處理的。
如果著色器能運行AI,那么就能利用神經網絡帶來在算法上帶來的進步。比如壓縮技術,現在的紋理壓縮效果比我們過去30年使用的壓縮算法要好得多,壓縮比有了巨大提升。對于很多紋理可以額外壓縮5倍。現在游戲體積都很大,所以這是個重要進步。
第二點關于材質。材質決定了光線在表面的傳播方式,它的各向異性特性,會讓光線以特定方式反射,讓我們能分辨這是金子、還是油漆、還是金箔。這種特性本質上是原子層面發(fā)生的,光線在材料的微觀結構上的反射、折射和散射造就了材質的特性。用數學方法很難描述這個過程,但我們可以用AI來學習它。所以我認為,這種神經材質技術是一個重大突破,能為計算機圖形帶來前所未有的生動感和逼真度。
這兩項技術都需要內容端的配合,所以開發(fā)者首先要開發(fā)內容,然后我們就可以輕松整合進去。
關于DLSS,幀生成不是插值關系,而是字面意義上真正的生成。我們是在預測未來,而不是在對過去進行插值,這樣做是為了提高幀率。DLSS 4是一個徹底的突破,你們一定要去體驗。
問:AI在PC游戲中是否扮演了更決定性的作用,你能想象傳統(tǒng)渲染的畫面幀,未來全部都變成AI生成的幀嗎?
黃仁勛:不是的,我來解釋一下原因。ChatGPT剛出來時,大家說“現在我們可以讓AI生成一整本書了”,但實際上內部人員都知道這并不現實,原因是AI生成內容需要獲得基準事實,這叫做條件控制(Conditioning)。
<編者注:條件控制就像是給AI一個清晰的“工作說明書”,讓它能夠按照我們的預期來完成任務。假設你是一個廚師,被要求做一道菜,就非;\統(tǒng),但如果有人告訴你“做一道中式炒面,要偏甜口味,面條要軟硬適中”,你就更清楚該怎么做了。所以,如果沒有條件控制,AI就像無頭蒼蠅,生成的內容可能偏離預期。有條件控制時,給AI明確的方向和邊界,指定內容的風格、長度、深度,告訴它“要什么”和“不要什么”,更明確。)
就像我們現在,要用上下文來條件控制聊天或提示詞,在回答問題之前,它必須理解上下文,上下文可能是PDF文件、網頁搜索、或者提示詞。
游戲也是同樣的道理,你必須提供上下文。而游戲的上下文不僅有故事情節(jié),還要考慮空間關系。進行條件控制的方式是提供初始的幾何形狀或紋理片段,然后基于這些,系統(tǒng)才能生成新內容或提升內容。
這種條件控制與ChatGPT使用上下文或企業(yè)中的“檢索增強生成(RAG)”是一樣的。未來的3D圖形生成將建立在以真實場景為基礎的生成方式。
以DLSS 4為例。在四幀畫面中有3300萬像素,我們只需要渲染其中的200萬像素,并讓AI預測并生成其余的3100萬像素。
這200萬像素必須有精確的“條件控制”,通過“條件控制”,我們可以生成其他的幀。而且更重要的是,由于原本用在那3100萬像素的算力現在都集中在這200萬像素上,所以這200萬像素可以渲染得非常精美,為其他像素的生成提供了基礎和參考。
這種變革將影響游戲的方方面面,從像素渲染、到幾何渲染、到動畫渲染等。DLSS從第一次宣布到現在,過去了六年時間,從最初的沒人相信(部分原因是我沒有解釋清楚),到現在大家終于意識到它確實是未來,關鍵是要有條件控制,要有藝術家的專業(yè)創(chuàng)意指導。
我們在Omniverse中就是這樣做的。我們將Omniverse和Cosmos結合,就是因為Omniverse作為Cosmos的3D引擎,本質上是一個生成引擎。我們可以精確控制渲染的程度,盡可能生成更多內容。當減少控制和模擬時,我們反而能模擬更大的世界。因為在這背后,我們有一個強大的生成引擎,在創(chuàng)造一個精美的世界。
問:這次發(fā)布的5090是個很棒的硬件,但要讓新硬件運行起來,需要面對Windows和DirectX的適配挑戰(zhàn)。你們需要做什么來減少引擎適配的阻力?如果我想讓DirectX與你們的硬件配合得更好,需要注意什么?
黃仁勛:多年來,每當DirectX的API需要擴展或革新時,微軟一直都非常愿意配合。我們與DirectX團隊有著很好的合作關系。當我們在推進GPU技術時,如果API需要改變,他們都會很支持。
但對于DLSS來說,大多數情況下我們不需要改變API,實際上需要改變的是引擎本身,因為這涉及到語義理解層面,它需要理解場景的整體,而不僅僅是繪制調用。
場景的更多信息存在于虛幻引擎、寒霜引擎或其他開發(fā)者的引擎中,這就是為什么DLSS現在已經集成到了很多個引擎里的原因。特別是從DLSS 2/3/4開始,一旦完成集成,即使游戲是為DLSS 3開發(fā)的,當我們更新到DLSS 4時,它也能獲得DLSS 4的部分改進,以此類推。所以我們必須為基于場景語義理解的AI處理搭建管道。AI處理是基于場景的語義信息,這真的必須在引擎層面實現。
【7】談Blackwell:“具有強大的通用性”
問:你認為Blackwell到統(tǒng)一架構,在AI競爭中有什么優(yōu)勢?
黃仁勛:Blackwell GPU具有強大的通用性,能夠支持從Agentic AI到完整機器人系統(tǒng)的各類應用,無論是云端服務器、自動駕駛汽車、機器人、還是游戲系統(tǒng),都能在Blackwell上運行。這是我們深思熟慮后做出的戰(zhàn)略決策。
這么做的原因是,軟件開發(fā)者需要一個通用的開發(fā)平臺,開發(fā)者只需要開發(fā)一次,就能確保他們的程序可以在任何搭載英偉達芯片的平臺上運行。就像我這次在CES上說的,我們可以在云端開發(fā)AI模型,然后輕松部署到個人PC上運行。還有誰能做到這一點?
這就表明,云端的AI容器可以直接下載到PC上運行。比如SD-XL、Flux、Llama等模型都能完美適配,直接從云端拖拽下來,在你的PC上就能立即使用,在游戲等應用中也能得到廣泛應用。
問:看到這次發(fā)布的5070的性能和4090差不多,價格還降了那么多,很讓人興奮,那么我們對即將上市的其他型號可以期待什么?
黃仁勛:我們這次發(fā)布了四張RTX Blackwell顯卡,其中性能最低的一款超過了當今世界上性能最強的GPU,真是令人難以置信。這充分體現了AI的驚人能力,如果沒有AI、沒有張量核心、以及圍繞DLSS4的所有創(chuàng)新,我們不可能達到這樣的性能水平。
至于其他型號,我現在沒什么可以宣布的。會有6060嗎?我不知道。不過6060確實是我最喜歡的數字之一。
問:這次英偉達發(fā)布了DIGITS,你認為非游戲PC市場目前最沒有被滿足的需求是什么?
黃仁勛:讓我先解釋一下DIGITS,它是一個深度學習GPU智能訓練系統(tǒng),是一個面向數據科學家和機器學習工程師的平臺,F在,這群人大多使用個人電腦、Mac或工作站來做這些工作,說實話,對大多數人的PC來說,做機器學習、數據科學、運行Pandas或PyTorch這些工作,都不是最優(yōu)選擇。
所以我們現在有了DIGITS,它體積小巧,可以放在桌面,支持無線連接,使用起來就像在云端操作一樣方便,就像是在運行你自己的私人AI云。
為什么要開發(fā)這樣的設備?因為對大多數開發(fā)者來說,需要頻繁使用計算資源,如果完全依賴云服務,成本會很高。DIGITS正好填補了這個市場空白,現在有了這個設備,相當于擁有了一個私人開發(fā)云,這對那些需要持續(xù)進行開發(fā)的數據科學家、學生和工程師來說非常有價值。
雖然AI起源于云端,未來可能仍然以云為主,但目前的計算設備已經跟不上AI發(fā)展的步伐。這就是為什么我們要開發(fā)新的解決方案。
問:我有一個關于游戲玩家和消費者的問題。我們注意到RTX 5090和5080之間存在巨大差距。5090的CUDA核心數量是5080的兩倍多,價格也翻倍了。為什么要在旗艦和次旗艦產品之間做出如此大的差異?
黃仁勛:原因是,一旦有人想要最好的產品時,他們就一定會去選擇最好的。市場不需要那么多細分,對于我們的發(fā)燒友來說,如果他們想要最好的,給他們稍差一點的產品來省100美元,他們是不會接受的。他們就是想要最好的。
當然,2000美元確實不是小數目,這確實是一個相當高的價格。但要記住,這項技術是要進入你的家用PC環(huán)境的。而你的那臺PC,已經在顯示器和音響上投資了約1萬美元,你肯定會想要最好的GPU。
所以我們有很多客戶,他們就是追求絕對最好的產品。
【8】談三種Scaling Law:一個良性循環(huán)
問:這次CES你提到,我們正在見證三種新的Scaling Law出現,特別是測試時規(guī)模定律(Test-Time Scaling),關于測試時計算(Test-time Compute)。我認為OpenAI的GPT-o3模型已經表明,從計算角度來看,擴展推理的成本很高,在ARC-AGI基準測試中的一些運行成本達到數千美元。英偉達在提供更具成本效益的AI推理芯片方面做了什么?更廣泛地說,你們如何從測試時規(guī)模定律中受益?
黃仁勛:這是個很好的問題。首先,對于測試時計算來說,無論是在性能還是成本方面,最直接的解決方案就是提升計算能力。
這就是為什么我們推出RTX Blackwell系列和NVLink72,新架構的推理性能可能比上一代Hopper高30-40倍。通過提升30-40倍的性能,你實際上也在降低30-40倍的成本,因為數據中心的其他成本基本保持不變。
這個改進方式,也是摩爾定律在計算機歷史上如此重要的原因,正因為它降低了計算成本。我之前提到我們的GPU性能在過去10年提升了10000倍,這反過來說明了我們將成本降低了幾千到上萬倍。在過去20年里,我們將計算的邊際成本降低了100萬倍。
正是這種成本的大幅下降,讓機器學習變得切實可行。當我們提升性能時,推理也會發(fā)生同樣的事情,所以推理的成本也會下降。未來我們會繼續(xù)推動計算能力的提升,也將繼續(xù)帶來計算成本的降低。
從另一個角度來看,現在我們通過測試時間計算(Test-Time Compute)或測試時擴展(Test-Time Scaling)來獲得答案需要多次嘗試,這些答案會被用作下一輪后訓練(Post-Training)的數據,這些數據又會成為下一輪預訓練(Pre-Training)的數據——所有我們現在收集的數據都會進入預訓練和后訓練的數據池。通過持續(xù)積累和利用這些數據來訓練超級計算機,我們可以讓模型變得更智能,從而降低推理成本,最終讓每個人的AI推理成本都變得更低。
只不過,這個過程需要時間,所以這三種Scaling Law會在未來持續(xù)發(fā)揮作用。一方面,每一次迭代我們都在提升模型的智能水平。另一方面,用戶對AI的要求也在不斷提高,會問出越來越難的問題,會要求AI具備更強的智能,這種需求會導致Test-Time Scaling的持續(xù)發(fā)展,形成一個良性且不斷擴大的循環(huán)。
【9】談自動駕駛汽車:“更大的創(chuàng)新可能來自中國”
問:我的問題是關于自動駕駛汽車。我記得2017年英偉達在CES上展示了一輛概念車,并在5月的GTC上與豐田合作。那么2017年和2025年,這項技術有了哪些變化?當年存在什么問題?現在又有什么技術突破?
黃仁勛:首先,我認為未來所有可移動的設備都會具備自動化功能。不會再有需要人力推的割草機了,20年后如果還有人在推割草機,那會很有趣,但這顯然毫無必要。未來的汽車,你仍然可以選擇自己駕駛,但所有汽車都將具備自動駕駛功能。這個發(fā)展趨勢已經非常明顯了。
5年前,我們還不太確定這項技術會發(fā)展到什么程度,但現在我們非常篤定,包括傳感器技術、計算機技術、軟件技術都已經相當成熟,F在有充分證據表明,新一代汽車,特別是電動汽車,幾乎每一款都會具備自動駕駛能力。
我認為有兩個因素推動了這個變革,真正改變了傳統(tǒng)汽車公司的想法。一個是特斯拉,影響力很大;但更大的影響可能來自中國令人驚嘆的技術進步,蔚來、理想、比亞迪、小鵬、小米等新能源汽車公司,技術非常出色,自動駕駛能力也很強,現在正在走向世界。這給未來的汽車樹立了標準,未來每輛車都必須具備強大的自動駕駛功能。
所以我認為,世界已經在改變,技術成熟需要時間,我們對它的認知也需要時間,但現在形勢已經很清晰了。我們的重要合作伙伴Waymo在舊金山已經遍地開花,老百姓也很喜歡它。
【10】談AI發(fā)展:“AI發(fā)展沒有任何物理限制,下一代將是用AI學習的一代”
問:英偉達是如何考慮市場策略的?AI發(fā)展的下一步需要什么?是否存在物理限制?
黃仁勛:我們只在市場真正需要我們的時候才會行動,如果市場存在空白,而且只有我們注定要去填補這個空白的時候,我們就會去做。我們傾向于做那些與現有市場不同的事情,或者如果我們不做就沒人會做的事情。
這就是英偉達的理念:不要重復做別人已經在做的事。我們不是市場份額的爭奪者,而是市場的創(chuàng)造者。我們不傾向于進入已經存在的市場去爭奪份額,那不是英偉達的風格。
比如說,市場上還沒有Digits這個東西,如果我們不開發(fā)它,世界上就不會有人去開發(fā)它,因為軟件棧太復雜,計算能力要求太高。除非我們去做,否則沒人會去做。如果我們沒有推進神經圖形學,也不會有其他人去做,所以我們必須去做。這些都是我們必須承擔的使命。
問:我來自以色列。過去幾年里,AI(特別是生成式AI)在各個領域發(fā)展迅速,我認為這要歸功于推動這一時刻的科技公司。你認為,當前AI的發(fā)展速度是可持續(xù)的嗎?短期內能維持這種勢頭嗎?
黃仁勛:是的,據我所知,AI的發(fā)展沒有任何物理限制。
第一,正如你所知,我們能夠如此快速推進AI計算的原因之一,是我們能夠以集成的方式同時構建和整合CPU、GPU、NVLink、網絡以及所有軟件和系統(tǒng)。
如果這些工作分散在20個不同的公司,整合起來會非常耗時。正是因為我們掌握了所有集成技術和軟件支持,才能如此快速地推進系統(tǒng)發(fā)展。從Hopper、H100到H200再到下一代,我們將持續(xù)提升每個單元的性能。
第二,因為我們能夠優(yōu)化整個系統(tǒng),我們能實現的性能遠超單純的晶體管性能提升。雖然摩爾定律已經放緩,盡管每代晶體管性能的提升不明顯,但我們的整體系統(tǒng)性能仍在逐年大幅提升。所以我認為目前沒有明顯的物理瓶頸。
隨著計算能力的提升,Scaling Law的三種狀態(tài)將繼續(xù)發(fā)展:第一,研究人員可以用更大的模型,訓練更多數據,這是“預訓練規(guī)模定律(Pre-Training Scaling)”;第二,強化學習和合成數據生成能力,也會不斷提升,這是“后訓練規(guī)模定律(Post-Training Scaling)”;第三,如果我們繼續(xù)提高計算能力,也就意味著成本會持續(xù)下降,那么我們可以處理大量數據,應用范圍會進一步擴大,這就是“測試時間規(guī)模定律(Test-Time Scaling)”。
所以只要沒有物理原因阻止,我們繼續(xù)提升計算能力,我認為AI就會繼續(xù)快速發(fā)展。
問:所有重大的技術轉型都不是由一家公司完成的,比如互聯(lián)網、PC等,它們最終都會在某個時刻匯聚,才能產生這個重大變革。在AI領域,你覺得現在還有什么缺失的部分會阻礙我們的發(fā)展,還是說一切都已經準備就緒了?我知道這個問題可能比較復雜,因為AI的應用方式很多。但我很好奇你是否認為生態(tài)系統(tǒng)中還缺少什么關鍵部分?
黃仁勛:是的,我認為有。讓我從兩個方面來說明。
首先,在語言和認知AI方面,我們仍在提升AI的認知能力,讓它具備多模態(tài)和良好的推理能力。其次,是如何把這項技術應用到AI系統(tǒng)中。
AI不是一個模型,而是一個模型系統(tǒng)。Agentic AI是一個模型系統(tǒng)的整合——有檢索模型、搜索模型、圖像生成模型、推理模型、規(guī)劃模型等等。所以這是一個完整的模型系統(tǒng)。
這幾年,行業(yè)不僅是在基礎AI方面創(chuàng)新,也一直在應用AI路徑上創(chuàng)新。但我們還缺少一個加速這一進程的必備要素,那就是——物理AI。
就像GPT-3是第一個達到實用水平的語言基礎模型,讓我們能在上面開發(fā)各種功能,物理AI需要像認知AI那樣有基礎模型,這就是我們開發(fā)Cosmos的原因。
所以我們必須讓物理AI也達到這樣的水平。這就是我們在開發(fā)Cosmos的原因。一旦達到這個水平,把模型推向市場,就能激活終端的大量應用場景,而且產業(yè)鏈下游的任務就能順利開展。這個基礎模型也可以作為教師模型。
第二個AI缺失的部分,也是我們正在用Omniverse做的工作——就是將Omniverse和Cosmos這兩個系統(tǒng)連接在一起,使其成為一個基于物理學的系統(tǒng),這樣就能使用這種基礎模型來控制生成過程,讓Cosmos輸出的內容高度可信,而不僅只是看起來逼真。
所以,Cosmos+Omniverse是未來可能成為一個非常龐大的機器人產業(yè)的重要起點。這就是我們這樣做的原因。
問:我是來自中國的媒體「至頂科技」。我的問題關于教育,(在AI時代),你認為學生需要什么樣的學習方式?或者從另一個角度問,學校應該傳授哪些知識、技能?
黃仁勛:非常好的問題。最后一個問題總會有些壓力,這是一個很好的收尾問題,因為它涉及到一個永恒命題。
首先,讓我談談我的經歷,然后我們可以推演到下一代學生的學習。我們這一代人,是第一代必須學習如何使用計算機來做科研的人。上一代人,只用計算器、計算尺、紙和筆,我們這一代人必須學習如何使用計算機、編寫軟件、設計芯片、模擬物理。所以,我們是第一代使用計算機工作的一代人,而下一代將是學習如何使用AI工作的一代人,因為AI就是新的計算機。
當然,現在很多重要的科學領域,未來的關鍵是如何用AI來幫助做研究:
-如何利用AI幫助進行生物學研究?
-如何利用AI幫助進行林業(yè)工作?
-如何利用AI幫助進行農業(yè)研究?
-如何利用AI幫助進行化學研究?
-如何利用AI研究量子物理?
-如何利用AI推進運籌學研究?
-幾乎每一個科學領域都會用到,包括計算機科學本身:即如何如何使用AI來推進AI的發(fā)展。
如果你想成為記者,就要思考如何用AI來幫助自己成為一名更好的記者。如果你想成為作家,就要思考如何用AI來幫助自己成為一名更好的作家。對嗎?
未來,每個學生都必須學會使用AI,就像現在這一代學生都必須學會使用計算機一樣。你要迅速意識到,AI革命是多么深遠。這不僅僅是關于大語言模型,雖然大語言模型很重要,但AI將來會成為字面意義上所有事物的一部分。這是我們所知的最具變革性的技術,而且發(fā)展極其迅速。
因此,我衷心感謝大家對這個行業(yè)的關注,對于游戲玩家和游戲產業(yè),我真誠地感激,現在,行業(yè)與我們一樣興奮,從最初使用GPU來推進AI,到現在使用AI來推進計算機圖形學。
所有這些工作,包括與RTX Blackwell、DLSS4、神經渲染和神經著色的合作,都是由于AI技術的進步所推動的。目前,這些技術已經反哺到了計算機圖形學的發(fā)展。
值得注意的是,如果你看計算機圖形學的摩爾定律曲線,它本是在放緩,但AI的加入讓它獲得了超級動力,現在幀率達到200、300、400幀每秒,圖像完全是光線追蹤且非常漂亮。我們已經進入了計算機圖形學的指數增長曲線。實際上,我們在幾乎所有領域都進入了指數增長曲線。
所以,這就是為什么我認為我們的行業(yè)將會快速變化,而且每個行業(yè)都將快速變化。
感謝你們的到來,新年快樂!
本文章選自《數字化轉型方略》雜志,閱讀更多雜志內容,請掃描下方二維碼
