Google 推出名為 Titans 的新型 AI 架構(gòu),是 Transformer 的直接進化版。Titans 引入了神經(jīng)長期記憶、短期記憶和基于驚喜的學(xué)習(xí)系統(tǒng),使 AI 更接近人類思維方式。這一突破性技術(shù)有望徹底改變 AI 范式,推動機器智能向人類認知邁進一大步。
Cognizant 推出了神經(jīng) AI 多代理加速器和服務(wù)套件,旨在幫助企業(yè)快速開發(fā)和部署 AI 代理。該技術(shù)通過預(yù)構(gòu)建的代理網(wǎng)絡(luò)模板和無代碼框架,實現(xiàn)了跨職能的可擴展性和自主決策能力。這一創(chuàng)新有望推動 AI 代理在企業(yè)工作流程中的廣泛應(yīng)用,促進人機協(xié)作,提升業(yè)務(wù)效率和適應(yīng)性。
伊利亞因2014年與Oriol Vinyals、Quoc Le共同撰寫的“神經(jīng)網(wǎng)絡(luò)的序列到序列學(xué)習(xí)”論文,獲得了NeurIPS 2024時間檢驗獎。該論文引入的編碼器-解碼器架構(gòu),使用多層長短期記憶網(wǎng)絡(luò)(LSTM)將輸入序列映射到固定維度的向量,再從向量解碼目標序列,極大地拓展了自然語言處理的邊界,為序列到序列的任務(wù)提供了一種高效的方法,是自然語言處理及機器學(xué)習(xí)領(lǐng)域的重要基石。
大語言模型并不是簡單的詞匯預(yù)測機器,這些模型實際上具有理解它們所生成內(nèi)容的能力。如果大語言模型只是簡單地基于統(tǒng)計概率來預(yù)測下一個詞匯,那么它們不可能在處理復(fù)雜問題時表現(xiàn)出色。
利用神經(jīng)網(wǎng)絡(luò)來表示復(fù)雜的思想,神經(jīng)網(wǎng)絡(luò)能夠捕捉和學(xué)習(xí)數(shù)據(jù)中的復(fù)雜模式,從而在各種預(yù)測任務(wù)中表現(xiàn)出色,這種預(yù)測能力是智能的一個主要技能,也是人類作為物種的一個顯著特點。
Nvidia今天推出了新版本的NeMo Megatron AI開發(fā)工具,該工具將讓軟件團隊能夠更快地訓(xùn)練神經(jīng)網(wǎng)絡(luò)。
Meta Platforms今天開放了NLLB-200的系統(tǒng)代碼,NLLB-200是Meta內(nèi)部開發(fā)的一個人工智能系統(tǒng),可以翻譯200種語言的文本。
通常我們訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的時候默認使用的數(shù)據(jù)類型為單精度FP32。近年來,為了加快訓(xùn)練時間、減少網(wǎng)絡(luò)訓(xùn)練時候所占用的內(nèi)存,并且保存訓(xùn)練出來的模型精度持平的條件下,業(yè)界提出越來越多的混合精度訓(xùn)練的方法。
麻省理工學(xué)院的研究人員表示,他們已經(jīng)開發(fā)出了一種能夠在不到一秒鐘內(nèi)處理磁共振圖像的算法,這對于醫(yī)療行業(yè)來說將是一項至關(guān)重要的進展。