大模型的研發(fā)和運行確實需要大規(guī)模的資源和資金支持,非小規(guī)模團隊能夠輕易承擔。這一點在當前的人工智能領(lǐng)域尤為明顯。以GPT4-o為例,其訓練涉及了文本、視覺和音頻等多種數(shù)據(jù)模態(tài),這意味著它需要處理和分析的數(shù)據(jù)量是巨大的。據(jù)OpenAI透露,GPT-4o在訓練過程中使用了多達13兆的數(shù)據(jù),這比之前的一些大型模型如LLAMA和PaLM使用的數(shù)據(jù)量還要多。此外,GPT-4o的模型參數(shù)數(shù)量也非常龐大,達到了1.8萬億。
專業(yè)社區(qū)關(guān)注大語言模型(LLM)如AlphaFold的發(fā)展,其預測蛋白質(zhì)結(jié)構(gòu)的能力為科研帶來革命,縮短新藥研發(fā)周期。谷歌DeepMind的Demis Hassabis憑借AlphaFold獲化學諾貝爾獎,展現(xiàn)AI在科學研究中的關(guān)鍵作用。AlphaFold-3的架構(gòu)創(chuàng)新和預測準確性提升,使其能預測幾乎所有生命分子結(jié)構(gòu)。AI的進步讓科研界思緒凌亂,考慮轉(zhuǎn)行搞AI。
瑞典皇家科學院宣布2024年物理獎頒給了,兩位AI先驅(qū)Geoff Hinton和John Hopfield。兩位提出的Hopfield網(wǎng)絡、玻爾茲曼機器、神經(jīng)網(wǎng)絡、深度學習、反向傳播算法、模仿人類大腦等技術(shù)概念。
進入10月份,諾貝爾獎陸續(xù)揭曉,共有六項獎項的獲獎者名單在全球范圍內(nèi)公布。