大模型的研發(fā)和運行確實需要大規(guī)模的資源和資金支持,非小規(guī)模團隊能夠輕易承擔。這一點在當前的人工智能領域尤為明顯。以GPT4-o為例,其訓練涉及了文本、視覺和音頻等多種數(shù)據(jù)模態(tài),這意味著它需要處理和分析的數(shù)據(jù)量是巨大的。據(jù)OpenAI透露,GPT-4o在訓練過程中使用了多達13兆的數(shù)據(jù),這比之前的一些大型模型如LLAMA和PaLM使用的數(shù)據(jù)量還要多。此外,GPT-4o的模型參數(shù)數(shù)量也非常龐大,達到了1.8萬億。