Contextual AI今天發(fā)布了其基礎(chǔ)語(yǔ)言模型(GLM),聲稱(chēng)在行業(yè)中提供了最高的事實(shí)準(zhǔn)確性,超越了Google、Anthropic和OpenAI的領(lǐng)先AI系統(tǒng),在一個(gè)關(guān)鍵的真實(shí)性基準(zhǔn)測(cè)試中表現(xiàn)出色。該公司由檢索增強(qiáng)生成(RAG)技術(shù)的先驅(qū)創(chuàng)立,GLM在FACTS基準(zhǔn)測(cè)試中獲得了88%的事實(shí)得分,而Google的Gemini 2.0 Flash為84.6%,Anthropic的Claude 3.5 Sonnet為79.4%,OpenAI的GPT-4o為78.8%。
Anthropic 推出新的引用 API 功能,將檢索增強(qiáng)生成(RAG)技術(shù)直接集成到 Claude 模型中。該功能可自動(dòng)引用源文檔中的具體段落,有助于減少模型產(chǎn)生的虛假信息,提高回答準(zhǔn)確性。這一創(chuàng)新吸引了 AI 研究人員的關(guān)注,有望在法律、金融等領(lǐng)域得到廣泛應(yīng)用。
Pinecone 推出了 Pinecone Assistant,一種 AI 智能助手構(gòu)建 API 服務(wù),旨在加速檢索增強(qiáng)生成(RAG)應(yīng)用的開(kāi)發(fā)。該服務(wù)集成了向量搜索、模型編排和重排等功能,簡(jiǎn)化了 RAG 應(yīng)用的構(gòu)建過(guò)程。Pinecone Assistant 提供了優(yōu)化的接口、自定義指令和多種文件格式支持,為開(kāi)發(fā)者提供了靈活且高效的 AI 智能助手構(gòu)建工具。
本質(zhì)上,他是不是大模型按照自己的知識(shí)庫(kù)回答,然后先通過(guò)一些工程化手段,比如聯(lián)網(wǎng)搜索,比如文檔搜索等等,先把相關(guān)信息給找出來(lái),讓大模型根據(jù)這些信息來(lái)進(jìn)行回答。
通常而言,RAG 賦予了語(yǔ)言模型獲取和處理外部信息的能力,使其不再被限制在固有的知識(shí)范疇內(nèi)。通過(guò)將語(yǔ)言模型與信息檢索系統(tǒng)結(jié)合,RAG 允許模型動(dòng)態(tài)地從互聯(lián)網(wǎng)、知識(shí)庫(kù)或其他外部來(lái)源檢索相關(guān)內(nèi)容,并將這些內(nèi)容融合到生成的響應(yīng)中。這一機(jī)制確保了生成的答復(fù)不僅貼近真實(shí)世界,內(nèi)容更加翔實(shí)可信,從而顯著提升了語(yǔ)言模型在處理復(fù)雜問(wèn)題時(shí)的表現(xiàn)。
隨著技術(shù)的不斷進(jìn)步,LLM 帶來(lái)了前所未有的機(jī)遇,吸引了開(kāi)發(fā)者和組織紛紛嘗試?yán)闷鋸?qiáng)大的能力構(gòu)建應(yīng)用程序。然而,當(dāng)預(yù)訓(xùn)練的 LLM 在實(shí)際應(yīng)用中無(wú)法達(dá)到預(yù)期的性能水平時(shí),人們將不由自主地開(kāi)始思考:我們到底應(yīng)該使用哪種技術(shù)來(lái)改善這些模型在特定場(chǎng)景下的表現(xiàn)?
北京大學(xué)崔斌教授領(lǐng)導(dǎo)的數(shù)據(jù)與智能實(shí)驗(yàn)室發(fā)布了關(guān)于檢索增強(qiáng)生成(RAG)技術(shù)的綜述,涵蓋近300篇相關(guān)論文。RAG技術(shù)結(jié)合檢索與生成,用于問(wèn)答、對(duì)話生成等AI任務(wù),展現(xiàn)出卓越潛力。