讓大模型“走進(jìn)”現(xiàn)實 浪潮信息Prompt了這些問題
浪潮信息“源”大模型專家表示,大模型的幻覺問題有不同的類型,針對不同類型的幻覺,采用不同的技術(shù)路線進(jìn)行解決。
有問題,才有解決問題的方法
大模型是過去一年的“大明星”,各種大模型的涌現(xiàn)讓整個市場看起來異彩紛呈。
不過大模型還只是處于發(fā)展的初級階段,能力標(biāo)準(zhǔn)、技術(shù)路徑、場景落地以及商業(yè)模式等依然存在不確定性。
例如,傳統(tǒng)的自然語言榜單側(cè)重語言理解和生成,比如辨析詞句意義是否相近、文本分類、關(guān)鍵信息提取、文本生成等。自從GPT-4開始用真實的考試評估模型能力開始,目前業(yè)界對于模型能力的評估有了更多維度,知識、邏輯和計算等非語言模型擅長的能力都作為了衡量大模型能力的關(guān)鍵點之一。
在浪潮信息“源”大模型團(tuán)隊看來,要衡量大模型的整體性能表現(xiàn)大致有如下幾類,每一類又有非常細(xì)致的各類技術(shù)指標(biāo):
準(zhǔn)確度是指大模型生成的結(jié)果與真實或參考結(jié)果之間的相似度或一致性。比如模型是否能給出準(zhǔn)確的計算結(jié)果、可運行的代碼、符合真實的答案等等。
效率是指大模型在完成任務(wù)時所消耗的資源或時間。效率可以用不同的方法來衡量,通常的衡量方式是顯存占用和推理時間,這些決定了模型可以在怎樣的配置下完成推理。
可靠性是指大模型在處理異常提問或有害信息等情況時所表現(xiàn)出的穩(wěn)定性或魯棒性。比如能否拒絕關(guān)于有害內(nèi)容的提問,在提問不完整時能否進(jìn)行追問等等。
解決“幻覺”,對齊“價值”
在大模型方面,困擾業(yè)界的一大難題是“幻覺”問題。“幻覺”是由大模型的Transformer技術(shù)路線帶來的,其路線本質(zhì)是用訓(xùn)練中學(xué)到的文本語言結(jié)構(gòu)和語義的理解,預(yù)測文本序列中下一個token,從而選出一個最好的關(guān)鍵字眼,不斷“涌現(xiàn)”出新的內(nèi)容,這既是它的創(chuàng)造能力來源,也是它的“幻覺”來源。
同時,大模型的訓(xùn)練數(shù)據(jù)缺陷、RLHF對齊過程、推理過程都會對大模型的“幻覺”產(chǎn)生影響。這是大模型基于現(xiàn)有的技術(shù)路線不可避免的問題,也是一個引人關(guān)注的持續(xù)問題,需要持續(xù)的研究。
浪潮信息“源”大模型專家表示,大模型的幻覺問題有不同的類型,針對不同類型的幻覺,采用不同的技術(shù)路線進(jìn)行解決。
首先,針對事實性幻覺(即模型生成的內(nèi)容與可驗證的現(xiàn)實世界事實不一致),檢索增強(qiáng)生成(RAG)的技術(shù)方法正獲得更多關(guān)注。浪潮信息在“源2.0”的訓(xùn)練中構(gòu)建了RAG相關(guān)數(shù)據(jù)集,可以有效提升其在檢索生成上的表現(xiàn)。
在大模型落地應(yīng)用中,浪潮信息也會基于RAG技術(shù),將“源”大模型掛載專業(yè)的數(shù)據(jù)中心服務(wù)知識庫上,以提升“源”大模型對于專業(yè)的IT服務(wù)知識的理解,更好地回答專業(yè)的數(shù)據(jù)中心客戶問題。
基于“源”大模型,使用知識庫檢索的方式打造的智能客服“源曉服”對于浪潮信息8大產(chǎn)品線的全部服務(wù)問題,覆蓋率達(dá)到92%,針對數(shù)據(jù)中心常見的技術(shù)問題,如系統(tǒng)安裝、Raid配置、部件異常等問題,“源曉服”的解決率高達(dá)80%,可將復(fù)雜技術(shù)咨詢問題的業(yè)務(wù)處理時長降低65%,提升浪潮信息整體服務(wù)效率達(dá)160%。
針對忠實性幻覺(指模型生成的內(nèi)容與用戶的指令或?qū)υ捝舷挛牟灰恢拢┠壳按竽P皖I(lǐng)域一個核心的技術(shù)路線是增加上下文窗口長度。更大的上下文窗口,可以讓模型從輸入中獲得更豐富的語義信息,甚至直接基于全文理解進(jìn)行問答和信息處理。“源2.0”大模型將輸入序列長度增加到8192,在容納上下文內(nèi)容方面更加游刃有余。目前,“源2.0”大模型在持續(xù)擴(kuò)大上下文的長度。
由此,模型不僅能更好地捕捉上下文的相關(guān)性、消除歧義,進(jìn)而更加精準(zhǔn)地生成內(nèi)容,緩解“幻覺”問題,提升性能。而且,也可以在長上下文的加持下,與更多的垂直場景深度結(jié)合,真正在人們的工作、生活、學(xué)習(xí)中發(fā)揮作用。
浪潮信息“源”大模型專家介紹說,為了與人類價值觀對齊,“源2.0”主要在數(shù)據(jù)和訓(xùn)練方式兩方面做了工作。在處理數(shù)據(jù)集的時候,過濾各種有害信息,尤其是中文語境下的有害信息,包括涉及暴力、色情、違反法律、違反價值觀的信息,從而保證模型無論在預(yù)訓(xùn)練還是微調(diào)階段都不會接觸到低質(zhì)有害的數(shù)據(jù)。在監(jiān)督微調(diào)階段,“源2.0”會在訓(xùn)練數(shù)據(jù)中加入拒絕回答的范例,當(dāng)輸入的問題涉及不良信息或引導(dǎo)時,模型會拒絕給出回答。
加速大模型產(chǎn)業(yè)應(yīng)用進(jìn)程
除了標(biāo)準(zhǔn)和“幻覺”問題,由于大模型的基礎(chǔ)能力還有限,在實際落地過程中還不能很好地滿足各個細(xì)分場景的具體需求。在應(yīng)用落地層面,大模型開發(fā)優(yōu)化工作是一項復(fù)雜的系統(tǒng)工程,僅通過有限開放的API進(jìn)行微調(diào),只能停留在“套殼”階段,大模型的產(chǎn)業(yè)化、場景化應(yīng)用治標(biāo)不治本,難以持續(xù)滿足不斷變化的行業(yè)應(yīng)用需求。
針對此,浪潮信息提出了“共訓(xùn)計劃”,依托“源2.0”大模型,通過與開發(fā)者共訓(xùn)、共創(chuàng)的模式,可以快速輕量化地發(fā)掘更多的應(yīng)用場景,掌握更多的AIGC的產(chǎn)業(yè)化應(yīng)用先機(jī)。
大規(guī)模模型在落地使用過程中,需要強(qiáng)大的基礎(chǔ)設(shè)施來支撐,因此,AI Infra層面的挑戰(zhàn)也是各個企業(yè)在使用大模型的過程中不得不面對的難題。無論是大模型的開發(fā)訓(xùn)練,還是在行業(yè)應(yīng)用中的落地微調(diào),其都面臨基礎(chǔ)設(shè)施層面的系統(tǒng)性工程問題,從數(shù)據(jù)清洗到算力適配,從性能兼容適配到軟硬件協(xié)同,這些挑戰(zhàn)會共同影響大模型的性能與落地的速度。
針對AI Infra層面的挑戰(zhàn),浪潮信息發(fā)布了大模型智算軟件棧OGAI(Open GenAI Infra),通過全流程的軟件工具棧來解決算力與大模型應(yīng)用之間的難題,讓上層應(yīng)用開發(fā)者能夠?qū)W⒂跇I(yè)務(wù)邏輯和應(yīng)用功能本身的創(chuàng)新實現(xiàn)。
開源協(xié)作,匯聚創(chuàng)新力量
展望未來,大模型會有哪些發(fā)展趨勢呢?浪潮信息“源”大模型專家表示,基礎(chǔ)大模型是生成式AI能力提升的核心。未來,在大模型產(chǎn)業(yè)發(fā)展中,基礎(chǔ)模型的能力是最基礎(chǔ)、最核心的部分。以O(shè)penAI為例,他們走出了一條清晰的基礎(chǔ)模型能力提升路線。當(dāng)基礎(chǔ)模型應(yīng)用在對話領(lǐng)域的時候就形成了ChatGPT,當(dāng)應(yīng)用在其他領(lǐng)域便形成了各種Copilot應(yīng)用。
“眾人拾柴火焰高”,繁榮的開源模型生態(tài)體系是吸納、培養(yǎng)用戶的重要途經(jīng),也是避免當(dāng)下AI大模型企業(yè)重復(fù)造輪子的商業(yè)新范式。以優(yōu)秀的開源模型性能匯聚技術(shù)創(chuàng)新力量,以技術(shù)創(chuàng)新反哺大模型數(shù)據(jù)、工具、應(yīng)用的迭代升級,為行業(yè)用戶、應(yīng)用開發(fā)商、社區(qū)開發(fā)者提供堅實的底座和成長的土壤,激發(fā)無窮創(chuàng)新力。
目前,浪潮信息的“源2.0”大模型進(jìn)行了全面開源,全系列模型參數(shù)和代碼均可免費下載使用。大模型的開源開放可以使不同模型之間共享底層數(shù)據(jù)、算法和代碼,有利于打破大模型孤島,促進(jìn)模型之間協(xié)作和更新迭代;同時,有利于以更豐富的高質(zhì)量行業(yè)數(shù)據(jù)反哺模型,打造更強(qiáng)的技術(shù)產(chǎn)品,加速商業(yè)化進(jìn)程。
雖然大模型還面臨諸多挑戰(zhàn),在產(chǎn)業(yè)界的努力和開源生態(tài)的推動下,我們相信未來的大模型將繼續(xù)創(chuàng)造更多價值,成為推動技術(shù)進(jìn)步和社會發(fā)展的重要力量。
本文章選自《數(shù)字化轉(zhuǎn)型方略》雜志,閱讀更多雜志內(nèi)容,請掃描下方二維碼