Fabarta創(chuàng)始人兼CEO高雪峰:“圖+向量”超越幻覺(jué)邊界 企業(yè)智能應(yīng)用呈現(xiàn)“新姿態(tài)”
Fabarta創(chuàng)始人兼CEO,原IBM認(rèn)知計(jì)算研究院院長(zhǎng)、阿里云大數(shù)據(jù)&AI 產(chǎn)品與解決方案總經(jīng)理高雪峰,解構(gòu)大模型“幻覺(jué)”。
自“百模大戰(zhàn)”開(kāi)戰(zhàn)以來(lái),每隔幾周便有一個(gè)新的大模型誕生,似乎有一個(gè)不成文的規(guī)則在科技界流傳:不發(fā)布一個(gè)大模型,就不配坐上通往AI時(shí)代的列車(chē)。
當(dāng)大大小小的科技公司紛紛推出了自己的大模型,這場(chǎng)“競(jìng)技”似乎演變成了一個(gè)無(wú)盡的循環(huán)。這就造成一種現(xiàn)象——高度雷同,同質(zhì)競(jìng)爭(zhēng),大家一蜂窩撲上來(lái),重復(fù)造輪子。
然而,在人工智能熱潮持續(xù)近一年后的今天,業(yè)內(nèi)迎來(lái)了“冷”思考,不僅要解決影響大模型總體準(zhǔn)確率的幻覺(jué),也要解決“大模型不是越多越好”這一認(rèn)知“幻覺(jué)”;蛟S,是時(shí)候建立一套大模型能力強(qiáng)弱的評(píng)判標(biāo)準(zhǔn)了。
AI也“刷題”,大模型需要一場(chǎng)怎樣的“考試”?
如果每個(gè)大型模型都要參加一場(chǎng)考試,那這場(chǎng)考試的試卷是什么樣的?目前,行業(yè)內(nèi)對(duì)此還沒(méi)有一個(gè)統(tǒng)一的答案。
綜觀全球范圍內(nèi)推出的形形色色的大模型性能評(píng)估榜單,不論是伯克利的“LMSYS”,還是上海交通大學(xué)或清華大學(xué)的大模型評(píng)估榜單,亦或是專(zhuān)注于醫(yī)療、法律等特定領(lǐng)域的評(píng)估榜單,這些評(píng)價(jià)體系對(duì)大模型能力的評(píng)估指標(biāo)和標(biāo)準(zhǔn)“大同小異”,無(wú)法更客觀地評(píng)估大模型的優(yōu)越性。
有趣的是,大模型世界里還存在“應(yīng)試教育”。一些開(kāi)放的數(shù)據(jù)集像是公開(kāi)的題庫(kù),讓大模型可以通過(guò)“刷題”來(lái)提高在特定數(shù)據(jù)集上的表現(xiàn)。
盡管為了解決這個(gè)問(wèn)題,有評(píng)價(jià)機(jī)制嘗試采用閉源測(cè)試,也就是不公開(kāi)“考題”,但卻也“收效甚微”,因?yàn)槟P腿匀豢梢酝ㄟ^(guò)記錄提問(wèn)來(lái)進(jìn)行“學(xué)習(xí)”。
事實(shí)上,大模型綜合能力評(píng)估真正的挑戰(zhàn)在于,如何設(shè)計(jì)出既公平又能全面考察模型能力的考試。
在Fabarta創(chuàng)始人兼CEO高雪峰看來(lái),對(duì)大模型綜合能力去評(píng)估,一定是多元化的,需要考慮多個(gè)維度,包括模型的推理能力、性能、能效、安全性,以及在不同學(xué)科領(lǐng)域的應(yīng)用能力。
Fabarta創(chuàng)始人兼CEO 高雪峰
對(duì)于業(yè)界最關(guān)心的性能評(píng)估方面問(wèn)題,高雪峰認(rèn)為,大模型的性能主要體現(xiàn)在推理效率方面。具體而言,就是評(píng)估模型完成復(fù)雜任務(wù)所需的時(shí)間。高雪峰解釋說(shuō):“如果模型在推理過(guò)程中需要多次調(diào)用,例如使用COT(大模型鏈?zhǔn)剿伎?的方法,那么完成一次完整推理所需的時(shí)間也會(huì)增加。因此,重點(diǎn)在于衡量模型完成推理任務(wù)并得出正確答案所需的時(shí)間。”
“完備的測(cè)試集要與大模型的算法能力同步迭代、相輔相成。”高雪峰直言,隨著各行業(yè)領(lǐng)域測(cè)試集的不斷完善和豐富,大型模型能夠通過(guò)針對(duì)這些全面測(cè)試集進(jìn)行調(diào)優(yōu),從而展現(xiàn)其基礎(chǔ)能力的均衡性。未來(lái),隨著大模型不斷更新、進(jìn)步,我們也終將會(huì)迎接這一天的到來(lái)。
面向“AIGD” 如何破除大模型幻覺(jué)?
作為新的基礎(chǔ)的生產(chǎn)力工具,如何利用大模型讓其產(chǎn)生實(shí)際的價(jià)值,是現(xiàn)階段各行業(yè)試驗(yàn)的重點(diǎn)。而相關(guān)企業(yè)要想持久坐在牌桌上,就得看清浪潮的流向。“做不了通才,那就做專(zhuān)才”。和業(yè)界諸多企業(yè)一樣,高雪峰也認(rèn)為,大型模的未來(lái)應(yīng)該是在特定行業(yè)場(chǎng)景中應(yīng)用。在他看來(lái),大模型不僅僅是為了提供通用的SaaS服務(wù)或面向C端用戶(hù)的模型服務(wù)。更加關(guān)鍵的是,面向“toB”場(chǎng)景時(shí)實(shí)現(xiàn)決策智能(AIGD),形成適用于各種精準(zhǔn)行業(yè)和細(xì)分領(lǐng)域的模型。這是一個(gè)AIGC向AIGD轉(zhuǎn)變的過(guò)程。
“在AIGC時(shí)代,計(jì)算與存儲(chǔ)已經(jīng)成為過(guò)去,推理和記憶才是未來(lái)”高雪峰這樣形容。
現(xiàn)在,幾乎所有的企業(yè)開(kāi)始逐步嘗試結(jié)合企業(yè)數(shù)據(jù)落地私有化大模型,但要有效地將AIGC技術(shù)轉(zhuǎn)化為決策智能,基于Transformer的大型模型面臨幾個(gè)主要挑戰(zhàn)。
其一是大模型“一本正經(jīng)胡說(shuō)八道”(幻覺(jué))的問(wèn)題,嚴(yán)重影響了大模型應(yīng)用的可靠性,可能會(huì)產(chǎn)生信息錯(cuò)誤或侵犯隱私等嚴(yán)重后果。諸如在醫(yī)療等特殊場(chǎng)景中,若為病患提供了錯(cuò)誤的診斷信息,甚至?xí)绊懰麄兊纳踩。所以,盡管不可能完全消除幻覺(jué),但B端的大模型應(yīng)該盡量減少幻覺(jué)的產(chǎn)生。
其次,大模型生成的內(nèi)容需要具備可解釋性,即便信息不準(zhǔn)確,也應(yīng)明確其來(lái)源,以便用戶(hù)進(jìn)行判斷。
此外,大模型還要確保數(shù)據(jù)安全性和可控制性,特別是在企業(yè)的具體應(yīng)用場(chǎng)景中,不同部門(mén)間的數(shù)據(jù)隔離至關(guān)重要。
同時(shí),還需解決大模型“非歧視性”問(wèn)題,確保在應(yīng)用于特定領(lǐng)域時(shí),模型的安全性得到保障。
在高雪峰看來(lái),解決這些問(wèn)題的關(guān)鍵在于兩方面:一方面,要建立針對(duì)特定行業(yè)的知識(shí)庫(kù)。另一方面利用私有化部署的商用大模型或開(kāi)源大模型,并對(duì)其進(jìn)行特定域的訓(xùn)練。這種方法依賴(lài)于知識(shí)庫(kù)中的公共數(shù)據(jù),避免涉及敏感信息,從而保障數(shù)據(jù)的安全可控。
“圖+向量”融合 構(gòu)建‘小模型’新范式
事實(shí)上,從百度、阿里、字等等一眾大廠最近的動(dòng)向中不難發(fā)現(xiàn),建立“toB”場(chǎng)景下的大模型已經(jīng)成為行業(yè)共識(shí)。然而,部署一個(gè)可用的“toB”場(chǎng)景下的大模型成本之高昂,訓(xùn)練要求之高,并非一般企業(yè)所能承擔(dān)。這也是許多企業(yè)開(kāi)始感慨大模型應(yīng)用落地難的原因之一。
如何訓(xùn)練大模型在更小規(guī)模上達(dá)到能力涌現(xiàn),是當(dāng)前研究的重點(diǎn)。面對(duì)這一共同的困局,高雪峰坦言道:“沒(méi)必要拿行業(yè)、企業(yè)中小范圍、小規(guī)模的數(shù)據(jù)去預(yù)訓(xùn)練一個(gè)行業(yè)‘小模型’,這不僅無(wú)法降低“幻覺(jué)”,且驗(yàn)證也比較困難。
他建議,企業(yè)可基于多模態(tài)數(shù)據(jù)(如文本、圖像、視頻、音頻等多模態(tài)信息),引入大模型的能力,構(gòu)建一個(gè)完善、易更新維護(hù)的行業(yè)知識(shí)庫(kù)。而這其中,建立針對(duì)大模型時(shí)代的AI基礎(chǔ)設(shè)施至關(guān)重要。
作為一家AI基礎(chǔ)設(shè)施公司,F(xiàn)abarta構(gòu)筑了以數(shù)據(jù)為中心的AIGC落地架構(gòu)范式——“圖+向量”。
Fabarta推出的ArcNeural是以 Data-Centric AI 為核心構(gòu)建的用于處理符號(hào)化數(shù)據(jù)圖(Graph)和向量(Vector)的多模態(tài)智能引擎,它將傳統(tǒng)數(shù)據(jù)庫(kù)的“存儲(chǔ)&計(jì)算”架構(gòu)演進(jìn)為“記憶&推理”架構(gòu),可為AI智能應(yīng)用提供私有記憶和可解釋的精確推理。
ArcGraph是ArcNeural 中的圖引擎,是Fabarta自主設(shè)計(jì)和研發(fā)的一款分布式、云原生的高性能圖 HTAP數(shù)據(jù)庫(kù),采用 Multi-Raft 協(xié)議來(lái)滿足系統(tǒng)的分布式一致性和高可用性;同時(shí)支持存儲(chǔ)節(jié)點(diǎn)和計(jì)算節(jié)點(diǎn)的無(wú)縫擴(kuò)縮容,支持分布式事務(wù)和分布式查詢(xún)功能;通過(guò)采用原圖內(nèi)存引擎,支持高性能圖查詢(xún)和 Serverless 圖計(jì)算;并且通過(guò)圖、JSON 和向量的深度融合,實(shí)現(xiàn)了ArcGraph的多模態(tài)能力。
高雪峰解釋說(shuō):“圖數(shù)據(jù)庫(kù)以其強(qiáng)大的關(guān)聯(lián)分析能力滿足了AI對(duì)復(fù)雜關(guān)系處理的需求。圖和向量的融合技術(shù)也實(shí)現(xiàn)了多模態(tài)的數(shù)據(jù)處理,為AI的發(fā)展提供了新的可能性。
現(xiàn)階段,這一策略已經(jīng)在相關(guān)行業(yè)落地。在金融風(fēng)控、營(yíng)銷(xiāo)等場(chǎng)景中,通過(guò)構(gòu)建自己的多模態(tài)數(shù)據(jù)知識(shí)庫(kù),引入大型模型進(jìn)行問(wèn)答和檢索,可以有效提升企業(yè)的決策智能。但要實(shí)現(xiàn)這一點(diǎn),首先需要構(gòu)建企業(yè)知識(shí)庫(kù)和AI數(shù)據(jù)基礎(chǔ)設(shè)施,然后對(duì)接一個(gè)或幾個(gè)大型模型,以支持更加智能和精準(zhǔn)的決策制定。
“這種技術(shù)的行業(yè)稀缺性和能力在解決以往難以解決的問(wèn)題上展現(xiàn)出了其獨(dú)特價(jià)值。”高雪峰強(qiáng)調(diào),這一點(diǎn),F(xiàn)abarta已經(jīng)為客戶(hù)做過(guò)相應(yīng)的PoC(概念驗(yàn)證),并已經(jīng)在多個(gè)行業(yè)生產(chǎn)落地。
面對(duì)即將到來(lái)的2024年,高雪峰展望道:“明年,或許是私有化大模型崛起的一年,而我們的愿景則是幫助萬(wàn)千企業(yè)打造核心的面向智能應(yīng)用的數(shù)據(jù)基礎(chǔ)設(shè)施,以標(biāo)準(zhǔn)化和定制化并行的策略,幫助企業(yè)在具體的決策場(chǎng)景中落地AI。”
本文章選自《數(shù)字化轉(zhuǎn)型方略》雜志,閱讀更多雜志內(nèi)容,請(qǐng)掃描下方二維碼