
AI:跨越幻覺抵達(dá)真相

我們常說的大模型幻覺,就是“胡說八道”。具體是指模型生成的內(nèi)容與現(xiàn)實(shí)世界事實(shí)或用戶輸入不一致的現(xiàn)象。
雖然2023年被稱為是大模型元年,但全球科技界普遍認(rèn)為,今天對于未來的想象力,依然是保守的。
從Chat GPT的出現(xiàn)到百模大戰(zhàn),只用了不到半年時間,生成式AI已經(jīng)成為一個不得不打,還要打出成績的戰(zhàn)役。
經(jīng)過一年的沉淀,通用大模型的能力正在逐漸增強(qiáng),大模型廠商也在將這些能力逐漸下沉,希望真正應(yīng)用到實(shí)際場景產(chǎn)生價值。
行業(yè)中也出現(xiàn)了一些產(chǎn)業(yè)標(biāo)準(zhǔn)和評測指標(biāo),12月22日,國內(nèi)首個官方“大模型標(biāo)準(zhǔn)符合性評測” 《人工智能大規(guī)模預(yù)訓(xùn)練模型第2部分:評測指標(biāo)與方法》結(jié)果公布,百度文心一言、騰訊混元大模型、360智腦、阿里云通義千問四款國產(chǎn)大模型首批通過測試。
測試由工信部中國電子技術(shù)標(biāo)準(zhǔn)化研究院發(fā)起,評測圍繞多領(lǐng)域多維度模型評測框架與指標(biāo)體系,從大模型的通用性、智能性、安全性等維度開展,涵蓋語言、語音、視覺等多模態(tài)領(lǐng)域。
評測指標(biāo)與方法的出臺,一方面可以評估大模型的能力,一方面可以減少大模型諸如幻覺帶來的安全問題、倫理問題。
我們常說的大模型幻覺,就是“胡說八道”。具體是指模型生成的內(nèi)容與現(xiàn)實(shí)世界事實(shí)或用戶輸入不一致的現(xiàn)象。
大模型幻覺問題在于可能會導(dǎo)致誤信和誤用,特別是在用戶未能意識到模型輸出的不可靠性時。因此,理解和識別大模型幻覺的存在,對于任何依賴或使用這些技術(shù)的人來說都至關(guān)重要。
這要求從技術(shù)層面持續(xù)改進(jìn)模型的準(zhǔn)確性,減少錯誤和偏差的發(fā)生。讓我們可以更安全、更有效地利用大模型的強(qiáng)大能力,同時避免或減輕由幻覺帶來的負(fù)面影響。
最近,來自哈爾濱工業(yè)大學(xué)和華為的研究團(tuán)隊(duì)發(fā)表了一篇長達(dá)50頁的綜述,綜述給出了一套新的范疇框架來定義模型幻覺,并將其分為事實(shí)性幻覺、忠實(shí)性幻覺兩大類,其中也列出了少不業(yè)內(nèi)比較有代表性減輕幻覺的方法。
本期《數(shù)字化轉(zhuǎn)型方略》將探討大模型的指標(biāo)和幻覺問題,因?yàn)榇竽P筒荒苤皇撬,企業(yè)可以通過哪些關(guān)鍵指標(biāo)來做判斷是未來應(yīng)用的關(guān)鍵,還有就是需要持續(xù)性關(guān)注的大模型的幻覺問題,推動AI向更可靠、更安全的方向發(fā)展。
《數(shù)字化轉(zhuǎn)型方略》2023年第12期:http://www.yqqjgz.cn/dxinsight/2312
本文章選自《數(shù)字化轉(zhuǎn)型方略》雜志,閱讀更多雜志內(nèi)容,請掃描下方二維碼
