為了實(shí)現(xiàn)圖像中的交互式區(qū)域特定理解,最近的方法采用了各種策略來表示目標(biāo)區(qū)域:在文本標(biāo)記中編碼文本框坐標(biāo),利用視覺 RoI 特征,或應(yīng)用視覺標(biāo)記。將這些能力擴(kuò)展到視頻領(lǐng)域,一些方法將初始幀的邊界框坐標(biāo)作為文本形式用于區(qū)域級(jí)視頻理解任務(wù)。然而,一種能夠有效解決圖像和視頻中區(qū)域特定任務(wù)的通用方法仍然是一個(gè)開放的挑戰(zhàn)。
本文提出了一種精心設(shè)計(jì)的分階段訓(xùn)練方法,逐步訓(xùn)練大型語(yǔ)言模型以理解視覺和語(yǔ)音信息,最終實(shí)現(xiàn)流暢的視覺和語(yǔ)音交互。我們的方法不僅保留了強(qiáng)大的視聽能力,而且無需單獨(dú)的自適應(yīng)語(yǔ)音識(shí)別(ASR)和文本到語(yǔ)音(TTS)模塊,就能實(shí)現(xiàn)高效的語(yǔ)音轉(zhuǎn)語(yǔ)音對(duì)話能力,顯著加快了多模態(tài)端到端的響應(yīng)速度。