本文提出了一種精心設計的分階段訓練方法,逐步訓練大型語言模型以理解視覺和語音信息,最終實現(xiàn)流暢的視覺和語音交互。我們的方法不僅保留了強大的視聽能力,而且無需單獨的自適應語音識別(ASR)和文本到語音(TTS)模塊,就能實現(xiàn)高效的語音轉語音對話能力,顯著加快了多模態(tài)端到端的響應速度。
DeepSeekVL是一款開源多模態(tài)模型,通過對訓練數據、模型架構和訓練策略的聯(lián)合拓展,構建了7B與1.3B規(guī)模的強大模型。相關資源可通過論文鏈接、模型下載頁面和GitHub主頁獲取。