我們介紹了EMMA,一個(gè)端到端的自動(dòng)駕駛多模態(tài)模型;诙嗄B(tài)大型語(yǔ)言模型的基礎(chǔ),EMMA直接將原始相機(jī)傳感器數(shù)據(jù)映射到各種特定于駕駛的輸出中,包括規(guī)劃器軌跡、感知對(duì)象和道路圖元素。EMMA通過(guò)將所有非傳感器輸入(例如導(dǎo)航指令和自我車輛狀態(tài))和輸出(例如軌跡和3D位置)表示為自然語(yǔ)言文本,最大化了預(yù)訓(xùn)練大型語(yǔ)言模型的世界知識(shí)效用。
專業(yè)社區(qū)關(guān)注大語(yǔ)言模型(LLM)如微軟&OpenAI、百度文心一言、訊飛星火的發(fā)展。OpenAI計(jì)劃推出性能遠(yuǎn)超GPT-4的Orion模型,但首席執(zhí)行官Sam Altman否認(rèn)相關(guān)消息。網(wǎng)友質(zhì)疑Sam的辟謠,認(rèn)為Orion項(xiàng)目的存在已被暗示。微軟可能在Azure云上提供Orion服務(wù)。Sam的推文和ChatGPT-o1的解讀進(jìn)一步加深了Orion即將發(fā)布的猜測(cè)。
LangGraph是LangChain生態(tài)系統(tǒng)的新框架,專為構(gòu)建基于大語(yǔ)言模型的有狀態(tài)、多代理應(yīng)用程序而設(shè)計(jì)。它支持循環(huán)流程,提供精細(xì)的控制能力,具備持久性特性,并能與人類協(xié)作。LangGraph適用于個(gè)人助理、AI教師、軟件用戶體驗(yàn)優(yōu)化、空間計(jì)算和構(gòu)建智能操作系統(tǒng)等多種場(chǎng)景。
生成式人工智能在企業(yè)中的一個(gè)突出用例就是客戶服務(wù)和支持。大多數(shù)讀者可能都曾作為客戶經(jīng)歷過(guò)與傳統(tǒng)自動(dòng)客服系統(tǒng)打交道的沮喪。但這種情況正在發(fā)生變化,這要?dú)w功于時(shí)下強(qiáng)大的大型語(yǔ)言模型和自然語(yǔ)言聊天機(jī)器人。雖然有報(bào)告顯示,我們?cè)谔幚韽?fù)雜或敏感的咨詢時(shí)仍然更愿意與人類交談,但在提供簡(jiǎn)單的幫助時(shí),機(jī)器人的能力已經(jīng)越來(lái)越強(qiáng)了。
過(guò)去30多年來(lái),AELTC一直與IBM合作。作為其主要技術(shù)合作伙伴,藍(lán)色巨人也將此作為最新技術(shù)的展示良機(jī),每年都會(huì)增添新的內(nèi)容與形式。而在2024年這轉(zhuǎn)折性的一年,閃亮登場(chǎng)的自然是技術(shù)界的絕對(duì)明星、當(dāng)今時(shí)代的至高母題——生成式AI。
當(dāng)我們還在驚嘆于 ChatGPT 引發(fā)的 AI 應(yīng)用熱潮時(shí),技術(shù)迭代的巨輪卻從未停止轉(zhuǎn)動(dòng)。Anthropic 新近推出的 Claude 3.5 Sonnet,如同一位技藝精湛的“代碼吟游詩(shī)人”,以其在代碼生成、視覺(jué)處理和推理能力方面的顯著提升,再次將我們帶到了 AI 應(yīng)用的新疆域。
M 的人工智能和數(shù)據(jù)平臺(tái) Watsonx 將用于支持溫布爾登 2024 年草地網(wǎng)球錦標(biāo)賽的 Catch Me Up 功能。Catch Me Up 功能可以通過(guò) Wimbledon.com 和 Wimbledon 2024 App 顯示賽前和賽后的球員卡片以及人工智能生成的球員故事和分析。
Palo Alto Networks 公司和 IBM 公司今天宣布建立新的合作伙伴關(guān)系。Palo Alto Networks 將收購(gòu) IBM 的 QRadar 軟件即服務(wù)資產(chǎn),并成為 IBM 在網(wǎng)絡(luò)、云和安全運(yùn)營(yíng)中心方面的首選網(wǎng)絡(luò)安全合作伙伴。
Open AI的大型語(yǔ)言生成模型ChatGPT火熱,它能勝任刷高情商對(duì)話、生成代碼、構(gòu)思劇本和小說(shuō)等多個(gè)場(chǎng)景,將人機(jī)對(duì)話推向新的高度。全球各大科技企業(yè)都在積極擁抱AIGC,不斷推出相關(guān)技術(shù)、平臺(tái)和應(yīng)用。
多模態(tài)大型語(yǔ)言模型(Multimodal Large Language Models,MLLMs)在人工智能 的最新進(jìn)展中扮演著關(guān)鍵角色,作為通用全能助手開發(fā)的基礎(chǔ)元素。然而,這些方法依賴 于粗粒度的圖像級(jí)對(duì)齊,缺乏對(duì)細(xì)節(jié)的理解(如區(qū)域描述和推理)。
阿里巴巴開源了320億參數(shù)的大語(yǔ)言模型Qwen1.5-32B,性能略超Mixtral 8×7B MoE,略低于720億參數(shù)的Qwen-1.5-72B。Qwen1.5-32B具有高性價(jià)比,顯存需求減半,適合更廣泛使用。模型在多項(xiàng)評(píng)測(cè)中表現(xiàn)優(yōu)秀,特別是在推理和數(shù)學(xué)方面。支持32K上下文長(zhǎng)度,以通義千問(wèn)的開源協(xié)議發(fā)布,允許商用。
隨著思科推進(jìn)對(duì)Splunk收購(gòu)的整合,從向思科提供遙測(cè)數(shù)據(jù)的客戶那里捕獲數(shù)據(jù)所帶來(lái)的AI“洞察和建議”這一優(yōu)勢(shì)將變得越來(lái)越清晰。他說(shuō):“我們可以再次以其他競(jìng)爭(zhēng)對(duì)手無(wú)法做到的規(guī)模做到這一點(diǎn),當(dāng)你擁有此類客戶數(shù)據(jù)時(shí),你就可以獲得更好的信息、更好的建議和更好的洞察。我認(rèn)為這是最大的區(qū)別。
馬斯克旗下大模型公司開發(fā)的Grok-1大語(yǔ)言模型已開源,采用Apache2.0協(xié)議。Grok-1是一個(gè)混合專家架構(gòu)模型,參數(shù)總數(shù)3140億,每次推理激活860億。雖然在MMLU和GSM8K評(píng)測(cè)中表現(xiàn)不錯(cuò),但與同類模型相比資源消耗大而收益不顯著。開源的僅為推理代碼,訓(xùn)練基礎(chǔ)設(shè)施和tokenizer的特殊token作用未透露。
英偉達(dá)推出了生成式AI(AIGC)專業(yè)認(rèn)證,旨在通過(guò)考試提供行業(yè)認(rèn)可的權(quán)威證書,并提供相應(yīng)的培訓(xùn)課程。認(rèn)證內(nèi)容涵蓋生成式AI和大語(yǔ)言模型知識(shí),考試為遠(yuǎn)程方式,適合多種AI相關(guān)職業(yè)人士。
Anthropic推出了第三代大語(yǔ)言模型Claude3,包含三個(gè)版本:Claude3-Opus、Claude3-Sonnet和Claude3-Haiku,能力和成本遞減。Claude3-Opus在多項(xiàng)評(píng)測(cè)中超過(guò)GPT-4,支持多模態(tài)和最高100萬(wàn)上下文輸入。
如果情況真如英偉達(dá)及其他眾多科技企業(yè)預(yù)料的那樣,即大語(yǔ)言模型會(huì)成為新的編程模型基礎(chǔ),那么混合CPU-GPU計(jì)算引擎就將是新的通用計(jì)算平臺(tái)。
亞馬遜宣布其技術(shù)創(chuàng)新研究所(TII)完成了大型語(yǔ)言模型Falcon 40B的訓(xùn)練。
成式AI熱度的快速升溫將對(duì)IT行業(yè)產(chǎn)生影響,部分?jǐn)?shù)據(jù)存儲(chǔ)行業(yè)將憑借生成式AI獲取巨大的潛在銷售收益,本文將嘗試對(duì)此做出分類。
雖然ChatGPT、Stable Diffusion和其他生成式人工智能(Generative AI)為市場(chǎng)帶來(lái)的明顯興奮和潛在機(jī)會(huì)真實(shí)存在,但生成式人工智能并無(wú)法解決任何類型的人工智能所面臨的任何市場(chǎng)挑戰(zhàn),生成式人工智能并非靈丹妙藥。