透明奶罩和丁字裤凸点h,国产v视频在线亚洲视频,一区二区三区在线观看亚洲电影,老人船上弄雨荷1一5节

AI人工智能行業(yè)資訊更多

特約文章丨大小模型協(xié)同的跨媒體智能研究

來源:世展網(wǎng) 分類:AI人工智能行業(yè)資訊 2025-01-26 18:31 閱讀:*****
分享:

2024年蘇州人工智能展AIExpo

2024-12-10-12-11

展會(huì)結(jié)束

文/莊越挺

本文共分四個(gè)部分,首先是研究背景和內(nèi)容,接著介紹目前的兩條研究途徑,然后是研究基礎(chǔ)及取得的進(jìn)展,最后是總結(jié)和展望。

1 研究背景和內(nèi)容

目 前, 大 模 型 / 多 模 態(tài) 大 語 言 模 型(LLM/MLLM)在多模態(tài)理解、推理和認(rèn)知決策能力上達(dá)到新的高度,多種任務(wù)上的表現(xiàn)甚至超過人類水平。從圖 1 可以看到,包括 OpenAI、Google 等公司所做的工作,現(xiàn)在都是多模態(tài)的,有些水平非常高,參數(shù)量從百億到萬億規(guī)模不斷增長。但是,大模型并非萬能,而是如同強(qiáng)大但是資源受限的 AI“巨人”,根據(jù) Scaling Law,參數(shù)規(guī)模一旦增大,就會(huì)涌現(xiàn)出很多新的能力,但同時(shí),存在幻覺、推理效率低和成本高、專用能力缺乏等問題。

圖 1 大模型的發(fā)展態(tài)勢

目前,AI 社區(qū)已積累了很多小模型(SLM),這些小模型雖然規(guī)模較小,但是豐富多樣、輕量高效、專用性強(qiáng)、可實(shí)時(shí)學(xué)習(xí),在特定的任務(wù)中表現(xiàn)很出色,所以也不可忽視。例如,Hugging Face 和魔搭社區(qū)上托管了 30 多萬小模型,涵蓋圖像、視頻、語言、音頻、3D 等模態(tài)上的多種任務(wù),國內(nèi)也有很多這類的小模型。

所以,我們提出大小模型緊密協(xié)作、優(yōu)勢互補(bǔ),更加精確、高效、低成本地完成跨模態(tài)智能任務(wù)。通過探索大小模型協(xié)同方法,克服單一模型的局限性,充分發(fā)揮各自優(yōu)勢,以實(shí)現(xiàn)更高效、更精確的包含感知、理解、推理決策等方面的跨媒體智能系統(tǒng)。但是,構(gòu)建這樣的智能系統(tǒng)面臨著三個(gè)挑戰(zhàn)。

挑戰(zhàn) 1:大小模型協(xié)同機(jī)理不明晰

雖然大小模型協(xié)同的趨勢越來越明顯,但迄今尚處于初級階段,主要表現(xiàn)在協(xié)同方式以單向調(diào)用為主,缺乏更復(fù)雜協(xié)同機(jī)制的探索。如圖 2 所示,GPT-4 中圖像的生成實(shí)際調(diào)用的是以文生圖的大模型 DALL-E 3;GPT Store 打造的生態(tài)系統(tǒng)里,GPT也是廣泛地調(diào)用專用模型。但大小模型之間的關(guān)系,顯然不是單純的調(diào)用和被調(diào)用的關(guān)系。如何能從“單向調(diào)用”轉(zhuǎn)到“網(wǎng)狀協(xié)同”,是第一個(gè)研究挑戰(zhàn)。

圖 2 大小模型單向調(diào)用到網(wǎng)狀協(xié)同

挑戰(zhàn) 2:缺乏統(tǒng)一的計(jì)算框架

當(dāng)前大小模型通常是獨(dú)立訓(xùn)練的,然后通過鏈?zhǔn)酱?lián)的方式使用。各自訓(xùn)練意味著其訓(xùn)練數(shù)據(jù)不同,能力泛化后串在一起可能會(huì)有問題。因此,更好的方法,應(yīng)是采用統(tǒng)一的訓(xùn)練和協(xié)同的推理方式。如何能從“獨(dú)立訓(xùn)練、鏈?zhǔn)酱?lián)”到“統(tǒng)一訓(xùn)練、協(xié)同推理”,即設(shè)計(jì)一個(gè)統(tǒng)一的訓(xùn)練推理計(jì)算框架(見圖 3),這是第二個(gè)挑戰(zhàn)。

圖 3 大小模型的簡單部署到統(tǒng)一計(jì)算框架

挑戰(zhàn) 3:大小模型知識難融合

大小模型可以看成異構(gòu)的知識表達(dá),模型不同即其表達(dá)方式也不同,包括:模型規(guī)模的差異,通用模型和專用模型之間的知識層次差異;以及數(shù)據(jù)模態(tài)不同。因此,如何從“單一模型知識”轉(zhuǎn)化為“跨模型知識融合”,是我們面臨的第三個(gè)挑戰(zhàn)(見圖4)。

圖 4 “單一模型知識”到“跨模型知識融合”

大小模型協(xié)同框架旨在整合大模型的廣泛知識和小模型的專業(yè)能力。為此,要基于規(guī)劃、分工與協(xié)作機(jī)制,實(shí)現(xiàn)知識融合,將大模型的基礎(chǔ)知識與小模型的專用知識有機(jī)結(jié)合。具體地,首先制定整體策略,指導(dǎo)大小模型協(xié)同;要明確大模型和小模型各自的職責(zé)和任務(wù),建立模型間的溝通機(jī)制、數(shù)據(jù)交換方式。通過整合大模型的廣泛理解和小模型的專業(yè)知識,顯著提高任務(wù)精確度;利用小模型的高效性提升整體處理效率,通過合理分配任務(wù),降低計(jì)算成本;在專業(yè)領(lǐng)域,結(jié)合大模型的推理能力和小模型的專業(yè)知識,實(shí)現(xiàn)性能躍升,取得 1+1>2 效果。

2024 年 11 月 Wang Fali 等的綜述文章(arXiv:2411.03350)中有一個(gè)大小模型的下載量統(tǒng)計(jì),從中看到小模型下載量遠(yuǎn)高于大模型下載量,意味著在大模型時(shí)代小模型還是被廣泛使用的。

為此,我們研究大小模型協(xié)同基礎(chǔ)理論,提出統(tǒng)一訓(xùn)練和協(xié)同推理的計(jì)算框架,融合基礎(chǔ)大模型、專用小模型、專家知識與知識圖譜等多重知識表達(dá),更精確、高效、低成本地完成跨模態(tài)知識融合計(jì)算,實(shí)現(xiàn)具備感知、理解、推理和決策能力的人工智能系統(tǒng)。這是我們的研究目標(biāo),具體包括四個(gè)課題,如圖 5 所示。

圖 5 整體研究內(nèi)容與思路

研究途徑

大小模型的協(xié)同有兩條途徑,下面分別敘述。

2.1 小模型增強(qiáng)大模型方法

小模型增強(qiáng)大模型方法分別為數(shù)據(jù)優(yōu)化、弱到強(qiáng)學(xué)習(xí)、能力擴(kuò)展和推理效率提升等方面。

(1) 數(shù) 據(jù) 優(yōu) 化:使 用 SLMs 來 篩 選 和 重 構(gòu)預(yù)訓(xùn)練和指令調(diào)整數(shù)據(jù),以提高數(shù)據(jù)質(zhì)量。例如Deepmind、Stanford 大學(xué)通過小模型進(jìn)行數(shù)據(jù)加權(quán)(arXiv: 2305.10429),改善大規(guī)模預(yù)訓(xùn)練數(shù)據(jù)的質(zhì)量,優(yōu)化大模型。

(2)弱到強(qiáng)學(xué)習(xí):即通過較小的模型來指導(dǎo)和監(jiān)督更強(qiáng)大的 LLMs,實(shí)現(xiàn)知識轉(zhuǎn)移。例如Weak-to-Strong范式(arXiv:2312.09390),利用小模型指導(dǎo)大模型 (OpenAI),在沒有完整或可靠人類監(jiān)督的情況下,讓機(jī)器互教互學(xué),通過小模型的弱監(jiān)督來訓(xùn)練Human-level大模型,提出“從弱到強(qiáng)的泛化”,使用弱模型來監(jiān)督強(qiáng)模型。

(3)能力擴(kuò)展:通過小模型或外部工具擴(kuò)展大模型的能力。例如,Toolformer(arXiv: 2302.04761)通過自監(jiān)督學(xué)習(xí),使語言模型能夠自主決定何時(shí),以及如何使用外部工具(如計(jì)算器、問答系統(tǒng)、搜索引擎、翻譯系統(tǒng)和日歷)來輔助任務(wù)完成。

(4)推理效率提升:通過模型級聯(lián)或模型路由,將不同大小的模型結(jié)合使用以提高推理效率。如圖 6 所示 Hybrid LLM(arXiv: 2404.14618) 中,采用混合推理方法,結(jié)合大小模型的優(yōu)勢,通過一個(gè)路由器(router)小模型動(dòng)態(tài)地根據(jù)預(yù)測的查詢難度和期望的質(zhì)量水平來分配查詢給大模型,從而充分發(fā)揮各自的長處。

圖 6 混合推理方法

此外,代理微調(diào)(proxy fine-tuning)(arXiv:2401.08565)是一種通過調(diào)整小模型(專家模型)的方法 。通過比較專家模型和未調(diào)整的模型(反專家模型)的預(yù)測結(jié)果,將兩者的差異反饋至大模型的預(yù)測中,從而引導(dǎo)大模型向更準(zhǔn)確的方向調(diào)整。

2.2 大模型增強(qiáng)小模型方法

大模型增強(qiáng)小模型的方法主要包括知識整理和數(shù)據(jù)合成兩類。

(1)知識蒸餾:包括白盒和黑盒方法,用于將大模型的知識轉(zhuǎn)移到小模型中。例如,從多個(gè) LLMs中蒸餾出 TinyLLM(arXiv:2402.04616),學(xué)習(xí)到多樣化的知識和推理技能(見圖 7)。將來自不同教師模型的理由整合到一個(gè)統(tǒng)一的多任務(wù)指令調(diào)整框架中。不僅學(xué)習(xí)預(yù)測正確答案,還學(xué)習(xí)教師模型產(chǎn)生的理由。

圖 7 TinyLLM

(2)數(shù)據(jù)合成:利用大模型生成高質(zhì)量訓(xùn)練數(shù)據(jù)或增強(qiáng)現(xiàn)有數(shù)據(jù),能夠顯著提升小模型的性能,在特定任務(wù)上接近甚至超越大模型。例如 Zerogen(EMNLP 2022) 提出一種零樣本學(xué)習(xí)框架,在沒有人類標(biāo)注數(shù)據(jù)的情況下,通過大模型生成數(shù)據(jù)并訓(xùn)練小型任務(wù)模型,來實(shí)現(xiàn)高效的推理和部署。圖 8 來自于 Zerogen。

圖 8 利用 LLM 生成用于解決下游任務(wù)的數(shù)據(jù)集

3 研究基礎(chǔ)與進(jìn)展

3.1 HuggingGPT:大小模型協(xié)同的智能體范例

我 們 于 2023 年 提 出 的 HuggingGPT (NeurIPS2023) 是體現(xiàn)大小模型協(xié)同的一個(gè)典型范例。現(xiàn)在雖然有許多針對各種領(lǐng)域和模態(tài)的 AI 模型可用,但是它們不能自主地處理任務(wù),缺少一個(gè)能夠在復(fù)雜的多領(lǐng)域多模態(tài)場景下解決問題的通用框架。HuggingGPT 以語言作為接口,利用 LLM 作為控制器來管理現(xiàn)有的 AI 模型,可以解決復(fù)雜的 AI 任務(wù)。例如,ChatGPT 實(shí)現(xiàn)了從文本到文本,但是它無法處理任何跨模態(tài)的任務(wù)。因此,我們用大語言模型(ChatGPT)作為一個(gè)控制器,來規(guī)劃、調(diào)用小模型, 如圖9所示,HuggingGPT基于大小模型的協(xié)作,可以產(chǎn)生很好的跨模態(tài)的感知與推理能力。

圖 9 大語言模型作為工具規(guī)劃、調(diào)用小模型

HuggingGPT 發(fā)表于 NeurIPS 2023,被引 900余次,其中圖靈獎(jiǎng)獲得者 Bengio 和 Hinton(2024年的諾獎(jiǎng)得主)一作論文中也引用了此文。斯坦福客座教授吳恩達(dá)、英偉達(dá) GEAR Lab 主任 Jim Fan、OpenAI 研究員等科學(xué)家在其博文中對此文進(jìn)行了推薦;GitHub 倉庫獲得 2 萬多次收藏,獲得國際測試委員會(huì)頒發(fā)的 2022—2023 Top-100 開源成就獎(jiǎng),Demo 系統(tǒng)獲得 Hugging Face Space Top 10;同時(shí)在工業(yè)界產(chǎn)業(yè)了重要的影響,如 Hugging Face、Langchain、ModelScope 等 團(tuán) 隊(duì) 推 出 的TransformersAgent、Langchain HuggingGPT 和 ModelScope Agent。

3.2 大規(guī)模多模態(tài)預(yù)訓(xùn)練模型

我們在多模態(tài)預(yù)訓(xùn)練大模型以及多模態(tài)生成式處理任何跨模態(tài)的任務(wù)。因此,我們用大語言模型(ChatGPT)作為一個(gè)控制器,來規(guī)劃、調(diào)用小模型, 如圖9所示,HuggingGPT基于大小模型的協(xié)作,可以產(chǎn)生很好的跨模態(tài)的感知與推理能力。大模型等方面做了很多工作。2022 年 10 月發(fā)布了和華為的合作成果——多模態(tài)預(yù)訓(xùn)練大模型 LOUPE(NeurIPS 2022),其多模態(tài)細(xì)粒度語義理解能力超越 OpenAI CLIP 數(shù)倍,獲華為云優(yōu)秀創(chuàng)新合作團(tuán)隊(duì)獎(jiǎng);2023 年 9 月研發(fā)的多模態(tài)預(yù)訓(xùn)練大模型——Cheetor( ICLR 2024 Spotlight 前 5%),提出了可控知識注入機(jī)制,支持圖文交錯(cuò)的多模態(tài)智能問答,并且在 MME 等多個(gè)多模態(tài)指令理解數(shù)據(jù)集上實(shí)現(xiàn)了最佳性能;2024 年 2 月研發(fā)的多模態(tài)生成式大模型——Morph MLLM ( ICML 2024 Spotlight) ,在多個(gè)圖文內(nèi)容生成、圖像編輯的數(shù)據(jù)集上都顯著超越已有模型,這些工作是接下去進(jìn)行大小模型協(xié)同研究的重要基礎(chǔ)。

3.3 大小模型協(xié)同

3.3.1 TeamLoRA

多 LoRA 架構(gòu)被提出用于解決多維任務(wù)場景中性能不足的問題。樸素的多 LoRA 架構(gòu)引入了倍增的矩陣操作次數(shù),大幅增加了訓(xùn)練成本和推理延遲,與 PEFT 方法的高效率特性相悖;多 LoRA 架構(gòu)通常采用門控機(jī)制決定專家的參與程度,可能存在負(fù)載不平衡和過度自信等缺陷,從而影響多任務(wù)學(xué)習(xí)中專家知識的整合與遷移的有效性。

我們提出的TeamLoRA(arXiv:2408.09856)引入了協(xié)作和競爭模塊,實(shí)現(xiàn)了更高效和準(zhǔn)確的 PEFT范式。其中,高效的協(xié)作模塊設(shè)計(jì)了一種新穎的知識共享和組織機(jī)制,適當(dāng)減少矩陣操作的規(guī)模,從而提高訓(xùn)練和推理速度。有效的競爭模塊利用了基于博弈論的交互機(jī)制,鼓勵(lì)專家在面對多樣化的下游任務(wù)時(shí)針對性遷移對應(yīng)的領(lǐng)域特定知識,從而提高性能。

從與已有模型對比結(jié)果看出,TeamLoRA 在大語言模型和多模態(tài)大模型都取得了顯著的性能提升;相較于多LoRA架構(gòu)平均減少了約 30% 的訓(xùn)練時(shí)間,獲得 1.4 倍的推理響應(yīng)。

3.3.2 HyperLLaVA

現(xiàn)行的多模態(tài)大模型范式如 LLaVA,往往采取靜態(tài)網(wǎng)絡(luò)(參數(shù)固定)實(shí)現(xiàn)視覺 - 文本特征的對齊與多模態(tài)指令微調(diào)。然而,這種參數(shù)共享的靜態(tài)參數(shù)的學(xué)習(xí)策略存在多任務(wù)之間的干擾,限制了模型處理跨場景多任務(wù)的性能。我們提出了HyperLLaVA(arXiv:2403.13447),引入動(dòng)態(tài)專家模型,實(shí)現(xiàn)與多模態(tài)大模型的動(dòng)態(tài)學(xué)習(xí)。其中,引入的視覺專家模型,可基于圖片輸入自適應(yīng)提取視覺特征,實(shí)現(xiàn)動(dòng)態(tài)視覺 - 文本投影;引入的語言專家模型,可捕獲和辨析多任務(wù)場景的相關(guān)性,利用動(dòng)態(tài) LLM參數(shù)生成進(jìn)行樣本級指令微調(diào)。此文中,我們提出了一個(gè)綜合多模態(tài)任務(wù)基準(zhǔn) (CMT),涵蓋了 Visual QA、Visual Captioning Spatial Inference、Detailed Description、Visual Storytelling、Knowledge OCR和 Text-Rich Images QA 七大類任務(wù);訓(xùn)練集包含505 405 組指令;測試集包含 1149 組指令。

相 較 于 LLaVA-1.5,HyperLLaVA-7B 模 型 在12 個(gè) benchmark 上 獲 取 最 優(yōu) 結(jié) 果,HyperLLaVA-13B 模 型 在 10 個(gè)benchmark 獲 取 最 優(yōu) 結(jié) 果;HyperLLaVA-7B 和 HyperLLaVA-13B 在 CMT 基準(zhǔn)上都取得了最優(yōu)結(jié)果。

3.3.3 TaskBench

評估大小模型協(xié)同過程的效果是一項(xiàng)重要但極具挑戰(zhàn)性的任務(wù),涉及大小模型協(xié)同過程中任務(wù)規(guī)劃、工具選擇和參數(shù)預(yù)測等環(huán)節(jié)。由于評測系統(tǒng)的復(fù)雜性和高質(zhì)量標(biāo)注數(shù)據(jù)的缺乏,準(zhǔn)確評估大模型調(diào)用小模型的效果并對其進(jìn)行優(yōu)化一直存在困難。為此,我們提出了 TaskBench(NeurIPS 2024),一個(gè)專門針對大小模型協(xié)同和大模型任務(wù)自動(dòng)化的評測框架。

TaskBench 設(shè)計(jì)了知識引導(dǎo)的指令數(shù)據(jù)生成和多層次評測方法,實(shí)現(xiàn)了基于知識的指令數(shù)據(jù)逆向生成。通過構(gòu)建工具型知識圖譜,建立了涵蓋任務(wù)規(guī)劃、工具調(diào)用和參數(shù)解析的多層級評測體系。通過 TaskBench,可以全面評估大小模型協(xié)同在多任務(wù)場景中的表現(xiàn),這一評測框架及其數(shù)據(jù)生成機(jī)制能夠優(yōu)化大語言模型任務(wù)處理能力,對于推動(dòng)復(fù)雜多任務(wù)場景下的大小模型協(xié)同研究具有深遠(yuǎn)意義。

3.3.4 Data-Copilot

能源、氣象、金融、零售等行業(yè),每日都產(chǎn)生海量的結(jié)構(gòu)化數(shù)據(jù),但當(dāng)前的大語言模型無法直接處理海量的結(jié)構(gòu)化數(shù)據(jù),也存在數(shù)據(jù)泄露的風(fēng)險(xiǎn)。因此,我們設(shè)計(jì)了一個(gè)能聽懂自然語言,便于交互的數(shù)據(jù)管理、分析的可視化的系統(tǒng) Data-Copilot(arXiV:2306.07209)。面對海量動(dòng)態(tài)數(shù)據(jù)和敏感信息處理需求,Data-Copilot 通過大模型解析用戶自然語言指令,生成任務(wù)規(guī)劃,小模型則負(fù)責(zé)具體數(shù)據(jù)操作與工具調(diào)用,從而實(shí)現(xiàn)高效、動(dòng)態(tài)的數(shù)據(jù)管理與分析。

借助大小模型的協(xié)作,Data-Copilot 不僅大幅提升了結(jié)構(gòu)化數(shù)據(jù)分析的效率,還實(shí)現(xiàn)了自然語言驅(qū)動(dòng)的交互與智能反饋,為能源調(diào)度、氣象預(yù)警、金融風(fēng)控和零售管理等領(lǐng)域提供了便捷的智能解決方案。

3.3.5 Data Shunt

如圖 10 所示,Prompt Pruning (PP) 利用小模型的預(yù)測結(jié)果來精煉大型模型的預(yù)測空間。通過將小模型的預(yù)測置信度整合到提示中,可以增強(qiáng)大型模型對其他分布的辨別能力。Prompt Transferring (PT)將復(fù)雜任務(wù)分解為多個(gè)子任務(wù),其中一些簡單的子任務(wù)可以由小模型處理。這樣讓大型模型專注于困難的子任務(wù),從而提高整體性能。

圖 10 Data Shunt 系統(tǒng)

大模型對小模型2-Stage Confidence Distillation,通過基于小模型和大模型的置信度水平進(jìn)行知識蒸餾,將大模型的知識傳授給小模型,同時(shí)防止小模型遺忘在訓(xùn)練階段獲得的知識。

數(shù)據(jù)分流(data shunt)中(arXiv:2406.15471),DS+ 利用小模型的置信度來決定輸入數(shù)據(jù)是僅通過小模型處理,還是需要大模型參與處理。如果小模型的置信度超過閾值,則小模型處理,否則大模型處理;即可以根據(jù)不同調(diào)度數(shù)據(jù)的大小模型,降低成本。

4 總結(jié)和展望

由于大模型可以提供廣泛的知識和強(qiáng)大的推理能力,小模型貢獻(xiàn)專業(yè)領(lǐng)域能力和計(jì)算效率,因此達(dá)到了優(yōu)勢互補(bǔ);通過合理分配任務(wù),減少了對大模型的過度依賴,降低了整體計(jì)算成本和能源消耗,的預(yù)測結(jié)果來精煉大型模型的預(yù)測空間。通過將小模型的預(yù)測置信度整合到提示中,可以增強(qiáng)大型模型對其他分布的辨別能力。Prompt Transferring (PT)將復(fù)雜任務(wù)分解為多個(gè)子任務(wù),其中一些簡單的子任務(wù)可以由小模型處理。這樣讓大型模型專注于困難的子任務(wù),從而提高整體性能。達(dá)到了資源優(yōu)化;小模型處理特定任務(wù),提高整體響應(yīng)速度,大模型專注于復(fù)雜問題,提升了系統(tǒng)整體表現(xiàn),使模型整體性能得到提升。此外,大小模型協(xié)同根據(jù)任務(wù)需求動(dòng)態(tài)調(diào)整模型組合,增強(qiáng)了系統(tǒng)在不同場景下的適應(yīng)性。大模型可以指導(dǎo)小模型進(jìn)行知識更新;小模型可以為大模型提供專業(yè)領(lǐng)域的新知識,使它們能夠持續(xù)學(xué)習(xí)。

近年來,大小模型協(xié)同的研究發(fā)展趨勢日益明顯,相關(guān)文獻(xiàn)與應(yīng)用也不斷涌現(xiàn),表明這一方向在學(xué)術(shù)界和工業(yè)界均具有廣泛前景。盡管我們的研究工作仍處于初步階段,但這些探索為大小模型協(xié)同的未來發(fā)展提供了重要啟發(fā)。隨著協(xié)同機(jī)制的持續(xù)優(yōu)化,大小模型協(xié)同將為多模態(tài)任務(wù)、復(fù)雜推理,以及專業(yè)領(lǐng)域智能系統(tǒng)的構(gòu)建開辟更多可能性。

(參考文獻(xiàn)略)

莊越挺

浙江大學(xué)學(xué)術(shù)委員會(huì)副主任,CAAI 常務(wù)理事,浙江大學(xué)求是特聘教授,國家杰青獲得者、CAAI Fellow;教育部人工智能協(xié)同創(chuàng)新中心主任,數(shù)字圖書館教育部工程研究中心主任,浙江省計(jì)算機(jī)學(xué)會(huì)理事長。曾擔(dān)任“973 計(jì)劃”項(xiàng)目首席科學(xué)家,“百千萬人才工程”國家級人選,教育部“網(wǎng)絡(luò)多媒體智能信息處理技術(shù)”創(chuàng)新團(tuán)隊(duì)帶頭人。主要從事人工智能、多媒體信息檢索、跨媒體計(jì)算理論、數(shù)字圖書館技術(shù)等領(lǐng)域研究,發(fā)表論文 300 余篇。

選自《中國人工智能學(xué)會(huì)通訊》

2024年第14卷第12期

大模型技術(shù)專欄

掃碼加入學(xué)會(huì)獲取更多學(xué)會(huì)資源

會(huì)務(wù)組聯(lián)系方式  

展會(huì)咨詢

相關(guān)AI人工智能行業(yè)展會(huì)

2026年深圳國際元宇宙及電競娛樂展MES

2026-03-01~03-03 距離242
75071展會(huì)熱度 評論(0)

2025年上海世界人工智能大會(huì)WAIC

2025-07-26~07-29 距離24
199493展會(huì)熱度 評論(0)

2025年鄭州世界數(shù)字產(chǎn)業(yè)博覽會(huì)WDIE

2025-03-21~03-23 展會(huì)結(jié)束
57606展會(huì)熱度 評論(0)

2025年北京全球數(shù)字經(jīng)濟(jì)大會(huì)Global Digital Economy Conference

2025-07-01~07-01 展會(huì)結(jié)束
57327展會(huì)熱度 評論(0)

2024年蘇州人工智能展AIExpo

2024-12-10~12-11 展會(huì)結(jié)束
80360展會(huì)熱度 評論(0)

2025年深圳高交會(huì)人工智能與大數(shù)據(jù)展CHTF

2025-11-14~11-16 距離135
50981展會(huì)熱度 評論(0)

2025年第6屆深圳國際人工智能展GAIE

2025-05-22~05-24 展會(huì)結(jié)束
83370展會(huì)熱度 評論(0)
X
客服
電話
13924230066

服務(wù)熱線

掃一掃

世展網(wǎng)公眾號

微信小程序

銷售客服

門票客服

TOP
X
主站蜘蛛池模板: 裕民县| 皋兰县| 利津县| 太白县| 怀安县| 米脂县| 泸定县| 集贤县| 松阳县| 长岭县| 陕西省| 河曲县| 南靖县| 丰城市| 新密市| 交城县| 桂平市| 曲靖市| 兴义市| 巴彦县| 云安县| 宾川县| 介休市| 龙井市| 汕尾市| 平罗县| 乐清市| 板桥市| 太原市| 阿城市| 清苑县| 太仆寺旗| 容城县| 敦煌市| 克什克腾旗| 双流县| 都江堰市| 都安| 福海县| 射洪县| 安仁县|