黑寡妇5免费观看高清,小泽玛利亚视频福利在线,亚韩在线观看中文字幕,人妻丰满大屁股18p,sese性小说,同桌小说免费,张开嘴迈开腿找客户的句子,爱色的电影院,神马久久东京热

學(xué)術(shù)探索

我校3篇論文被CVPR2025錄用

日期:2025-03-06

作者:數(shù)據(jù)科學(xué)與人工智能研究院

來(lái)源:數(shù)據(jù)科學(xué)與人工智能研究院

近期,我校有3篇論文被國(guó)際計(jì)算機(jī)視覺(jué)與模式識(shí)別領(lǐng)域CCF A類(lèi)會(huì)議IEEE CVPR 2025錄用,這是我校首次在計(jì)算機(jī)視覺(jué)領(lǐng)域國(guó)際頂會(huì)CVPR上取得重要論文突破。論文由數(shù)智研究院和信息學(xué)院聯(lián)合西安電子科技大學(xué)、墨爾本大學(xué)、西澳大學(xué)、澳大利亞國(guó)立大學(xué)等單位合作完成,長(zhǎng)安大學(xué)為第一作者和通訊作者單位。


錄用論文簡(jiǎn)要介紹如下:


1.Mono3DVLT: Monocular-Video-Based 3D Visual Language Tracking

該研究首創(chuàng)單目視頻三維視覺(jué)語(yǔ)言跟蹤(Mono3DVLT)研究,突破傳統(tǒng)技術(shù)依賴昂貴傳感器及語(yǔ)言融合不足的局限。團(tuán)隊(duì)提出三大創(chuàng)新:定義單目視頻三維視覺(jué)語(yǔ)言跟蹤任務(wù)范式;構(gòu)建首個(gè)大規(guī)模數(shù)據(jù)集Mono3DVLT-V2X,融合大模型生成與人工標(biāo)注,提供79,158段含2D/3D標(biāo)注的自然語(yǔ)言視頻;開(kāi)發(fā)多模態(tài)架構(gòu)模型Mono3DVLT-MT,其創(chuàng)新設(shè)計(jì)的特征提取與融合機(jī)制在自建數(shù)據(jù)集上建立性能新基準(zhǔn),顯著超越現(xiàn)有方法,為三維視覺(jué)語(yǔ)言跟蹤領(lǐng)域提供突破性解決方案。


Mono3DVLT框架示意圖


2.Beyond Human Perception: Understanding Multi-Object World from Monocular View

該研究首次聚焦并深入研究了單目視覺(jué)下的三維場(chǎng)景理解難題:通過(guò)構(gòu)建具有空間感知能力的視覺(jué)-語(yǔ)言聯(lián)合表征模型,突破傳統(tǒng)單目視覺(jué)系統(tǒng)在復(fù)雜場(chǎng)景理解中的維度缺失瓶頸。針對(duì)現(xiàn)有方法在跨模態(tài)對(duì)齊和空間推理方面的不足,研究團(tuán)隊(duì)創(chuàng)新性地提出基于狀態(tài)提示的視覺(jué)編碼器(SPVE)和去噪對(duì)齊融合(DAF)模塊,有效解決了單目圖像深度信息缺失帶來(lái)的幾何歧義問(wèn)題,實(shí)現(xiàn)了對(duì)多物體三維空間關(guān)系的精準(zhǔn)定位。實(shí)驗(yàn)表明,該方法在自建的MonoMulti3D-ROPE數(shù)據(jù)集上相比現(xiàn)有最優(yōu)模型提升顯著,平均定位精度達(dá)到72.3%,較基線方法提升19.6個(gè)百分點(diǎn)。


CyclopsNet模型架構(gòu)示意圖


3.Brain-Inspired Spiking Neural Networks for Energy-Efficient Object Detection

該研究首次聚焦并深入研究了類(lèi)腦可解釋神經(jīng)網(wǎng)絡(luò)模型,利用脈沖神經(jīng)網(wǎng)絡(luò)(SNN)豐富的動(dòng)態(tài)特性構(gòu)建用于視覺(jué)任務(wù)的高效目標(biāo)檢測(cè)模型(MSD)。提出一種全新的視神經(jīng)核團(tuán)(ONNB)模型,采用脈沖卷積神經(jīng)元作為核心組件,用于顯著增強(qiáng)SNN的深度特征提取能力。此外,提出一種多尺度脈沖檢測(cè)框架來(lái)模擬生物對(duì)不同物體刺激,融合不同深度的特征和檢測(cè)響應(yīng)結(jié)果,實(shí)現(xiàn)靜態(tài)圖像和事件數(shù)據(jù)的高性能和高效處理。在公共數(shù)據(jù)集上的實(shí)驗(yàn)表明,MSD 取得了優(yōu)異的性能,同時(shí)減少了82.9%的能量消耗。


視覺(jué)刺激圖解與可訓(xùn)練神經(jīng)元模型SCN示意圖


CVPR是由IEEE主辦的計(jì)算機(jī)視覺(jué)及人工智能等領(lǐng)域最具影響力和最重要的國(guó)際頂級(jí)會(huì)議之一。此次會(huì)議共有13008份有效投稿并進(jìn)入評(píng)審流程,其中2878篇被錄用,最終錄用率為22.1%。


(審稿:高濤  網(wǎng)絡(luò)編輯:和燕)

TOP