央廣網(wǎng)深圳3月25日消息(記者黃倩 通訊員嚴(yán)偲偲)記者從中國科學(xué)院深圳先進(jìn)技術(shù)研究院(以下簡稱“深圳先進(jìn)院”)了解到,由深圳先進(jìn)院聯(lián)合深圳市商湯科技有限公司、南京大學(xué)研發(fā)完成的“視頻的深度表征與識(shí)別技術(shù)及應(yīng)用”項(xiàng)目今日(25日)獲2019年度廣東省科學(xué)技術(shù)獎(jiǎng)技術(shù)發(fā)明一等獎(jiǎng)。該項(xiàng)目可以讓人工智能“讀懂”復(fù)雜視頻。

  深圳先進(jìn)院方面稱,近年來,隨著信息通信技術(shù)的發(fā)展,視頻數(shù)據(jù)呈現(xiàn)爆炸式增長,F(xiàn)有技術(shù)雖然能夠較好地采集、存儲(chǔ)和傳輸視頻,但大規(guī)模視頻識(shí)別仍面臨內(nèi)容復(fù)雜、識(shí)別精度低和計(jì)算效率低等巨大挑戰(zhàn)。解決這些挑戰(zhàn)的核心是實(shí)現(xiàn)對(duì)復(fù)雜多變內(nèi)容的理解、對(duì)海量對(duì)象的高精度識(shí)別及快速處理,讓AI技術(shù)構(gòu)建出既能“看得懂”,又能“認(rèn)得準(zhǔn)”,還能“算得快”的能力。

  據(jù)介紹,該項(xiàng)目第一完成人深圳先進(jìn)院數(shù)字所所長喬宇研究員帶領(lǐng)團(tuán)隊(duì),經(jīng)過多年研究開發(fā)和應(yīng)用驗(yàn)證,提出了視頻長短時(shí)表征與識(shí)別等一系列創(chuàng)新性方法,突破了軌跡卷積、中心損失等核心技術(shù),顯著提升了復(fù)雜視頻行為分類、大規(guī)模人像識(shí)別、物體檢測、場景分類等重要視覺任務(wù)的性能。

  該技術(shù)在多個(gè)著名視覺數(shù)據(jù)庫的驗(yàn)證下取得了同期國際領(lǐng)先的識(shí)別率,并在ImageNet、ActivityNet等重要視覺國際競賽多次取得第一或名列前茅。在計(jì)算機(jī)視覺重要國際期刊和會(huì)議如PAMI、IJCV、CVPR、ICCV等發(fā)表一系列創(chuàng)新論文,根據(jù)谷歌學(xué)術(shù)統(tǒng)計(jì)論文累計(jì)被引超過8000次,獲國內(nèi)外授權(quán)發(fā)明專利10余項(xiàng)。

  目前,項(xiàng)目研發(fā)的技術(shù)已廣泛應(yīng)用于智慧城市、機(jī)器人及互聯(lián)網(wǎng)多媒體等多個(gè)領(lǐng)域,提高了城市的管理效率和能力,創(chuàng)造了顯著的經(jīng)濟(jì)和社會(huì)效益。