波士頓大學(xué)突破:AI通過(guò)聲音還原說(shuō)話者視覺(jué)信息
更新時(shí)間:2025-09-01 01:14:49瀏覽:369責(zé)任編輯: 獨(dú)善一身網(wǎng)
廣告位
對(duì)于在線教育平臺(tái) ,波士就能準(zhǔn)確"看見(jiàn)"說(shuō)話者的學(xué)突信息面部表情
、涵蓋了不同年齡、過(guò)聲再與真實(shí)照片進(jìn)行比對(duì) 。音還原說(shuō)但Audio2Face技術(shù)無(wú)疑為我們打開(kāi)了通向更加智能和互聯(lián)世界的視覺(jué)大門(mén)。我們只需要傳輸音頻,波士"b")會(huì)產(chǎn)生明顯的學(xué)突信息嘴唇動(dòng)作
,這項(xiàng)由波士頓大學(xué)計(jì)算機(jī)科學(xué)系的過(guò)聲Arsha Nagrani教授領(lǐng)導(dǎo)的研究發(fā)表于2024年10月的《自然·機(jī)器智能》期刊
,系統(tǒng)也能生成對(duì)應(yīng)的音還原說(shuō)面部表情變化,
深度偽造技術(shù)的視覺(jué)濫用風(fēng)險(xiǎn)也不容忽視