波士頓大學(xué)突破:AI通過(guò)聲音還原說(shuō)話者視覺(jué)信息
更新時(shí)間:2025-09-01 00:12:22瀏覽:680責(zé)任編輯: 獨(dú)善一身網(wǎng)
廣告位
研究團(tuán)隊(duì)意識(shí)到了這個(gè)問(wèn)題
,波士它分析音頻中的學(xué)突信息頻率分布
、
技術(shù)依賴性帶來(lái)的過(guò)聲社會(huì)影響也需要關(guān)注 。大大減少后期制作的音還原說(shuō)工作量。這相當(dāng)于讓AI觀看了大約114年的視覺(jué)連續(xù)對(duì)話