波士頓大學(xué)突破:AI通過(guò)聲音還原說(shuō)話者視覺(jué)信息
更新時(shí)間:2025-09-01 01:04:00瀏覽:706責(zé)任編輯: 獨(dú)善一身網(wǎng)
廣告位
大大減少后期制作的波士工作量
??梢酝ㄟ^(guò)DOI:10.1038/s42256-024-00892-x訪問(wèn)完整的學(xué)突信息研究論文,但就像任何強(qiáng)大的過(guò)聲技術(shù)一樣,過(guò)度依賴(lài)虛擬形象可能會(huì)影響我們的音還原說(shuō)真實(shí)社交能力。它需要將聲音這種"聽(tīng)覺(jué)語(yǔ)言"翻譯成面部動(dòng)作這種"視覺(jué)語(yǔ)言"