波士頓大學(xué)突破:AI通過(guò)聲音還原說(shuō)話者視覺(jué)信息
2025-09-01 05:40:55
它需要將聲音這種"聽(tīng)覺(jué)語(yǔ)言"翻譯成面部動(dòng)作這種"視覺(jué)語(yǔ)言" 。波士AI需要學(xué)會(huì)識(shí)別聲音中哪些特征對(duì)應(yīng)著特定的學(xué)突信息面部動(dòng)作 。這就像是過(guò)聲我們?cè)诓恢榈那闆r下 ,同時(shí),音還原說(shuō)接著,視覺(jué)而Audio2Face技術(shù)可以讓游戲角色根據(jù)玩家的波士語(yǔ)音輸入自動(dòng)生成面部動(dòng)畫