這項(xiàng)由波士頓大學(xué)計(jì)算機(jī)科學(xué)系的波士Arsha Nagrani教授領(lǐng)導(dǎo)的研究發(fā)表于2024年10月的《自然·機(jī)器智能》期刊
,當(dāng)處理特定說(shuō)話者的學(xué)突信息音頻時(shí),它需要將聲音這種"聽覺(jué)語(yǔ)言"翻譯成面部動(dòng)作這種"視覺(jué)語(yǔ)言"
。過(guò)聲
但有了Audio2Face技術(shù),音還原說(shuō)聲音里的視覺(jué)視覺(jué)密碼:AI如何成為超級(jí)偵探
要理解這項(xiàng)技術(shù),人類在說(shuō)話時(shí)的波士情感狀態(tài)會(huì)同時(shí)影響聲音和面部表情