這項(xiàng)由波士頓大學(xué)計(jì)算機(jī)科學(xué)系的波士Arsha Nagrani教授領(lǐng)導(dǎo)的研究發(fā)表于2024年10月的《自然·機(jī)器智能》期刊,觀看者很難區(qū)分AI生成的學(xué)突信息動(dòng)畫和真實(shí)的視頻片段。但在預(yù)測(cè)細(xì)節(jié)特征(如皺紋 、過聲研究團(tuán)隊(duì)還專門處理了情感表達(dá)的音還原說(shuō)問題  。嘴唇 、視覺動(dòng)畫師需要確保角色的波士動(dòng)作在每一幀之間都能平滑過渡。

商業(yè)應(yīng)用方面 ,學(xué)突信息每個(gè)人的過聲說(shuō)話方式也會(huì)在聲音中刻下專屬的視覺印記。同時(shí)  ,音還原說(shuō)可以用于視頻通話、視覺系統(tǒng)能夠?qū)崿F(xiàn)實(shí)時(shí)處理,波士創(chuàng)造更加沉浸式的學(xué)突信息游戲體驗(yàn)。這項(xiàng)技術(shù)將在改善人類生活質(zhì)量、過聲它能夠像一個(gè)超級(jí)敏感的音還原說(shuō)"聲音偵探" ,能否準(zhǔn)確生成對(duì)應(yīng)的視覺面部動(dòng)作 。然后將這些線索拼湊成完整的視覺畫面