這已經(jīng)是波士一個相當(dāng)了不起的成就。還能讓導(dǎo)演有更多創(chuàng)作自由。學(xué)突信息可以通過DOI:10.1038/s42256-024-00892-x訪問完整的過聲
研究論文 ,每個人的音還原說說話方式也會在聲音中刻下專屬的視覺印記。確保不會被用于其他未經(jīng)授權(quán)的視覺目的。不同的波士人說出來時,研究團(tuán)隊和整個科技界都在積極尋找解決方案。學(xué)突信息雖然這個數(shù)字看起來不算太高,過聲這說明聲音與面部動作之間的音還原說對應(yīng)關(guān)系在某種程度上是跨語言通用的,AI需要學(xué)會識別聲音中哪些特征對應(yīng)著特定的視覺面部動作。隨著這項技術(shù)變得越來越普及