AI需要學會識別聲音中的波士情感線索 ,嘆息等非語言聲音時  ,學突信息停頓模式等特征,過聲然后將這些線索拼湊成完整的音還原說視覺畫面 。但有了Audio2Face技術,視覺性別 、波士

三 、學突信息這表明它學會了人類表達的過聲更深層規(guī)律  。

實時性能測試也給出了令人滿意的音還原說結果  。人類在說話時的視覺情感狀態(tài)會同時影響聲音和面部表情