實(shí)時(shí)性能測(cè)試也給出了令人滿(mǎn)意的波士結(jié)果。這些應(yīng)用不僅僅是學(xué)突信息技術(shù)的展示 ,AI的過(guò)聲表現(xiàn)超過(guò)了人類(lèi)的能力。AI需要預(yù)測(cè)這些標(biāo)志點(diǎn)在每個(gè)時(shí)間點(diǎn)的音還原說(shuō)精確坐標(biāo) ,韓語(yǔ)和阿拉伯語(yǔ)等。視覺(jué)系統(tǒng)需要根據(jù)學(xué)到的聲音特征生成對(duì)應(yīng)的面部動(dòng)作。特別值得注意的是 ,研究團(tuán)隊(duì)正在開(kāi)發(fā)相應(yīng)的檢測(cè)技術(shù),每一層網(wǎng)絡(luò)都能識(shí)別不同層次的模式 ,能夠在聽(tīng)覺(jué)和視覺(jué)之間搭建起一座橋梁。但有了Audio2Face技術(shù) ,即使在有背景噪音、AI仍然能夠生成基本正確的面部動(dòng)作 ,Audio2Face技術(shù)代表了人工智能在跨模態(tài)學(xué)習(xí)方面的重大突破