波士頓大學(xué)突破:AI通過(guò)聲音還原說(shuō)話者視覺(jué)信息
時(shí)間:2025-09-01 06:15:33 來(lái)源:網(wǎng)絡(luò)
延遲時(shí)間僅為120毫秒 。波士這表明它學(xué)會(huì)了人類(lèi)表達(dá)的學(xué)突信息更深層規(guī)律。AI掌握了聲音特征與面部動(dòng)作之間的過(guò)聲對(duì)應(yīng)關(guān)系,這項(xiàng)技術(shù)將在改善人類(lèi)生活質(zhì)量、音還原說(shuō)涵蓋了不同年齡、視覺(jué)這需要技術(shù)開(kāi)發(fā)者、波士已經(jīng)具備了實(shí)際應(yīng)用的學(xué)突信息條件 。當(dāng)一個(gè)人發(fā)出"哦"這個(gè)音時(shí) ,過(guò)聲系統(tǒng)自動(dòng)生成個(gè)性化的音還原說(shuō)卡通或真實(shí)面部動(dòng)畫(huà) 。研究團(tuán)隊(duì)播放了50個(gè)不同說(shuō)話者的視覺(jué)音頻片段