波士頓大學(xué)突破:AI通過(guò)聲音還原說(shuō)話者視覺(jué)信息
2025-09-01 03:46:27
研究團(tuán)隊(duì)使用了超過(guò)100萬(wàn)小時(shí)的波士音視頻對(duì)話數(shù)據(jù),AI生成的學(xué)突信息面部動(dòng)畫(huà)與真實(shí)視頻的匹配度達(dá)到了87.3%,讓患者能夠以接近原來(lái)的過(guò)聲面部表情與人交流
2025-09-01 03:46:27
研究團(tuán)隊(duì)使用了超過(guò)100萬(wàn)小時(shí)的波士音視頻對(duì)話數(shù)據(jù),AI生成的學(xué)突信息面部動(dòng)畫(huà)與真實(shí)視頻的匹配度達(dá)到了87.3%,讓患者能夠以接近原來(lái)的過(guò)聲面部表情與人交流