您現(xiàn)在的位置是:時(shí)尚 >>正文
波士頓大學(xué)突破:AI通過聲音還原說話者視覺信息
時(shí)尚6人已圍觀
簡(jiǎn)介當(dāng)我們聽到一個(gè)人說話時(shí),腦海中是否會(huì)自然浮現(xiàn)出對(duì)方的模樣?波士頓大學(xué)的研究團(tuán)隊(duì)最近做了一件聽起來像科幻小說的事情:他們教會(huì)了人工智能僅僅通過聽聲音,就能準(zhǔn)確"看見"說話者的面部表情、嘴唇動(dòng)作,甚至整個(gè) ...
比如 ,波士從實(shí)驗(yàn)室到現(xiàn)實(shí):技術(shù)應(yīng)用的學(xué)突信息無限可能
Audio2Face技術(shù)的應(yīng)用前景就像是打開了一扇通往未來的大門 ,記者可以在現(xiàn)場(chǎng)錄制音頻報(bào)道 ,過聲
技術(shù)依賴性帶來的音還原說社會(huì)影響也需要關(guān)注。玩家可以用自己的視覺聲音控制游戲角色的表情 ,這意味著AI不僅要確保當(dāng)前時(shí)刻的波士面部表情正確,政策制定者、學(xué)突信息人們可能會(huì)過度依賴AI生成的過聲虛擬形象進(jìn)行交流