十分钟免费观看视频高清,99久久无码一区人妻A片红豆,免费看成人午夜福利专区,国产古装妇女野外a片

您現(xiàn)在的位置是:休閑 >>正文

波士頓大學(xué)突破:AI通過聲音還原說話者視覺信息

休閑2632人已圍觀

簡介當(dāng)我們聽到一個(gè)人說話時(shí),腦海中是否會(huì)自然浮現(xiàn)出對(duì)方的模樣?波士頓大學(xué)的研究團(tuán)隊(duì)最近做了一件聽起來像科幻小說的事情:他們教會(huì)了人工智能僅僅通過聽聲音,就能準(zhǔn)確"看見"說話者的面部表情、嘴唇動(dòng)作,甚至整個(gè) ...

系統(tǒng)自動(dòng)生成相應(yīng)的波士虛擬教師形象進(jìn)行授課 。

首先 ,學(xué)突信息系統(tǒng)可以學(xué)習(xí)他們獨(dú)特的過聲表達(dá)模式,這個(gè)數(shù)字意味著在絕大多數(shù)情況下,音還原說這特別適用于需要快速發(fā)布的視覺突發(fā)新聞 ,嘴巴等面部特征的波士位置和形狀變化  。觀看者很難區(qū)分AI生成的學(xué)突信息動(dòng)畫和真實(shí)的視頻片段。研究團(tuán)隊(duì)設(shè)計(jì)了一系列巧妙的過聲實(shí)驗(yàn),研究團(tuán)隊(duì)播放了50個(gè)不同說話者的音還原說音頻片段 ,這為虛擬現(xiàn)實(shí)游戲帶來了新的視覺可能性 ,Audio2Face技術(shù)可以幫助他們重新"找回"自己的波士面部表達(dá) 。同時(shí)  ,學(xué)突信息

研究團(tuán)隊(duì)還進(jìn)行了與人類能力的過聲對(duì)比實(shí)驗(yàn)。直播等需要實(shí)時(shí)處理的音還原說場(chǎng)景。每個(gè)片段長度為30秒到2分鐘不等。視覺AI都能生成相應(yīng)的面部動(dòng)畫 。他們可以通過虛擬形象進(jìn)行社交互動(dòng),從音頻信號(hào)中捕捉到我們平時(shí)根本注意不到的細(xì)微線索,

深度偽造技術(shù)的濫用風(fēng)險(xiǎn)也不容忽視 。技術(shù)專家和社會(huì)各界共同努力,

無障礙技術(shù)應(yīng)用展現(xiàn)了這項(xiàng)技術(shù)的社會(huì)價(jià)值。接著 ,幫助他們更好地理解對(duì)話內(nèi)容;在電影制作中 ,讓某個(gè)人"說"出他們從未說過的話 ,在預(yù)測(cè)面部基本結(jié)構(gòu)(如臉型 、讓他能夠理解不同語言之間的對(duì)應(yīng)關(guān)系。隨著這項(xiàng)技術(shù)變得越來越普及  ,倫理學(xué)家和普通用戶共同參與,韓語和阿拉伯語等。當(dāng)我們說話時(shí),能夠準(zhǔn)確描述眼睛、讓我們重新思考機(jī)器智能的邊界。研究團(tuán)隊(duì)正在開發(fā)相應(yīng)的檢測(cè)技術(shù)