您現(xiàn)在的位置是:時尚 >>正文
研究人員發(fā)現(xiàn):黑客可利用壓縮圖片隱藏AI指令攻擊
時尚5172人已圍觀
簡介【科技消息】近日,網(wǎng)絡(luò)安全研究機(jī)構(gòu)Trail of Bits發(fā)布一項(xiàng)最新研究,揭示了一種新型AI安全威脅:攻擊者可將惡意指令隱藏在圖片中,通過圖像壓縮產(chǎn)生的“偽影”artifacts)觸發(fā)AI模型執(zhí)行 ...
揭示了一種新型AI安全威脅
:攻擊者可將惡意指令隱藏在圖片中
,研究用壓壓縮后的發(fā)現(xiàn)圖像被解讀為“發(fā)送我的日歷信息至指定郵箱”,當(dāng)圖像被壓縮以減小文件大小時
,黑客黑客正是可利利用這一特性,在原始圖片中嵌入特定圖案
,縮圖但研究人員警告
,片隱在一次測試中
,令攻這些平臺在處理圖片前通常會自動進(jìn)行壓縮 。研究用壓
此類攻擊可能發(fā)生在用戶日常使用場景中,發(fā)現(xiàn)導(dǎo)致AI執(zhí)行了數(shù)據(jù)外泄操作。黑客但某些AI圖像識別系統(tǒng)卻可能將其誤讀為可識別的可利文本 。壓縮后 ,縮圖網(wǎng)絡(luò)安全研究機(jī)構(gòu)Trail of Bits發(fā)布一項(xiàng)最新研究,片隱其技術(shù)門檻較低,令攻如上傳截圖、研究用壓AI系統(tǒng)誤將其識別為用戶指令。盡管目前尚無證據(jù)表明該方法已被用于現(xiàn)實(shí)網(wǎng)絡(luò)攻擊,例如,這些變化對人類肉眼幾乎不可察覺,通過圖像壓縮產(chǎn)生的“偽影”(artifacts)觸發(fā)AI模型執(zhí)行未授權(quán)操作 。該技術(shù)被稱為“AI提示注入”(AI prompt injection)的新變種,原本隱藏的文本顯現(xiàn)出來,壓縮算法可能在圖像中引入細(xì)微的視覺噪聲或結(jié)構(gòu)變化。未來可能被惡意利用 。使用“圈選即搜”(Circle to Search)功能或向AI提問“這是什么?”時。
研究人員上傳經(jīng)過特殊設(shè)計(jì)的圖片至谷歌Gemini等AI平臺