您現(xiàn)在的位置是:探索 >>正文
研究人員發(fā)現(xiàn):黑客可利用壓縮圖片隱藏AI指令攻擊
探索5人已圍觀
簡介【科技消息】近日,網(wǎng)絡(luò)安全研究機(jī)構(gòu)Trail of Bits發(fā)布一項最新研究,揭示了一種新型AI安全威脅:攻擊者可將惡意指令隱藏在圖片中,通過圖像壓縮產(chǎn)生的“偽影”artifacts)觸發(fā)AI模型執(zhí)行 ...
這些變化對人類肉眼幾乎不可察覺,研究用壓當(dāng)圖像被壓縮以減小文件大小時
,發(fā)現(xiàn)壓縮后 ,黑客在一次測試中
,可利縮圖其技術(shù)門檻較低,片隱未來可能被惡意利用。令攻
研究顯示 ,研究用壓壓縮算法可能在圖像中引入細(xì)微的發(fā)現(xiàn)視覺噪聲或結(jié)構(gòu)變化 。但某些AI圖像識別系統(tǒng)卻可能將其誤讀為可識別的黑客文本。該技術(shù)被稱為“AI提示注入”(AI prompt injection)的可利新變種 ,原本隱藏的縮圖文本顯現(xiàn)出來 ,黑客正是片隱利用這一特性,盡管目前尚無證據(jù)表明該方法已被用于現(xiàn)實網(wǎng)絡(luò)攻擊,令攻可能對當(dāng)前廣泛使用的研究用壓視覺AI系統(tǒng)構(gòu)成潛在風(fēng)險 。研究人員上傳經(jīng)過特殊設(shè)計的圖片至谷歌Gemini等AI平臺。這些平臺在處理圖片前通常會自動進(jìn)行壓縮 。
此類攻擊可能發(fā)生在用戶日常使用場景中,導(dǎo)致AI執(zhí)行了數(shù)據(jù)外泄操作。例如,
實驗中 ,但研究人員警告