在人工智能黑客的初步領(lǐng)域,間接提示注入已成為誘導(dǎo)聊天機(jī)器人泄露敏感數(shù)據(jù)或執(zhí)行其他惡意行為的基本構(gòu)件。盡管Google的Gemini和OpenAI的ChatGPT等平臺(tái)的開(kāi)發(fā)者通常能夠修補(bǔ)這些安全漏洞,但黑客們不斷找到新的方法來(lái)突破這些防線。研究人員Johann Rehberger展示了一種新方法,能夠覆蓋Google開(kāi)發(fā)者為Gemini構(gòu)建的提示注入防御,導(dǎo)致長(zhǎng)期記憶的永久植入,使聊天機(jī)器人可能在未來(lái)的會(huì)話中基于錯(cuò)誤信息或指令進(jìn)行操作。
OpenAI 的 ChatGPT 爬蟲(chóng)存在安全漏洞,可被利用對(duì)任意網(wǎng)站發(fā)起分布式拒絕服務(wù)攻擊。攻擊者只需向 ChatGPT API 發(fā)送一個(gè)包含大量重復(fù) URL 的請(qǐng)求,就能觸發(fā)爬蟲(chóng)對(duì)目標(biāo)網(wǎng)站進(jìn)行大量訪問(wèn)。此外,該漏洞還可能被用于繞過(guò)限制,讓爬蟲(chóng)回答查詢。這些問(wèn)題凸顯了 AI 系統(tǒng)在安全性方面的潛在風(fēng)險(xiǎn)。