散佈假裸照勒索大筆金錢正盛行!避免成為受害者用 PhotoGuard 為照片加入「防護罩」

科技犯罪

有心人會在社群媒體尋找受害者照片,用 AI 技術製造逼真的不雅照,再要求受害者付款、或是提供真實裸照。雖然犯罪手法惡劣,但現實是目前仍沒有工具阻止他們透過 AI 對他人照片進行編輯,甚至無法證明他們合成的照片是假的。

近來,麻省理工學院研究團隊公布他們研發的新技術「PhotoGuard」,可望降低這些案件的發生。

長太帥、拍太美擔心被合成不雅照?趕快為照片加上「防護罩」!

PhotoGuard 就像是照片的防護罩,透過附上不顯眼的信號防止照片被他人再利用。用戶將照片上傳到網路前,只要使用 PhotoGuard,當有心人想透過如 Stable Diffusion 的生成式 AI 編輯照片,產出的結果就會明顯看起來是合成的。

參與研發的博士研究員 Hadi Salman 說:「現在任何人都能自由拿取我們的照片、任意進行修改,而這個工具能防止他人的惡意行為。」尤其能防止女性自拍照在未經同意下被他人製成不雅照。

阻擋科技犯罪、降低 AI 技術勒索,靠的是擾亂生成式 AI 辨識

它究竟是怎麼做到的?研究團隊使用編碼攻擊(encoder attack)和擴散攻擊(diffusion attack)兩種技術研發 PhotoGuard。

編碼攻擊會在照片上附上難以察覺的信號,它能使 AI 編輯器將照片理解成其他內容。例如,附上信號的喜劇演員 Trevor Noah 的照片會讓 AI 將人像歸類成純灰色區塊,這樣一來,任何試圖要用 AI 將 Noah 人像合成到其他場景的成果看起來都會很不真實。

再來,擴散攻擊可以擾亂 AI 生成其他圖像的方式。同樣以 Trevor Noah 的照片為例,若有心人士想添加其他東西到 Noah 的人像上,照片上信號會自動忽略他們的指示,只會產生研究團隊預設的成果。

照片防護罩不是「金鐘罩」,時刻警惕照片外流最重要!

雖然好不容易有防止照片受他人惡意編輯的工具問世,但 PhotoGuard 功能還是有限。它目前只能 100% 保護透過 Stable Diffusion 編輯的照片,若他人用其他 AI 工具仍有機會成功改造照片。

參與研發的教授 Aleksander Madry 認為,更有效的防範方式應該是社群媒體公司自動添加此功能到每一張用戶上傳的照片中。

只是技術不斷推陳出新,就算目前研發出良好的照片保護技術,科技公司馬上又會推出改良的 AI 模組,使所有保護措施立即失效。

對此,生成式 AI 和 Deepfake 專家 Henry Ajder 回應:「從源頭保護照片不受 AI 篡改,比使用不可靠的方式檢測 AI 篡改內容來得可行。」他強調,所有社群媒體平台和 AI 公司研發任何技術前,都應考量到它如何保護用戶照片在非自願的情況下遭到惡意編輯。

文章來源

You may also like...

發佈留言