你把秘密都跟ChatGPT講了?

AI風險》別跟ChatGPT聊太多,個資可能被偷記?

AI風險》別跟ChatGPT聊太多,個資可能被偷記?

和ChatGPT聊天時,若不慎洩露自己個資時,可能會被它暗中記下。Photo by Rolf van Root on Unsplash

最夯AI應用ChatGPT,竟在資安專家別有心機地下指令後,寫出完整可用的毀滅台灣等各國網路計畫?同時有人發現,和ChatGPT聊天不慎洩露自己個資時,雖會被AI提醒別再說,之後卻赫然發現它暗中記下!台灣企業與個人面對人工智慧創新,不能只是樂觀擁抱,請了解這些暗黑風險。

過去幾年,大數據與高算力讓AI的能力大幅躍進,但許多AI科技大廠,如Google、OpenAI等公司,都玩起兩手策略,一方面強銷自己的人工智慧能力,一方面又刻意隱藏不直接公開最強的AI火力。這其中除了商業利益考量,例如Google擔心新技術衝擊,已經獨霸多年的瀏覽器與搜尋引擎廣告市場外,有更多是基於開放AI後的未知安全風險擔憂。

OpenAI的創辦人之一兼執行長奧特曼(Sam Altman)坦言,AI可能對網路資訊安全的危害程度之高,讓他覺得不堪設想,Google和OpenAI也都多次以「需要處理好潛在危險」為理由,延遲新功能的AI產品公開時程。但近期微軟大動作推廣ChatGPT,甚至採取訂閱制,並積極與其搜尋引擎Bing進行深度整合;Google也被動推出了Bard聊天機器人來應戰,究竟這是「出奇招」、還是「下險棋」?

在蘋果手機推出的初期幾年,號稱封閉性且高安全的iOS系統,幾乎每一代都被「越獄(Jailbreak)」,手機越獄是指繞過由iOS底層系統限制的安全高牆,通常是為了讓用戶能夠下載未經官方審核的App、更改系統設定、執行其他惡意或是執行非原廠設計的操作。ChatGPT的安全防線是否也會被相似手法破解呢?

ChatGPT在公開版本中,就已經宣稱自己的安全與道德圍牆,舉凡犯罪、恐怖主義、種族歧視、仇恨言論、性騷擾等不道德的問題,或是涉及個人隱私,及資安攻擊的問題,都會被拒絕回答。但在實際的實驗中,在初期版本,曾被國外資安專家「設局」,透過問題的誘導與情境設定,寫出毀滅人類計劃書,詳細描述入侵各國網路、控制武器、破壞基礎建設等SOP,還提供了對應的Python程式碼,說明ChatGPT的安全圍牆還是可能被繞過。

文章來源

You may also like...

發佈留言