近期興起AI科技熱潮,從操作系統以至圖像編輯,甚至聊天都牽涉到AI技術,然而在眾多add-on之中,懂得使用而又不會危害到數碼安全,避免機密資料外洩和其他安全事故,可能被很多人都忽略了。
過濾重要資料
在ChatGPT的開發者OpenAI的私隱條款中,清楚列明所有與chatbot的對話將會被儲存,可能用作多種不同用途。首先是解決技術問題和防止違反服務條款,防止有人產生不當的內容,到時候對話可能由人類進行審核,其次是用來訓練新GPT版本,改進產品。其他主流的語言模型,例如Google的Gemini、Anthropic的Claude和Microsoft的Bing及Copilot都有類似的條款,可以完整保存對話。
事實上因為軟件的臭蟲原故,意外洩露對話內容已經發生過,用戶看見其他人的對話,使用這些資料去訓練也可能導致資料從預先訓練模型中外洩,AI助手判斷與回應相關,便可能把你的資料交給其他人,資安專家也設計了多種攻擊去盜竊對話,所以要謹記,任何與chatbot的對話都有可能用來對付你,所以與AI聊天時要多加小心。
不要傳送個人資料到Chatbot,包括密碼、護照、銀行卡號碼、地址、電話、姓名和其他屬於你或你公司,或你的客戶資料,可以以星號或事先編輯取代。也不要上傳任何文件,有多種plug-in和add-on讓用戶使用chatbot處理文件,上傳工作文件以生成內容摘要對上班一族有相當吸引力,然而不小心上載多頁文件便有洩露機密資料、知識產權或商業機密的風險,也有可能墮入針對性攻擊的騙局。
用戶也要懂得使用私隱設定,大部份供應商都有提供最少化追蹤,例如OpenAI該你關閉儲存聊天紀錄,如此一來資料便會在30天後被移除並且不會再用作訓練,使用API、第三方應用程式或服務去存取OpenAI方案的用戶會預設開啟這個設定。如果是軟件工程師發送編碼的話,謹記刪除機密資料,已經有不少人借AI助手去核視和改良編碼,刪除所有API key、伺服器地址和其他應用程式架構或伺服器設定的資料。
限制使用第三方應用程式和plug-in
無論使用那款AI助手都應該遵守以上的貼士,但要進一步確保私隱,使用ChatGPT plug-in、Gemini extension或其他add-on都會增加新風險。首先,對話紀錄可能不單單儲存在Google或OpenAI伺服器,也儲放在支援plug-in或add-on的第三方伺服上,又或者電腦或智能手機的某個角落。其次是大部份plug-in從外來資源讀取資料,例如網上搜索、你的Gmail收件箱、從Notion、jupyter或Evernote上的個人筆記等等,結果你的資料結果也在plug-in的伺服器上運行,帶來重大風險。第三,目前AI助手的發佈和驗證過程,遠不如App Store或Google Play的篩選那麼有秩序,所以遇上錯漏百出甚至惡意的plug-in機會甚高,而且看似沒有人真的檢查製作者或他們的聯絡。
至於減輕風險,最重要是給它一點時間,當plug-in推出太短時間,發佈和支援步驟可能並不順暢,製作者也可能沒有考慮到保安要求,整個生態系統需要時間變得成熟,以及更加安全和可靠。此外,很多plug-in和add-on加到現有ChatGPT版本的價值其實微乎其微,即使沒有它們也能完成任務的話,便無謂添加風險。至於需要用到某些plug-in功能的話,建議在使用前提高警剔:
- 選擇已推出數個月或有定期更新的extension和add-on
- 只考慮有大量下載,並小心閱讀評論中的任何問題。
- 如果plug-in附有私隱條款,開始使用前小心閱讀。
- 如果具備編碼能力,不妨瀏覽代碼,確保它只將資料發送到聲明的侵服器,最理想是只送到AI模型伺服器。
執行plug-in需要特殊監控
以上只提到資料外洩,但這並非使用AI的唯一潛在事故,很多plug-in能進行特定動作,例如購買機票,這些工具已成為有心人的新攻擊對象,透過文件、網頁、影像,甚至圖像進行指導,如果受害者放入文件或連結到chatbot,chatbot便會執行惡意指令,例如用受害者金錢買機票,雖然大型的供應商正嘗試開發防護對付這種威脅,但暫時仍未有人成功。幸好大部份重要的動作,尤其涉及付款都需要雙重確定,但潛在的風險仍然相當高。
資料來源:Kaspersky Blog