更多

    ChatGPT 引發安全疑慮 資安機構籲:多角度查證保平安

    備受注目的人工智能互動系統 ChatGPT 自去年 11 月推出以來,已成為歷史上增長最快的消費者應用程式。不過,編程能力達三級工程師程度的 ChatGPT 也有機會被業餘黑客看中,利用開發智能惡意軟件程式,並發起隱形攻擊。資訊安全機構紛紛關注事態發展,其中香港電腦保安事故協調中心(HKCERT)提醒,使用 AI 時應保持凡事核查,從多個源頭查證事實,免墮安全風險。

    ChatGPT 是一款以文字為基礎的 AI 機械人,能做到準確修復編碼錯誤、生成烹飪食譜、創建 3D 動畫,以至編寫完整的歌曲,展現了驚人的 AI 能力。Palo Alto Networks 副總裁暨亞太區安全總監 Sean Duca 指出:「AI 被視為『雙刃劍』,用戶現在可以使用 AI 驅動的安全工具和產品,在幾乎無人干預的情況下應付大量網絡安全事件。不過,需要注意的是業餘黑客也可利用同樣的技術開發智能惡意軟件程式,並發動隱形攻擊。」

    事實上,ChatGPT 自問世以來,全球技術專家和評論員一直關注 AI 生成的內容工具所產生的影響,尤其是對網絡安全的影響。在拉斯維加斯舉行的 Black Hat and Defcon 安全大會上,一個技術團隊展示了 AI 在生成釣魚郵件和魚叉式釣魚資訊時是如何超越人類。研究人員將 OpenAI 的 GPT-3 平台與其他側重於個性分析的 AI 即服務 (AI-as-a-service) 產品相結合,生成根據同事背景和性格而制訂的釣魚郵件。最終開發了一個在攻擊目標前能對郵件進行梳理和完善的流程。這個平台甚至能自動提供具體內容,例如當被要求生成針對特定國家的人的內容時,能提到該國的法律。

    ChatGPT 的開發者明確表示,這款 AI 工具具有質疑錯誤的前提和拒絕不當請求的能力。雖然該系統備用於防止任何形式犯罪活動的護欄,但經過調整依然能夠生成極像人類書寫出來的釣魚郵件。

    根據 Palo Alto Networks 調查團隊 Unit 42 的調查顯示,勒索軟件攻擊是最為嚴重的網絡安全事件,不僅案例數量超過三分之一(36%),而且攻擊者索取和獲得的贖金不斷增加,主要原因是暗網中的工具價格低廉(甚至不到 10 美元),隨著勒索軟件即服務 (Ransomeware-as-a-service) 模式和 ChatGPT 等 AI 工具的出現 ,將進一步大幅降低犯罪門檻。

    網絡安全行業當務之急是採取智能化行動化解不斷發展的威脅。雖然自主回應如今能夠在無人手干預的情況下解決威脅,但企業、政府和個人愈來愈依賴 AI 和機器學習 (ML) 等新興技術的自動化回應,隨著 AI 驅動的攻擊成為常態,受到自動化惡意軟件攻擊的機會也愈高。同時,企業制定策略對兼顧企業道德和網絡安全也很重要,建立有效的治理和法律框架能夠增強人類對 AI 技術的信任,並促進社會公平和可持續發展。

    HKCERT 也提出要留意使用時 AI 所涉及的風險,並提醒應該保持凡事核查的心態,從多個源頭查證事實。安全風險包括:
    1. 數據私隱和保密:AI 需要大量數據進行訓練,其中可能包括敏感訊息,如個人詳細資料、財務和醫療記錄。這可能引發了隱私問題,因為模型可能會訪問和生成敏感訊息。

    2. 錯誤訊息: AI 為求產生的結果有連貫性及通順,可能會編造虛假或誤導性訊息,用戶慣性倚賴 AI 生成的資料可能會對事實有錯誤的認知。另外,訊息的準確性亦會受到其所接受的訓練數據影響,例如 ChatGPT 的訓練數據只去到 2021 年,所以當問到誰是最近的世界盃冠軍時,它會回答法國 (2018 年冠軍),而不是阿根廷 ( 2022 年冠軍)。

    3. 偏見問題: AI 的訓練數據可能來自互聯網,其中可能包含偏見和歧視。這可能導致模型產生使這些偏見和歧視的回應。此外,不法分子亦可利用偏頗的數據,訓練 AI 模型,令 AI 生成惡意的回應,此手法稱為對抗性干擾。

    4. 版權問題:考慮第三方的權利都是很重要,例如由 ChatGPT 輸出的回應中可能涉及的受版權保護的資料的擁有人。侵犯他人的權利,包括未經許可使用其受版權保護的資料,可能會導致法律責任。因此,使用 ChatGPT 時要考慮和尊重其開發者和其他人的知識產權,並確保對 ChatGPT 的回應的任何使用都符合適用的法律法規。

    您會感興趣的內容

    相關文章