生成式 AI 帶來資安威脅,哪些策略可以協助企業因應資安風險?

生成式 AI 如今已被企業視為不可或缺的輔助工具,許多公司甚至表示它已經超越了員工能創造的價值。然而,雖然生成式 AI 賦予企業良好的工作效率,但也讓外部攻擊者能透過惡意使用造成企業威脅,而內部員工的使用同時也可能帶來可觀的資安風險。對此,企業該如何在生產力和安全性之間取得平衡,並輔以安全策略來為企業內部的安全把關呢?

無所不在的生成式 AI 工具

根據 ResumeBuilder.com 的數據顯示,1,000 名美國商業領袖中有 49% 的人表示公司正在使用生成式 AI (像是 ChatGPT) ,更有高達 93% 的企業表示未來將擴大聊天機器人的使用。對企業領袖而言,使用生成式 AI 能協助內部撰寫文案、招募人才、編寫程式碼,進而能夠節省大量的資金支出,因此大多數企業領導者都十分認可生成式 AI 的工作表現,也顯示生成式 AI 在企業內部逐漸成為一種無所不在的工具。

40% 的公司透過 ChatGPT 節省了超過 50,000 美元,而 11% 的公司節省了超過 100,000 美元。圖片來源:ResumeBuilder.com

生成式 AI 可能帶來資安風險

隨著企業對生成式 AI 展現高度青睞 ,領導者很可能沈浸在其創造的正面效益而忽略隨之而來的安全威脅。事實上,生成式 AI 很可能讓大部分企業面臨顯著的資安風險。

網路攻擊者利用生成式 AI 破解密碼,進而引發企業存取安全疑慮

在企業使用生成式 AI 的同時,網路犯罪組織當然也不忘使用科技力量達成攻擊目的。而由於 AI 非常擅長模仿人類,因此駭客很可能透過濫用生成式 AI 來猜測密碼、破解驗證碼,進而入侵公司系統並部署惡意軟體。

舉例而言,CircleCI 就於今年初表示內部一位工程師因此感染了惡意軟體,進而引發後續的資安問題。這不僅顯示惡意使用生成式 AI 的現象無可避免,更表示薄弱的密碼設定特別容易受到駭客攻擊,進而使得多因素身分驗證的重要性與日俱增。

員工恣意使用生成式 AI 工具,導致企業資料外洩風險增加

AI 可以輕鬆進行資料分析並提供多方考量,這對於渴望提高生產力的員工而言是再好不過的輔助工具,因此大多數員工都認為註冊生成式 AI 是一項看似有利無害的操作。然而,由於員工使用生成式 AI 通常是為了創造更好的工作績效,因此在操作過程中很可能涉及機密敏感資訊,進而讓企業面臨資料外洩風險。

根據 cyberhaven 的報告指出,160 萬名員工中有 3.1% 的人表示他們曾將企業機敏資訊上傳至 ChatGPT,而由於內部安全人員對這些 AI 工具無法進行全面的監督和控制,導致這些機敏資料可能落入競爭對手或不明人士手中,最終讓企業的資料安全受到威脅。

員工最常將企業內部的價值敏感資料上傳到 ChatGPT 上,而根據 2023 年 4 月 9 日到 4 月 15 日的資料顯示,每 100,000 名員工在一週內便引發了 319 起資安事件。圖片來源:cyberhaven

企業應該實施的內部資安策略

為了有效應對生成式 AI 帶來的風險,企業必須實施強大的安全措施來抵禦外部攻擊,同時也要讓員工了解使用 AI 工具可能產生的潛在安全後果。以下提出企業可以採行的安全策略來保護其營運環境。

提高企業內部的身分驗證強度

有鑒於駭客能透過生成式 AI 掌握密碼破解能力,公司的安全團隊可以在內部實施「零信任策略」來提高身分驗證強度,透過無密碼登入和多因素驗證(MFA)等方式來達成更快速且安全地登入。整體而言,通過完善的存取控制能夠協助企業達成最佳安全實踐。(HENNGE Access Control 致力於提供優質的身分驗證服務,進而為企業的存取安全把關)

領導者應與員工達成安全共識

以生成式 AI 在企業內的高覆蓋率來看,我們幾乎可以肯定人類對 AI 工具的依賴將繼續蔓延。而員工對於提高生產力的訴求本身並非壞事,因此一味禁止他們使用生成式 AI 絕非是最理想的安全防護策略。相反的,企業領導者應該適時提出使用這些工具時的安全疑慮,以達成安全共識而不是譴責的態度來面對員工,進而讓員工提升使用 AI 工具時的安全意識。

WRITTEN BY
Martina Chen