https://www.techradar.com/computing/artificial-intelligence/naughty-naughty-more-than-a-third-of-it-workers-are-using-unauthorised-ai-as-the-risks-of-shadow-tech-loom-large
現象普遍:超過三分之一的IT工作者(38%)及近半數的辦公室工作者(46%)承認在工作中使用未經公司授權的生成式AI工具,這種「影子AI」使用正在增長。 使用原因與隱瞞動機:員工使用非官方AI工具的部分原因是公司提供的培訓不足。許多人隱瞞使用是為了獲得「秘密優勢」,或是害怕被視為能力不足,甚至擔心被AI取代(27%有AI相關的冒名頂替症候群,30%擔心工作不保),導致焦慮和倦怠。 潛在風險:未經授權的AI工具可能缺乏監管,容易導致敏感資料外洩、繞過既有的資安協議,甚至讓系統面臨攻擊風險,尤其當具有高權限的管理員使用時。 企業面臨的挑戰與建議:雖然一些公司已整合AI(44%),但影子AI的存在顯示了政策不清、資安薄弱和缺乏信任的問題。文章建議企業不應僅是禁止,而是應現代化管理,建立永續的AI治理模型,強調透明度,提供足夠培訓,並部署更強固的資安基礎設施(如端點保護和ZTNA)來應對,而非將問題歸咎於AI本身。
文章揭示了一個在快速發展的AI時代下,企業內部真實且複雜的狀況。員工在追求效率和競爭力(或出於生存焦慮)的驅動下,會主動擁抱新工具,即使這意味著繞過正規流程。這種行為雖然可以理解,但也確實如文中所述,埋下了嚴重的資安隱憂。 最令人深思的是,員工隱瞞使用AI的動機與對自身工作地位的焦慮緊密相關。這不僅是技術管理問題,更是企業文化和信任問題。如果員工覺得公開使用AI會被視為能力不足或加速淘汰,他們自然會選擇秘密使用。這反映了企業在推動AI應用時,可能忽略了員工在技能轉型和心理適應上的需求。 企業單純地禁止或強力監管「影子AI」恐怕難以奏效,甚至可能適得其反,因為這沒有解決員工對效率的需求和對未來的不安。更有效的做法應該是正視員工的需求,提供正規的、安全的AI工具和充分的培訓,建立清晰且鼓勵探索的AI使用政策,並創造一個讓員工願意公開討論AI應用、學習新技能的信任環境。如此,才能在釋放AI潛力的同時,有效管控風險,並緩解員工的焦慮。這場挑戰不單是技術部署,更是組織轉型和人力資源策略的重塑。
沒有留言:
張貼留言