2025-12-05
22457a2c 0906 41b3 9369 D69b1d6b1037

微軟最近針對其操作系統Windows 11推出的實驗性AI功能Copilot Actions發出警告,表示該功能可能會造成數據盜竊和設備感染,引起許多安全專家的強烈關注與批評。微軟的這一舉動顯示出大科技公司在推動新技術方面的急迫,而對於可能帶來的危險卻似乎未予以充分理解與控制。

據報導,Copilot Actions使AI能夠自動執行諸如組織文件、安排會議和發送郵件等日常任務,但微軟在提供這些功能的同時也提出了重大的警示,建議用戶在啟用此功能之前必須了解相關的安全隱患。這一警告反映出目前大型語言模型(LLM)仍然存在的問題,例如可能提供虛假資訊的“幻覺”和“提示注入”等問題。

研究顯示,這些AI模型可能會給予攻擊者無法識別的指令,因此任何識別不明的網站、簡歷或電子郵件都可能成為發動攻擊的途徑。攻擊者能夠利用這些虛弱之處進行敏感數據的提取和惡意代碼的執行,這使得微軟的警告變得相當重要,然而部分專家對於微軟所提供的警告的有效性卻提出了質疑,認為這並不能充分保障用戶的安全。

安全專家指出,儘管微軟努力為Copilot Actions設置了安全防護機制,包括確保AI需要經過用戶批准才能訪問數據以及對行為進行監控和記錄,但這些設置在實際操作中能否真正保護用戶的數據安全仍然有待觀察。歷史經驗告訴我們,許多類似的AI功能最終會變成預設項目,進而影響大量用戶的安全,而並非只有有經驗的用戶才受影響。

微軟介入的時間點也正好反映了當前驚人的AI快速發展和擴展,從智能助手到自動化工作流程的應用越來越普及。隨著這些新技術的普及,要求用戶能合理理解其風險與搭建防護線也變得更加重要。許多專家預計,隨著越來越多AI功能的推出,未來我們可能面臨更多相似的安全挑戰。不過,微軟的權益保護措施,有可能成為向用戶強調安全風險的重要一步。

從整體來看,微軟對Copilot Actions的警告不僅僅是公司範疇內的事件,更是在整個科技行業中引發的關於AI應用安全問題的廣泛討論,對於用戶來說,適當與合理地使用這些高科技工具的確需要睜大眼睛,以便辨別其中的風險及避開潛在的危險。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *