證券時報記者 吳少龍
近日,工信部發布關于防范OpenClaw(“龍蝦”)開源智能體安全風險的“六要六不要”建議。該建議既是對當前AI應用安全隱患的及時回應,更是為智能體產業健康發展劃定安全底線,為政企與個人用戶筑牢網絡安全屏障,讓技術創新始終行走在安全軌道上。
AI技術的價值,在于賦能而非添亂。“龍蝦”作為能自主執行文件管理、代碼編寫等復雜任務的智能體,其強大的自主決策和系統調用能力,讓產業界和普通用戶看到了AI落地的廣闊前景,也推動著我國AI智能體生態的發展。
但技術的雙刃劍屬性在此體現得尤為明顯:系統設備被劫持,敏感信息泄露,重要數據丟失,一些風險隱患警示我們,AI應用的創新探索,必須以安全為前提,絕不能因追求便捷而忽視風險。在AI技術快速迭代的當下,“龍蝦”的安全問題并非個例,而是新一代智能體應用發展中亟待解決的共性問題。
此次“六要六不要”的發布,不僅是對單一產品的風險防范,更傳遞出一個明確信號:AI產業的發展,必須堅持創新與安全并重。“六要六不要”相關建議,看似是具體的操作規范,實則是AI安全使用的底層邏輯,為不同場景的用戶提供了可操作、可落地的安全指南。從使用官方最新穩定版本、嚴控互聯網暴露面,到堅持最小權限原則、謹慎選擇技能包,每一條“要”都是主動防御的有效舉措,每一條“不要”都是規避風險的關鍵底線。這份指南精準直擊“龍蝦”使用中的核心安全痛點,既兼顧核心數據安全需求,也貼合用戶的隱私保護訴求,讓不同主體都能找到安全使用的清晰路徑。
數字時代,網絡安全是發展的前提,更是底線。從人工智能到大模型,從智能體到產業數字化,新技術、新應用的不斷涌現,為經濟社會發展注入新動能,但安全隱患也隨之而來。工信部此次及時發布安全建議,正是以精準監管護航技術創新的生動實踐。這也啟示我們,推動AI產業高質量發展,需要形成政府監管、企業負責、用戶自律的協同防護體系,讓安全意識貫穿于技術研發、產品應用、生態構建的全過程。唯有守住安全底線,才能讓技術創新走得更穩更遠。