360集團創始人周鴻禕指,近期開源AI智能體工具「龍蝦」爆紅,有人排隊安裝,甚至催生了上門代裝「龍蝦」的生意,不少人裝完後的第一反應都是驚嘆「太強」,但同時一些人開始焦慮,思考「龍蝦」會不會亂動電腦。
周鴻禕提到,OpenClaw不同於以往的AI工具,以前使用AI大多停留在聊天、寫文章或寫代碼的層面。而OpenClaw代表的是一種新形態,不僅能回答問題,還能直接操作電腦、執行任務,未來電腦裡中「龍蝦」可能不止一個,而是一群,有的負責寫代碼,有的負責查資料,有的整理郵件,還有的管理任務。用戶可以把這些智能體的能力自由組合,養出一只「專屬龍蝦」,即代表日後每個人的電腦中,很可能都會有一群AI在工作。
周鴻禕指,他也有「養龍蝦」,而從目前的觀察來看,OpenClaw還有三個問題沒有完全解決,分別是安全、使用門檻高、結果穩定性不夠,而當中最重要的就是安全問題。他認為,很多人忽略了OpenClaw的核心能力不是聊天,而是執行。在網絡安全的語境中,有一個特別敏感的詞叫「終端權限」,即代表誰能操作電腦,黑客攻擊電腦最關鍵的一步就是拿到終端權限。不過現在很多人主動把權限交給了AI,給它瀏覽器權限,甚至配置郵箱API密鑰或服務器權限。
根據360數據,最近一個月全球已發現近15萬個OpenClaw相關資產,其中超過40%集中在中國。工信部也專門發文提醒,OpenClaw在默認或不當配置下,存在較高的安全風險,可能導致網絡攻擊和信息泄露。很多人以為模型本身沒有權限就安全,但真正危險的是它背後接入的那些工具,即郵箱、瀏覽器、代碼倉庫、shell命令等,一旦模型被誘導執行操作,或系統配置不當,風險就可能被放大。
他提醒,如果安全機制跟不上,錯誤的代價可能是真實發生的數據洩露、文件刪除,甚至系統失控,並指未來的攻擊方,可能不是黑客個人,而是黑客智能體,所以主張一個「以模制模,用AI對抗AI」,把安全能力做成系統的原生能力,當攻擊自動化,防守也必須自動化,只有讓智能體的行為可審、可管、可控,AI才能真正安全落地。