近期,隨著開源AI智能體“OpenClaw”(因圖標為紅色龍蝦,被戲稱為“養龍蝦”)在網絡走紅,官方連續發布風險提示。
3月10日,國家互聯網應急中心發布關于OpenClaw安全應用的風險提示;此前,工信部也發文指出,“龍蝦(OpenClaw)”在默認或不當配置情況下,極易引發網絡攻擊、信息泄露等安全問題。
值得一提的是,相比于大眾市場的熱捧,金融機構的反饋顯得格外“冷靜”。
金融機構普遍未部署
“目前業務層面沒有測試過接入該智能體,總體還是謹慎的。”華北地區某城商行員工向記者表示:“有客戶問過,但公司目前沒有接入OpenClaw的業務,也不讓使用。”華北一券商從業者表示。
“部門辦公終端禁止部署這類開源智能體,個人的手機暫時不監管。”華南地區某股份行風控條線從業人員告訴記者,自己所在部門有同事在私有設備上安裝OpenClaw并試用,感覺存在一定安全風險,后續卸載。
從多家銀行與券商反饋來看,金融機構對OpenClaw等開源智能體普遍持觀望態度。
“OpenClaw需要調動的權限包括但不限于訪問本地文件系統、調用外部服務API、系統級與擴展權限,權限遠高于對話式AI,不管是機構還是普通人都應該保持謹慎。”一股份行金融科技部門技術人員說。
“核心原因是金融行業強監管、高風險的底線要求,OpenClaw的端到端自動執行現階段和金融合規要求嚴重不匹配。”博通咨詢金融業資深分析師王蓬博指出,金融領域本身的嚴肅性、安全性,強監管是不可突破的紅線,和其他領域有本質不同。
行業智能體應用差異化發展
事實上,在OpenClaw爆火前,銀行業已對智能體進行探索和應用,工商銀行、浦發銀行、微眾銀行等都曾傳出企業級的自研智能體動態,可運用于辦公、拓客、風控等多個金融場景。
麥肯錫發布的《2025全球銀行業年度報告》指出,未來,智能體將貫穿銀行整條工作鏈路:一個智能體執行任務并輸出結果;第二個智能體復核產出、識別漏洞并給出優化建議;第三個智能體將結果提交人類進行終審。
可以從報告看出,人機協同中,人的“審核”仍不可或缺:人類必須承擔最終決策、質量管控、異常處理以及風險與合規管理等核心職責。
這個趨勢也與業內目前的實踐路線較為吻合。
“我們觀察到的是,目前銀行、消金、支付等機構的智能化轉型,都是走輔助式路線,沒有盲目追求全流程自動化,布局比較務實,這既契合金融強監管的屬性,也貼合技術現狀和商業環境。”王蓬博表示。
他指出,目前不同金融機構智能化應用的環節各有側重,銀行主要用在風控審批、客戶營銷、貸后管理和智能客服;消金公司側重用AI優化風控模型,提升授信效率和貸后催收的精準度;支付機構則主要用在交易反欺詐、反洗錢,實現實時風險攔截和交易監測。
“這些環節要么是非核心的輔助環節,要么是AI能發揮基礎作用且風險可控的領域,既避開了之前提到的合規、安全風險,也避開了商業開放核心矛盾。”他表示,從金融行業視角看,開源智能體最核心的價值就是降本提效,能把金融機構里那些重復、繁瑣的流程自動化,比如客服應答、廣告類寫作、數據錄入、基礎合規排查,節省人力成本,提升工作效率。
探索需與合規、安全并行
智能技術為金融機構高效賦能的同時,也產生了技術隱憂。
近日,中國人民銀行四川省分行開出了一張行政處罰單,有銀行因違反金融科技管理規定,被警告并罰款超30萬。
蘇商銀行特約研究員薛洪言分析,對于開源智能體的應用,金融機構擔憂的維度集中在數據隱私、合規、研發成本等方面。
“數據隱私方面,金融數據的高敏感性與智能體海量采集需求存在矛盾,開源代碼漏洞易被利用;監管合規方面,智能體的不可解釋性與‘可追溯、可審計’要求沖突,第三方組件溯源困難;研發成本方面,本地化適配、安全加固及模型幻覺導致的糾錯成本,可能超出預期收益。”薛洪言表示。
可以預見的是,加速數智化轉型的銀行業,與智能體的深度協同將不斷推進。
以南京銀行為例,該行與外部供應商合作部署一站式智能體工作站HiAgent,并已落地20+高質量智能體,該行還開啟“大模型雙百計劃”,推動智能體在一線業務中充分賦能,并訓練一線員工成為智能體“重度玩家”。
王蓬博認為,開源AI智能體如果要進入金融核心場景,必須解決六個問題:
一是算法可解釋、可追溯,不能有黑箱,滿足金融強監管、高安全的要求。
二是明確權責邊界,界定好各方責任,契合金融行業的嚴肅性。
三是解決AI大模型自身的短板,減少常識性錯誤,提升深度智能化水平,確保指令執行準確。
四是數據合規,保障用戶敏感信息不泄露。
五是兼顧商業訴求,找到開源與機構核心利益的平衡點,讓機構有動力開放環境和API。
六是保留人工干預權限,避免不可逆的風險。
排版:劉珺宇
校對:廖勝超