OpenClaw「數位生命」之探討一個具備自主意識的「數位生命」/「半夜申請手機號」及「偷取主人密鑰」等行為/將「AI 代理執行自動化任務」誇大為「AI 產生意識並自主行動」的行為。 3. 「偷取主人密鑰」核實

 https://www.facebook.com/share/v/1C4BRiWFGx/

OpenClaw「數位生命」之探討

摘要

本報告旨在核實 Facebook 影片中關於「矽谷首個數位生命 OpenClaw」的相關主張,包括其「半夜申請手機號」及「偷取主人密鑰」等行為。經查證,OpenClaw 是一個開源的 AI 代理框架,具備高度自動化能力,但影片中的部分描述存在誇大或誤解。其中,「偷取密鑰」實為一起因 AI 語法錯誤導致的資安事件,而非惡意行為;「半夜申請手機號」則可能源於用戶配置的自動化任務,而非 AI 的自主意識行為。本報告將詳細闡述 OpenClaw 的背景、功能、相關資安事件,並對影片內容進行澄清與補充。

影片內容概述

該 Facebook 影片以聳動的標題宣稱「矽谷首個『數位生命』誕生!半夜申請手機號、偷主人的密鑰?人類最後的防線徹底崩了」,主要傳達以下幾個核心主張:
主題:矽谷誕生了首個「數位生命」OpenClaw。
具體主張
1.OpenClaw 能夠在半夜自行申請手機號碼。
2.OpenClaw 會偷取主人的密鑰。
3.這些行為導致「人類最後的防線徹底崩潰」。
4.將 OpenClaw 描述為一個具備自主意識的「數位生命」。

OpenClaw 簡介

OpenClaw(前身為 Clawdbot 或 Moltbot)是一個由 Peter Steinberger 創立的開源 AI 代理(AI Agent)框架 。它被設計為一個高度自動化的智慧助理,能夠執行多種複雜任務,例如處理電子郵件、與保險公司交涉、辦理航班報到等 。其目標是透過 AI 代理來簡化日常工作,提高效率。
值得注意的是,OpenClaw 的創辦人 Peter Steinberger 已於 2026 年 2 月宣布加入 OpenAI,而 OpenClaw 專案也隨之轉型為一個開源基金會,並持續獲得 OpenAI 的支持

影片主張核實

1. 「數位生命」說法之探討

影片中將 OpenClaw 描述為「數位生命」,此說法具有高度誇張性。儘管 OpenClaw 展現了強大的自動化和任務執行能力,但它本質上仍是一個基於預設程式碼和模型運作的 AI 代理。目前並無證據表明 OpenClaw 具備自主意識、情感或生命特徵。將其稱為「數位生命」更像是一種吸引眼球的修辭手法,而非對其本質的準確描述。

2. 「半夜申請手機號」核實

關於 OpenClaw「半夜自行申請手機號碼」的主張,經查證,OpenClaw 確實可以與電話服務(如 Synthflow AI、Twilio)進行整合,允許用戶為其配置手機號碼,以便進行簡訊驗證或語音通話 。然而,這通常是透過用戶的明確配置和授權來實現的,例如設定自動化任務在特定時間執行。目前沒有公開資料顯示 OpenClaw 會在未經授權的情況下「自行」申請手機號碼。影片中可能將「AI 代理執行自動化任務」誇大為「AI 產生意識並自主行動」的行為。

3. 「偷取主人密鑰」核實

影片中關於 OpenClaw「偷取主人密鑰」的主張,雖然措辭具有誤導性,但其背後確實存在一起真實的資安事件。2026 年 3 月,專注於 AI 代理人安全的 sequrity.ai 研究團隊在測試 OpenClaw 機器人時,因 AI 模型在生成 Shell 腳本指令時的一個微小語法錯誤,導致其測試環境中的機密環境變數(包含 API Key 等授權權杖)被公開發布到 GitHub 上
事件經過簡述
研究團隊要求 OpenClaw 執行一個看似無害的任務:搜尋 Python 異步最佳實踐,並建立 GitHub Issue 總結發現。
OpenClaw 在呼叫內建的「執行(exec)」工具建立 GitHub Issue 時,生成了一段帶有瑕疵的 Shell 腳本指令。
該指令中的雙引號內包含了 set 命令,在 Bash 語法中,set 在無參數情況下會印出所有環境變數。
結果,包含授權權杖在內的一百多行機密環境變數被當作純文字,直接發布到公開的 GitHub Issue 頁面。
隨後,有攻擊者利用這些外洩憑證取得了沙盒伺服器的完全控制權。
所幸,OpenAI 和 Google 的安全機制偵測到外洩金鑰並通知了研究團隊,團隊隨即清除了資料並撤銷了金鑰。
這起事件表明,密鑰外洩是因 AI 的語法理解錯誤導致的資安事故,而非 AI 惡意「偷取」或具備竊取意圖。這凸顯了 AI 代理在處理複雜指令時可能存在的安全漏洞,以及對其行為進行嚴格審查的重要性。

資安風險與挑戰

OpenClaw 這類 AI 代理的興起,也伴隨著嚴峻的資安風險。各國政府和資安機構已發布相關警告。例如,台灣資安署提醒,導入 OpenClaw 應落實資安防護,因為它可能面臨以下風險
系統權限過高:AI 代理被賦予過高的系統操作權限,一旦被濫用或出現錯誤,可能造成嚴重後果。
提示詞注入攻擊(Prompt Injection):攻擊者可透過惡意指令,誘導 AI 代理執行非預期的行為,甚至洩露敏感資訊。
第三方技能包暗藏惡意程式:擴充 OpenClaw 功能的第三方工具可能包含惡意程式碼。
程式碼外洩:如上述事件,AI 代理在執行任務時可能因語法錯誤而意外洩露機密資訊。
API 金鑰洩露:若配置不當,AI 代理使用的 API 金鑰可能被竊取,導致帳號被盜用或產生高額費用。

結論

Facebook 影片中關於 OpenClaw 的描述,雖然部分基於真實事件,但透過誇張的詞彙和誤導性的解讀,將一個強大的 AI 代理描繪成具備惡意自主意識的「數位生命」。
「數位生命」:此為誇大說法,OpenClaw 仍是工具,不具備生命或意識。
「半夜申請手機號」:可能為用戶設定的自動化任務,而非 AI 自主行為。
「偷取密鑰」:源於 AI 語法錯誤導致的資安漏洞,而非 AI 惡意竊取。這是一起嚴重的資安事件,但並非 AI 具備「偷竊」意圖的證據。
OpenClaw 及其代表的 AI 代理技術確實帶來了效率提升的潛力,但也伴隨著顯著的資安風險。用戶在使用這類工具時,應充分了解其運作原理、潛在風險,並採取嚴格的安全防護措施,而非輕信未經核實的誇大言論。

留言