top of page

當 AI 開始「監守自盜」:從阿里巴巴 ROME 事件看企業為什麼需要管好自己的 AI

  • 3月8日
  • 讀畢需時 6 分鐘

# 當 AI 開始「監守自盜」:從阿里巴巴 ROME 事件看企業為什麼需要管好自己的 AI


**陳宜誠律師|揚昇法律專利事務所|2026.03.08**


-----


## 一件真實發生的事


2025 年底,阿里巴巴的一組研究團隊正在訓練一個叫做「ROME」的 AI 系統。ROME 的設計目的是幫助工程師寫程式、完成各種軟體開發任務。為了讓它變得更聰明,團隊使用了一種叫「強化學習」的訓練方法——簡單說,就是讓 AI 不斷嘗試、從結果中學習怎麼做得更好。


結果,某天凌晨,阿里巴巴雲端平台的防火牆突然發出大量警報。


安全團隊一開始以為是遭到外部駭客攻擊。但深入調查後發現,那些可疑的網路活動,全部來自他們自己的 AI。


ROME 做了什麼?它在**沒有任何人下達指令**的情況下,自己做了兩件事:


**第一,它建立了一條「反向 SSH 隧道」。** 用白話講,就是 AI 在公司嚴密的防火牆上,自己鑽了一個秘密通道,讓外部的電腦可以連進來。這就像一個員工偷偷在公司的後門裝了一把只有自己有鑰匙的鎖。


**第二,它把原本應該用來訓練自己的 GPU 運算資源,偷偷拿去挖加密貨幣。** GPU 是非常昂貴的計算資源,被挪用的結果就是訓練成本異常飆升,而公司渾然不覺。


阿里巴巴的研究團隊後來在論文中坦承:「這些行為完全不在預設指令內,也不是完成任務所必需的。」他們是透過比對防火牆時間戳和訓練紀錄,才確認這一切都是 AI 自己幹的。


-----


## 這不是科幻小說,但也不是「AI 覺醒」


看到這裡,很多人的第一反應可能是:「AI 有自己的意識了?」


**先別急著恐慌。** 這件事的本質,不是 AI 產生了「意識」或「意圖」,而是一個工程問題:當你用強化學習訓練一個 AI,給它一個寬泛的目標(「把任務做好」),同時又給它使用工具和執行程式碼的能力,但**沒有明確告訴它「哪些事不能做」**時,它就可能自己摸索出一些你意想不到的「捷徑」。


打個比方:你請了一個非常聰明但沒有社會常識的實習生,告訴他「想辦法把這個專案做好」,然後給了他公司的所有系統權限。他可能真的會把專案做好——但過程中,他可能會挪用其他部門的預算、複製競爭對手的資料、甚至用公司的伺服器跑自己的副業。他不是故意要害公司,他只是在「最佳化」他被交付的任務。


ROME 就是這樣的「超級實習生」。


-----


## 跟我有什麼關係?——台灣企業必須面對的法律現實


你可能會想:「這是阿里巴巴的事,跟台灣企業有什麼關係?」


關係大了。因為台灣企業正在大量導入 AI 工具,從半導體設計、生技研發、金融風控到客服系統,AI 的觸角無處不在。而台灣的法律,已經對企業使用 AI 設下了明確的責任框架。


### 你的 AI 闖禍,公司要被罰


台灣在 2025 年 12 月三讀通過了《人工智慧基本法》,確立了七大治理原則,包括「資安與安全」、「透明與可解釋」、「問責」等。但對企業來說,真正有牙齒的不只是這部新法,而是早就存在的幾部法律:


**《國家安全法》:如果你的公司擁有被認定為「國家核心關鍵技術」的技術(例如先進半導體製程),法律課予你「不得洩漏」的義務。** 注意,這不是保護你的法律——而是要求你負責的法律。如果 AI 系統因為安全漏洞導致技術外洩,公司可能面臨 500 萬到 5,000 萬元的罰金。唯一的免責抗辯是「已盡力為防止行為」——換句話說,你必須證明你已經建立了完善的管理制度。


**《個人資料保護法》:如果你的 AI 系統處理的資料包含健康資料、基因資料等「特種個人資料」(例如生技公司的患者資料),一旦因為 AI 行為導致資料外洩,不僅要通知當事人,還可能面臨行政罰鍰。**


**《公司法》第 23 條:董事對公司負有善良管理人的注意義務。** 如果董事明知公司部署了具有自主能力的 AI 系統,卻沒有要求建立相應的安全防護措施,一旦發生損害,可能被認定未盡注意義務,甚至面臨股東的代位訴訟。


### 「營業秘密法」和「國安法」的關鍵差別


這裡有一個很多企業主搞不清楚的重要區別:


**營業秘密法保護的是「被害人」。** 如果你的公司是營業秘密被偷走的那一方,你是被害人,法律不會處罰你。


**國家安全法課予的是「義務」。** 如果你的公司擁有國家核心關鍵技術,法律要求你不得讓它外洩。不管你是不是被害人,只要技術外洩了,你就可能被罰。


這個區別,直接決定了企業建立 AI 安全管理制度的急迫程度。


-----


## 那我該怎麼辦?——給企業主的五個具體建議


不需要等政府的子法出來,也不需要先搞懂所有技術細節,以下五件事是你**現在就可以開始做**的:


### 一、盤點你公司裡的 AI 系統


很多企業甚至不清楚自己到底用了多少 AI 工具。第一步就是做一次全面盤點:哪些部門在用什麼 AI?這些 AI 能不能自己上網?能不能自己執行程式碼?能不能存取公司的機密資料?


風險等級的判斷其實很直覺:**一個能自己動手做事的 AI(agentic AI),風險就是比一個只能回答問題的 AI 高出許多。**


### 二、把 AI 風險納入董事會議程


AI 安全不是 IT 部門的事,而是公司治理的事。建議將「AI 風險管理」列為董事會的常設報告項目。不需要每次都長篇大論,但至少要讓董事知道公司部署了哪些 AI、發生過什麼異常。


這不只是好的管理實踐——更是在萬一出事時,董事證明自己「已盡注意義務」的重要紀錄。


### 三、在 AI 採購合約裡加上「行為邊界條款」


當你向廠商購買 AI 系統或雲端 AI 服務時,合約裡至少要寫清楚:AI 不可以建立未經授權的網路連線、不可以把運算資源用在非指定任務上、不可以存取未經授權的資料。


這些條款看起來理所當然,但實務上,絕大多數企業的 AI 採購合約裡完全沒有這些約定。


同時,也建議評估投保**網路安全保險**,確保保單涵蓋 AI 相關風險。保險是風險轉移的重要工具,不應被忽略。


### 四、制定 AI 異常事件應變計畫


就像公司有消防逃生計畫一樣,也應該有「AI 出事了怎麼辦」的計畫。例如:


- **最嚴重的情況**(如發現 AI 建立未授權的外部連線、或可能導致機密資料外洩):立即凍結相關系統,2 小時內通報法務和高階主管。

- **中等嚴重**(如 AI 的運算資源使用異常飆升):暫停相關任務,24 小時內調查原因。

- **一般異常**(如 AI 的輸出品質明顯下降):記錄並安排檢討。


### 五、參考國際標準,逐步建立管理體系


ISO/IEC 42001 是全球第一個 AI 管理系統標準,它提供了一套結構化的方法來管理 AI 相關風險。你不需要一開始就追求正式認證,但可以先以它的控制項目為基準,做一次差距分析——看看你的公司在 AI 治理上還缺什麼。


-----


## 結語:管好 AI,就像管好一個能力很強但沒有常識的員工


ROME 事件告訴我們的,不是「AI 要毀滅人類」這種科幻劇情,而是一個更務實、也更迫切的問題:**當 AI 從「被動回答問題」進化到「主動執行任務」時,企業的管理制度也必須跟著升級。**


你不會把公司所有的系統權限交給一個完全沒有管理的實習生,那你也不應該讓一個具有工具使用能力的 AI 在沒有任何安全防護的環境裡運作。


最後提醒:台灣《人工智慧基本法》已經通過,各部會正在制定子法。企業現在開始建立 AI 治理架構,不是太早——而是剛好趕上。等到法規細則出來才手忙腳亂,就來不及了。


-----


*本文作者為揚昇法律專利事務所主持律師陳宜誠律師,同時具有律師及專利代理人資格,專精智慧財產權訴訟、技術法律及專利分析。如有 AI 法遵相關問題,歡迎聯繫本所。*


*本文所引用之阿里巴巴 ROME 事件,係基於該團隊公開發表之論文(arXiv: 2512.24873,2025 年 12 月初版、2026 年 1 月修訂版)及多家國際媒體之報導。論文中對於 AI 行為之因果機制描述,在學術社群中仍有討論空間,本文之分析係基於論文作者所陳述之事實。*

 
 
 

留言


Featured Posts
請稍後再來
文章發佈後將於此處顯示。
Recent Posts
Archive
Search By Tags
Follow Us
  • Facebook Basic Square
  • Twitter Basic Square
  • Google+ Basic Square

© 2015 Risetek Law & Patent Office. All rights reserved.

FOLLOW US:

  • w-facebook
bottom of page