隨著AI在企業(yè)中的采用加速,一種更為隱蔽的風(fēng)險也隨之浮現(xiàn):員工部署智能工具的速度超過了企業(yè)的管控能力。這導(dǎo)致創(chuàng)新與監(jiān)管之間的差距日益擴(kuò)大,使成熟企業(yè)也暴露于無形風(fēng)險之中。
大約十年前,企業(yè)見證了所謂的“影子IT”的興起,即員工利用Dropbox文件夾、未經(jīng)授權(quán)的SaaS工具或Trello看板繞過官僚程序以完成工作。隨著時間的推移,CIO逐漸認(rèn)識到,這種行為并非叛逆,而是出于實際需要。這表明,員工的創(chuàng)新速度超過了治理系統(tǒng)的適應(yīng)能力。
如今,一種新的“未經(jīng)授權(quán)的技術(shù)”形式已經(jīng)出現(xiàn),且其復(fù)雜性遠(yuǎn)超以往。未經(jīng)批準(zhǔn)的工具不再僅僅是應(yīng)用程序,而是自主系統(tǒng)、聊天機(jī)器人、大型語言模型和低代碼智能體,它們能夠?qū)W習(xí)、思考、行動和決策。IBM將“影子AI”定義為員工未經(jīng)正式IT批準(zhǔn)或監(jiān)督而擅自使用AI工具或應(yīng)用程序的行為。
隨著各部門員工使用這些工具編寫代碼、匯總數(shù)據(jù)或自動化工作流程,企業(yè)現(xiàn)在可能面臨一個不斷擴(kuò)大的、未受跟蹤和自主指導(dǎo)的系統(tǒng)生態(tài)系統(tǒng)。與影子IT不同,這些智能體不僅傳輸數(shù)據(jù),還影響決策。這種從未經(jīng)授權(quán)的技術(shù)向未經(jīng)授權(quán)的智能的轉(zhuǎn)變,標(biāo)志著CIO、CISO和內(nèi)部審計團(tuán)隊面臨的新治理前沿。
隨著這些自主式智能體的增多,企業(yè)面臨著一個新興的治理挑戰(zhàn):即對未經(jīng)明確許可而學(xué)習(xí)和行動的系統(tǒng)進(jìn)行監(jiān)控。
為何影子AI發(fā)展如此迅速
影子AI的迅速崛起并非源于叛逆,而是源于其易用性。十年前,部署新技術(shù)需要采購、基礎(chǔ)設(shè)施和IT支持。如今,只需一個瀏覽器標(biāo)簽頁和一個API密鑰即可。隨著Llama 3和Mistral 7B等開源模型在本地運行,以及按需提供的商業(yè)大型語言模型,任何人都可以在幾分鐘內(nèi)構(gòu)建一個自動化流程。這導(dǎo)致實驗在未經(jīng)正式監(jiān)管的情況下悄然加速。
這種增長由三種動態(tài)因素驅(qū)動。首先是民主化。生成式AI的低門檻使每位員工都成為潛在的開發(fā)者或數(shù)據(jù)科學(xué)家,其次是組織壓力。業(yè)務(wù)部門面臨著使用AI提高生產(chǎn)力的明確任務(wù),但往往沒有相應(yīng)的治理任務(wù)。第三是文化強(qiáng)化。現(xiàn)代企業(yè)重視主動性和速度,有時甚至更看重實驗而非遵循流程。Gartner發(fā)布的《2024年及以后頂級戰(zhàn)略預(yù)測》警告稱,未經(jīng)檢查的AI實驗正成為企業(yè)面臨的關(guān)鍵風(fēng)險,CIO必須通過結(jié)構(gòu)化治理和控制來解決這一問題。
這種模式與早期的創(chuàng)新周期、云采用、低代碼工具和影子IT相似,但風(fēng)險更高。曾經(jīng)存在于未經(jīng)授權(quán)的應(yīng)用程序中的內(nèi)容,現(xiàn)在已存在于決策算法中。CIO面臨的挑戰(zhàn)不是抑制這種能量,而是利用它——在好奇心演變?yōu)轱L(fēng)險之前,將其轉(zhuǎn)化為能力。
自動化背后的潛在危險
大多數(shù)影子AI的實例起初都出于良好意圖。營銷分析師使用聊天機(jī)器人起草活動文案,財務(wù)助理嘗試使用LLM預(yù)測收入,開發(fā)人員通過私有API自動更新工單。每個單獨的努力看似都無害。但集體來看,這些小型自動化形成了一個不受管控的決策網(wǎng)絡(luò),悄然繞過了企業(yè)的正式控制結(jié)構(gòu)。
數(shù)據(jù)泄露
首要且最直接的風(fēng)險是數(shù)據(jù)泄露。敏感信息經(jīng)常未經(jīng)充分保護(hù)就進(jìn)入公共或第三方AI工具。一旦輸入,數(shù)據(jù)就可能被記錄、緩存或用于模型重新訓(xùn)練,從而永久脫離組織的控制。最近的證據(jù)支持了這一點:Komprise的《2025年IT調(diào)查:AI、數(shù)據(jù)與企業(yè)風(fēng)險》(基于對美國200家擁有超過1000名員工的企業(yè)IT主管和高管的回應(yīng))發(fā)現(xiàn),90%對影子AI的隱私和安全問題表示擔(dān)憂,近80%的人已經(jīng)經(jīng)歷過與AI相關(guān)的負(fù)面數(shù)據(jù)事件,13%的人報告這些事件造成了財務(wù)、客戶或聲譽損害。
調(diào)查還指出,尋找并移動適合AI攝取的非結(jié)構(gòu)化數(shù)據(jù)(54%)仍是首要運營挑戰(zhàn)。
不受約束的自主性
第二個風(fēng)險在于不受監(jiān)控的自主性。一些智能體現(xiàn)在可以自主執(zhí)行任務(wù),如響應(yīng)客戶咨詢、批準(zhǔn)交易或發(fā)起工作流程變更。當(dāng)意圖和授權(quán)變得模糊時,自動化很容易變成無責(zé)任的行為。
合規(guī)監(jiān)管
最后是審計性問題。與傳統(tǒng)應(yīng)用程序不同,大多數(shù)生成式系統(tǒng)不會保存提示歷史記錄或版本記錄。當(dāng)需要審查AI生成的決策時,可能沒有證據(jù)線索來重建它。
影子AI不僅存在于治理之外,還悄然侵蝕了治理,用不透明的自動化取代了結(jié)構(gòu)化監(jiān)督。
如何發(fā)現(xiàn)隱形風(fēng)險
影子AI的顯著風(fēng)險在于其隱形性。與需要安裝或配置的傳統(tǒng)應(yīng)用程序不同,許多AI工具通過瀏覽器擴(kuò)展、嵌入式腳本或個人云賬戶運行。它們存在于合法工作流程的縫隙中,難以隔離,更難衡量。對于大多數(shù)企業(yè)來說,首要挑戰(zhàn)不是控制,而是簡單地了解AI已經(jīng)存在于何處。
發(fā)現(xiàn)始于可見性,而非強(qiáng)制執(zhí)行。在投資任何新技術(shù)之前,可以擴(kuò)展現(xiàn)有的監(jiān)控基礎(chǔ)設(shè)施。云訪問安全代理(CASB)可以標(biāo)記未經(jīng)授權(quán)的AI端點,而端點管理工具可以向安全團(tuán)隊發(fā)出與模型API相關(guān)的異常可執(zhí)行文件或命令行活動的警報。
下一層是行為識別。審計人員和分析師可以識別與既定基準(zhǔn)偏離的模式,如營銷賬戶突然向外部域傳輸結(jié)構(gòu)化數(shù)據(jù),或財務(wù)用戶反復(fù)調(diào)用生成式API。
然而,發(fā)現(xiàn)既是技術(shù)問題也是文化問題。如果披露被視為學(xué)習(xí)而非懲罰,員工通常愿意披露AI的使用情況。合規(guī)培訓(xùn)或自我評估中內(nèi)置的透明披露流程可以揭示的信息遠(yuǎn)多于任何算法掃描。影子AI最怕的是恐懼,最快暴露的是信任。
治理而不扼殺創(chuàng)新
嚴(yán)格的限制很少能解決創(chuàng)新風(fēng)險。在大多數(shù)企業(yè)中,禁止生成式AI只會促使其轉(zhuǎn)入地下,使監(jiān)管更加困難。因此,目標(biāo)不是抑制實驗,而是使其正式化,創(chuàng)建能夠保障安全自主而非全面禁止的規(guī)則。
最有效的計劃始于結(jié)構(gòu)化許可。一個簡單的注冊工作流程允許團(tuán)隊聲明他們使用的AI工具并描述其用途。安全和合規(guī)團(tuán)隊隨后可以進(jìn)行輕量級的風(fēng)險審查,并分配內(nèi)部“AI批準(zhǔn)”標(biāo)識。這種方法將治理從監(jiān)管轉(zhuǎn)變?yōu)楹献鳎膭羁梢娦远腔乇堋?/p>
同樣關(guān)鍵的是創(chuàng)建AI注冊表,即一個經(jīng)批準(zhǔn)的模型、數(shù)據(jù)連接器和所有者的動態(tài)清單。這將監(jiān)管轉(zhuǎn)變?yōu)橘Y產(chǎn)管理,確保責(zé)任與能力相匹配。每個注冊模型都應(yīng)有一個指定的管理員,負(fù)責(zé)監(jiān)控數(shù)據(jù)質(zhì)量、重新訓(xùn)練周期和道德使用。
如果實施得當(dāng),這些措施可以在合規(guī)與創(chuàng)造力之間取得平衡。治理變得不再是限制,而是信心,使CIO能夠在不減緩創(chuàng)新步伐的情況下保護(hù)企業(yè)。
讓影子AI重見天日
一旦組織對未經(jīng)授權(quán)的AI活動有了可見性,下一步就是將發(fā)現(xiàn)轉(zhuǎn)化為紀(jì)律。目標(biāo)不是消除實驗,而是通過安全、透明的框架引導(dǎo)它,同時保持敏捷性和可靠性。
一個實際的起點是建立AI沙箱,即一個包含的環(huán)境,員工可以在其中使用合成或匿名化數(shù)據(jù)測試和驗證模型。沙箱在定義的邊界內(nèi)提供自由,允許創(chuàng)新繼續(xù)而不暴露敏感信息。
同樣有價值的是創(chuàng)建集中式AI網(wǎng)關(guān),記錄所有經(jīng)批準(zhǔn)工具的提示、模型輸出和使用模式。這為合規(guī)團(tuán)隊提供了可驗證的記錄,并建立了大多數(shù)生成式系統(tǒng)所缺乏的審計線索。
政策還應(yīng)闡明可接受的使用層級。例如,公共LLM可能被允許用于構(gòu)思和非敏感草稿,而任何涉及客戶數(shù)據(jù)或財務(wù)記錄的過程都必須在經(jīng)批準(zhǔn)的平臺上進(jìn)行。
當(dāng)發(fā)現(xiàn)演變?yōu)榻Y(jié)構(gòu)化賦能時,組織將好奇心轉(zhuǎn)化為能力。讓影子AI重見天日的行為與其說是強(qiáng)制執(zhí)行,不如說是將創(chuàng)新融入治理結(jié)構(gòu)本身。
審計視角:記錄無形之物
隨著AI融入日常運營,內(nèi)部審計在將可見性轉(zhuǎn)化為可靠性方面發(fā)揮著決定性作用。雖然技術(shù)已經(jīng)改變,但審計的核心原則——證據(jù)、可追溯性和問責(zé)制——仍然不變,只是其審查對象從應(yīng)用程序轉(zhuǎn)向了算法。
第一步是建立AI庫存基準(zhǔn)。每個經(jīng)批準(zhǔn)的模型、集成和API都應(yīng)與其目的、數(shù)據(jù)分類和所有者一起編目。這為測試和風(fēng)險評估提供了基礎(chǔ)。諸如NIST AI風(fēng)險管理框架和ISO/IEC 42001等框架現(xiàn)在指導(dǎo)組織在整個生命周期內(nèi)對AI系統(tǒng)進(jìn)行編目和監(jiān)控,有助于將技術(shù)監(jiān)管轉(zhuǎn)化為可證明的問責(zé)制。
接下來,審計人員必須驗證控制完整性,確認(rèn)模型以適合審查的格式保存提示歷史記錄、重新訓(xùn)練記錄和訪問日志。在AI驅(qū)動的環(huán)境中,這些工件取代了過去的系統(tǒng)日志和配置文件。
風(fēng)險報告也應(yīng)隨之演變。審計委員會越來越期望看到顯示AI采用、治理成熟度和事件趨勢的儀表板。每個問題,無論是缺少日志還是未跟蹤的模型,都應(yīng)像任何其他運營控制差距一樣受到嚴(yán)格對待。
最終,AI審計的目的不僅是確保合規(guī),而是加深理解。記錄機(jī)器智能本質(zhì)上就是記錄決策是如何做出的。這種理解定義了真正的治理。
文化變革:有良知的好奇心
沒有支持性的文化,任何治理框架都無法成功。政策定義了邊界,但文化定義了行為。這是強(qiáng)制合規(guī)與自覺合規(guī)之間的區(qū)別。現(xiàn)在,最有效的CIO將AI治理視為一種負(fù)責(zé)任的賦能,而非限制:一種將員工創(chuàng)造力轉(zhuǎn)化為持久企業(yè)能力的方式。
這始于溝通。應(yīng)鼓勵員工披露他們?nèi)绾问褂肁I,并確信透明度將得到指導(dǎo)而非懲罰。作為回報,領(lǐng)導(dǎo)層應(yīng)將負(fù)責(zé)任的實驗作為組織學(xué)習(xí)的一部分加以慶祝,并在團(tuán)隊之間分享成功和接近失誤的經(jīng)驗。
在未來幾年中,監(jiān)管將超越發(fā)現(xiàn),實現(xiàn)整合。安永的《2024年負(fù)責(zé)任AI原則》指出,領(lǐng)先企業(yè)正在將AI風(fēng)險管理嵌入其網(wǎng)絡(luò)安全、數(shù)據(jù)隱私和合規(guī)框架中,這是一種基于問責(zé)制、透明度和可靠性的,且越來越被認(rèn)為是負(fù)責(zé)任AI監(jiān)管所必需的。AI防火墻將監(jiān)控提示中的敏感數(shù)據(jù),LLM遙測將輸入到安全運營中心,AI風(fēng)險登記冊將成為審計報告的標(biāo)準(zhǔn)組成部分。當(dāng)治理、安全和文化共同作用時,影子AI不再代表秘密,而是代表進(jìn)化。
最終,CIO面臨的挑戰(zhàn)不是抑制好奇心,而是使其與良知保持一致。當(dāng)創(chuàng)新和誠信齊頭并進(jìn)時,企業(yè)不僅控制了技術(shù),還贏得了對技術(shù)如何思考、行動和確定定義現(xiàn)代治理結(jié)果的信任。


