大型語言模型的進步
AIGC如今越來越受歡迎,它使人們能夠以前所未有的方式創造、互動和消費內容。隨著大型語言模型(例如GPT)的顯著進步,AIGC系統現在擁有生成類似人類的文本、圖像甚至代碼的能力。集成了這些技術的開源項目的數量正在呈指數級增長。
例如,自從OpenAI公司七個月前首次推出ChatGPT以來,GitHub上現在有30000多個開源項目使用GPT-3.5系列的LLM。
盡管用戶對這些技術的需求激增,但GPT和LLM項目給使用它們的用戶帶來了各種安全風險,其中包括信任邊界風險、數據管理風險、固有模型風險以及一般安全問題。
AIGC安全風險
早期采用AIGC或任何新生技術(特別是LLM),需要在整個軟件開發生命周期中進行全面的風險評估并遵守穩健的安全實踐。通過對安全風險給予應有的關注,企業可以就是否以及如何采用AIGC解決方案做出明智的決定,同時堅持最高標準的審查和保護。
Rezilion公司漏洞研究總監Yotam Perkal表示:“AIGC的應用越來越普遍,但它還不成熟,而且極易存在風險。除了固有的安全問題之外,個人和企業在沒有適當安全護欄的情況下為這些AI模型提供了過度的訪問和授權。通過我們進行的研究,旨在傳達使用不安全的AIGC和LLM的開源項目也具有較差的安全態勢。這些因素導致企業面臨重大風險。”
從安全教育到安全意識
Rezilion公司的研究團隊調查了GitHub上50個最受歡迎的AIGC項目的安全狀況。該研究利用開源安全基金會記分卡客觀地評估了LLM開源生態系統,并強調了許多基于LLM的項目缺乏成熟度、基本安全最佳實踐的差距以及潛在的安全風險。
這一調查結果突出了人們的擔憂,揭示了得分較低的非常新的和受歡迎的項目:
- 非常受歡迎,平均有15909顆星。
- 極度不成熟,平均時間為3.77個月。
- 安全狀況非常差,平均得分為4.60分(滿分為10分),以任何標準衡量都很低。例如,GitHub上最受歡迎的基于GPT的項目Auto-GPT,擁有超過13.8萬顆星,不到三個月的時間,記分卡得分為3.7。
對于AIGC系統的安全部署和操作,Rezilion公司建議采用以下最佳實踐和指南:教育團隊了解采用任何新技術相關的風險;評估和監控與LLM和開源生態系統相關的安全風險;實施穩健的安全實踐,進行徹底的風險評估,并培養安全意識的企業文化。
雖然在采用AIGC模型及其生態系統方面存在重大的安全挑戰,但AI技術具有強大的功能和能力,并且將會繼續發展下去。