
最近,Nvidia(英偉達(dá))公司的首席安全官、Nutanix公司的前網(wǎng)絡(luò)安全高級總監(jiān)DavidReber在接受行業(yè)媒體的采訪時,分享了他對生成式人工智能和ChatGPT等工具將在2023年對網(wǎng)絡(luò)威脅格局產(chǎn)生影響的看法。
以下是行業(yè)媒體對DavidReber的采訪實(shí)錄:
為什么需要采用人工智能來阻止人工智能驅(qū)動的網(wǎng)絡(luò)威脅?
Reber:了解網(wǎng)絡(luò)攻擊者的局限性可以深入了解他們的下一步行動。網(wǎng)絡(luò)攻擊者面臨的限制之一是采用專有技術(shù)進(jìn)行大規(guī)模定制攻擊。
隨著生成式人工智能的技術(shù)進(jìn)步,網(wǎng)絡(luò)攻擊者可以輕松地進(jìn)行微調(diào)和針對性的攻擊。
網(wǎng)絡(luò)攻擊的速度和復(fù)雜性超過了人類的能力。這就是防御性人工智能發(fā)揮作用的地方。那么如何采用他們的工具來對付他們?這是一個永遠(yuǎn)存在的“貓捉老鼠”的游戲。
在使用防御性人工智能對抗進(jìn)攻性人工智能時,網(wǎng)絡(luò)安全團(tuán)隊會面臨哪些挑戰(zhàn)?
Reber:十年前,人工智能行業(yè)轉(zhuǎn)向了“假定違約”策略。我們認(rèn)識到,網(wǎng)絡(luò)攻擊者只需成功攻擊一次,而防御者必須每次都成功防御。
網(wǎng)絡(luò)攻擊者了解防御者的局限性:人力、監(jiān)管、競爭的優(yōu)先事項(xiàng)。隨著人們繼續(xù)面臨越來越多的商業(yè)網(wǎng)絡(luò)實(shí)踐監(jiān)管,正確使用網(wǎng)絡(luò)的需求變得更加迫切。
人工智能面臨的根本挑戰(zhàn)是信任。那么如何知道把人類的能力集中在其他地方是有效的呢?從根本上說,人們需要信任人工智能,然后將其實(shí)現(xiàn)自動化。
例如,我們乘坐自動駕駛汽車,但相信它能把我們送到目的地嗎?網(wǎng)絡(luò)攻擊者沒有規(guī)則和界限,也沒有法律監(jiān)督來防止出現(xiàn)這些問題。
首席信息安全官如何利用人工智能在某種程度上戰(zhàn)勝惡意人工智能的使用?
Reber:據(jù)估計,2022年全球擁有140億多臺物聯(lián)網(wǎng)設(shè)備。為了戰(zhàn)勝惡意人工智能,企業(yè)安全領(lǐng)導(dǎo)者需要確保業(yè)務(wù)安全,或者增加網(wǎng)絡(luò)攻擊的成本。雖然我們正處于生成式人工智能的形成階段,但可以采用傳統(tǒng)的拖延戰(zhàn)術(shù)。
首席信息安全官可以在網(wǎng)絡(luò)上創(chuàng)建一個更有趣的目標(biāo),并知道如何互動作為回報。其目標(biāo)是為網(wǎng)絡(luò)攻擊制造更多的噪音,并讓他們在價值較低的數(shù)據(jù)上浪費(fèi)更多的時間。例如將虛假數(shù)據(jù)偽裝成知識產(chǎn)權(quán),這是一場欺騙之戰(zhàn)。
對ChatGPT有什么看法嗎?
Reber:它將使網(wǎng)絡(luò)安全民主化。在此之前,網(wǎng)絡(luò)攻擊受到規(guī)模和技術(shù)的限制。ChatGPT具有消除這一限制因素的潛力。
這將孕育出新一代的網(wǎng)絡(luò)攻擊者,而他們的限制因素現(xiàn)在被移除了。但這也是防御者預(yù)測未來的機(jī)會,因此需要了解他們的攻擊面中尚未探索的角落。
關(guān)于這個話題還有什么補(bǔ)充的嗎?
Reber:市場上充斥著利基解決方案。每個人都在努力尋找適合自己的下一代計算技術(shù)。在當(dāng)前的經(jīng)濟(jì)形勢下,我們都需要找到少花錢多辦事的方法。這將導(dǎo)致更統(tǒng)一的技術(shù)堆棧和投資更少的解決方案和工具。
當(dāng)我們應(yīng)對網(wǎng)絡(luò)攻擊時,需要團(tuán)結(jié)起來,形成一個生態(tài)系統(tǒng)。傳輸信息交換的互操作性是我們領(lǐng)先網(wǎng)絡(luò)攻擊者的方式,因此需要共享技能和知識,使我們能夠戰(zhàn)勝對手。