安全動態(tài)

15位大咖預測:2024年AI將改變網絡安全游戲規(guī)則

來源:聚銘網絡    發(fā)布時間:2024-01-02    瀏覽次數:
 
AI是否會導致網絡安全人員大規(guī)模失業(yè)?生成式AI帶來哪些新的威脅和挑戰(zhàn)?網絡安全能否“用魔法打敗魔法”,從AI技術中受益?

隨著AI技術的突破性發(fā)展,攻擊者正在加速AI的武器化,結合社會工程技術讓企業(yè)防不勝防;與此同時,在防御側,AI也是CISO贏得人工智能軍備競賽的關鍵武器。

2024年,AI將如何改變網絡安全的游戲規(guī)則?近日,科技媒體VentureBeat采訪了13家公司的15位網絡安全領導者,匯總了他們對2024年的預測。受訪者普遍認為,2024年CISO的首要目標是建立安全人員與AI和合作關系。AI需要人類的洞察力才能充分發(fā)揮其抵御網絡攻擊的潛力,以下為安全大咖們的主要預測觀點:

人工智能帶來檢測能力的提升和挑戰(zhàn)

——Ericom網絡安全部門Peter Silva

人工智能的模式識別能力可用于提升檢測能力(例如新的攻擊模式或CVE漏洞,包括攻擊嘗試,甚至預測某個L3DDoS攻擊是在掩護被疏忽的撞庫攻擊)。但同時人工智能也會讓檢測變得更加困難,例如探測器無法區(qū)分人類網絡釣魚攻擊和人工智能生成的網絡釣魚攻擊,這將促進檢測技術的不斷發(fā)展。

影子AI和大模型部署帶來新的數據安全風險

——CrowdStrike首席技術官Elia Zaitsev

CrowdStrike預計,到2024年攻擊者將把注意力轉移到人工智能系統(tǒng)上,將其作為最新的威脅媒介,通過批準的人工智能部署中的漏洞以及員工未經批準使用人工智能工具(影子AI)的盲點來攻擊目標組織。

安全團隊對人工智能威脅模型的了解以及監(jiān)控員工影子AI仍處于早期階段,這些盲點和新技術為渴望滲透企業(yè)網絡或訪問敏感數據的威脅行為者打開了大門。在沒有安全團隊監(jiān)督的情況下使用新人工智能工具的員工將給公司帶來新的數據泄漏風險。

過度依賴人工智能導致安全運營缺乏監(jiān)管

——CyCognito首席執(zhí)行官Rob Gurzeev

生成式AI將對安全產生積極的影響,但也帶來一個巨大風險:AI可能會讓安全團隊過于自滿,這很危險。過度依賴人工智能可能會導致組織的安全運營缺乏監(jiān)督,很容易在攻擊面中造成漏洞。不要認為一旦人工智能變得足夠聰明,就可以減少對人類洞察力的依賴,這實際上是一種“滑坡”。

AI能幫助企業(yè)提高防御響應速度

——Cyberhaven首席執(zhí)行官Howard Ting

Cyberhaven今年早些時候的調查數據顯示,4.7%的員工曾將機密數據粘貼到ChatGPT中,其中11%的數據是敏感數據。但情況最終會朝好的方向轉變,隨著大語言模型/生成式AI的成熟,安全團隊將能夠使用它來加速防御。

生成式AI可提高安全大數據的可用性

——Gutsy聯合創(chuàng)始人兼首席技術官John Morello

生成式AI有巨大的潛力,可以幫助安全團隊高效處理海量事件數據。數據湖和SIEM傳統(tǒng)方法只是收集數據,在數據的易用性方面沒有多少建樹,對話式人工智能可以大大提高數據的可用性。

生成式AI降低了關鍵基礎設施攻擊門檻

——霍尼韋爾互聯企業(yè)首席技術官Jason Urso

關鍵基礎設施一直是惡意行為者的主要目標。之前成功的攻擊涉及的復雜性超出了普通黑客的能力。然而,生成式AI降低了門檻,讓經驗不足的黑客能夠生成惡意軟件、發(fā)起復雜的網絡釣魚攻擊以獲得對系統(tǒng)的訪問權限,并執(zhí)行自動滲透測試。

關鍵基礎設施的威脅態(tài)勢正在演變?yōu)槿斯ぶ悄芊烙斯ぶ悄堋?

在關鍵基礎設施的防御側,生成式AI將用作閉環(huán)OT防御方法——根據威脅形勢的變化動態(tài)改變安全配置和防火墻規(guī)則,并執(zhí)行自動滲透測試以了解風險變化。”

人工智能不意味著網絡安全人才將失業(yè)

——Ivanti首席產品官Srinivas Mukkamala

2024年,很多員工將更加擔心人工智能對其職業(yè)生涯的影響。例如,最近的研究發(fā)現,近三分之二的IT員工擔心未來五年內人工智能將取代他們的工作。企業(yè)領導者需要向員工明確、透明地說明他們計劃如何實施人工智能,以便留住有才華的員工——因為可靠的人工智能需要人工監(jiān)督。

此外,人工智能將產生更復雜的社會工程攻擊。到2024年,人工智能工具的可用性不斷提高將使社會工程攻擊更容易得手。隨著公司在檢測傳統(tǒng)網絡釣魚電子郵件方面的能力越來越強,黑客已經轉向新技術來提高釣魚郵件的可信度。此外,不法分子使用人工智能工具制造的錯誤信息將對組織、政府和整個社會構成真正的威脅。

生成式人工智能將改變網絡安全崗位的工作性質

——Lacework首席信息官Merritt Baer

機器人不會接管安全崗位,但會讓網絡安全工作的性質發(fā)生變化。很多安全人士已經開始用AI自動執(zhí)行重復性任務,如果更進一步呢?如果生成式AI代理不僅可以提示你編寫自動化程序(“這是您本周已經見過X次的問題/請求;您想自動化它嗎?”),而且還可以給出執(zhí)行該操作所需的代碼(例如編寫漏洞緩解或補丁代碼),該怎么辦?。我預計網絡安全工作崗位的最終價值將符合計算機編程教母艾達·洛夫萊斯(AdaLovelace)的預見:人類的創(chuàng)造性和創(chuàng)新性思維至關重要;計算機擅長的是可靠的處理,從大型數據集中導出模式,并以數學準確性執(zhí)行行動?!?

AI可幫助安全團隊跟上開發(fā)的腳步

——Palo Alto Networks Prisma Cloud高級副總裁Ankur Shah

如今的安全團隊已經無法跟上應用程序開發(fā)的步伐,這導致生產環(huán)境中存在無數安全風險。糟糕的是,應用開發(fā)正在不斷提速,越來越多的開發(fā)人員利用AI技術快速編寫和發(fā)布新代碼,不久的將來人工智能將把應用開發(fā)速度提高10倍以上。為了給安全團隊提供公平的競爭環(huán)境以跟上步伐,企業(yè)安全需要轉向人工智能。最后,人工智能主要是一個數據問題,如果你沒有強大的安全數據來訓練人工智能,那么你阻止風險的能力就會滯后。

生成式AI打造全能安全分析師

——Palo Alto Networks Cortex首席技術官Matt Kraning

今天,安全分析師必須成為全能的“獨角獸”,不僅需要了解攻擊者如何入侵,還需要了解如何設置復雜的自動化和查詢來高效處理海量數據?,F在,生成式人工智能將使安全分析師能夠更輕松地與數據交互。

人工智能是檢測釣魚郵件的關鍵能力

——Telesign首席執(zhí)行官Christophe Van de Weyer

欺詐者正在使用AI技術來擴大他們的攻擊規(guī)模,例如使用AI生成的深度偽造語音或行文風格來提高成功率,這導致2023年釣魚郵件數量創(chuàng)下新的歷史紀錄。到2024年,消費者將很難辨別欺詐性電子郵件和短信,這將迫使企業(yè)企業(yè)加強防御,更加關注賬戶完整性,因為網絡釣魚通常用于接管帳戶并執(zhí)行更重大的盜竊行為。企業(yè)應該根據對欺詐信號的持續(xù)分析,使用人工智能對登錄和交易進行風險評分。網絡安全公司應該擴大機器學習的欺詐信號學習范圍,為郵件安全方案提供高質量信息。

AI將解決威脅檢測、分類和響應難題

——Telstra Purple EMEA負責人Rob Robinson

現在,網絡安全專業(yè)人員負責監(jiān)控和管理的數據點數量多得令人咋舌。隨著云和智能邊緣的普及,這種情況在未來幾年只會加劇。AI技術非常適合解決安全行業(yè)在威脅檢測、分類和響應方面的一些最困難的問題。因此,到2024年,我們將看到人工智能再次改變CISO所需的必要技能。

生成式AI將全面提高安全運營自動化水平

——WinWire首席技術官Vineet Arora

生成式AI將顯著增強網絡安全運營管理能力。AI將在威脅情報、安全強化、滲透測試和檢測工程等當前由人工管理的安全工作流程中實現更多自動化。日志分析、事件響應和安全補丁等許多日常任務都可以通過生成式AI實現自動化,從而為安全分析師騰出寶貴的時間來專注于更復雜的網絡安全問題。與此同時,攻擊者會利用生成式AI為社會工程攻擊、惡意軟件偽裝以及復雜的網絡釣魚活動創(chuàng)建高度“真實”的場景。

生成式AI大大提高合規(guī)效率

——Zscaler首席人工智能官Claudionor Coelho和產品管理副總裁Sanjay Kalra

生成式AI將對2024年的合規(guī)產生重大而深遠的影響。從歷史上看,合規(guī)性一直是一項耗時的工作,包括制定法規(guī)、實施限制、獲取證據以及回答客戶問題。這主要集中在文本和程序上,生成式AI將大大提高其自動化水平。

 
 

上一篇:中國網絡安全審查認證和市場監(jiān)管大數據中心正式掛牌成立

下一篇:2024年1月2日聚銘安全速遞