譯者 | 晶顏
審校 | 重樓
長(zhǎng)期以來,網(wǎng)絡(luò)攻擊一直是勞動(dòng)密集型的,需要經(jīng)過精心策劃并投入大量的人工研究。然而,隨著人工智能技術(shù)的出現(xiàn),威脅行為者已經(jīng)成功利用它們的能力,以非凡的效率策劃攻擊。這種技術(shù)轉(zhuǎn)變使他們能夠大規(guī)模地執(zhí)行更復(fù)雜、更難以檢測(cè)的攻擊,甚至可以操縱機(jī)器學(xué)習(xí)算法來破壞操作或敏感數(shù)據(jù),從而擴(kuò)大其犯罪活動(dòng)的影響。
惡意行為者越來越多地轉(zhuǎn)向人工智能來分析和完善其攻擊策略,這大大提升了攻擊活動(dòng)的成功率。這些人工智能驅(qū)動(dòng)的攻擊具有隱蔽性和不可預(yù)測(cè)性的特點(diǎn),使它們能夠熟練地繞過依賴于固定規(guī)則和歷史攻擊數(shù)據(jù)的傳統(tǒng)安全措施。
在獵頭公司海德思哲(Heidrick & Struggles)進(jìn)行的《2023年全球首席信息安全官(CISO)調(diào)查報(bào)告》中,人工智能已成為未來五年最常見的重大威脅。因此,組織必須優(yōu)先提高對(duì)這些人工智能網(wǎng)絡(luò)威脅的認(rèn)知,并相應(yīng)地加強(qiáng)防御。
人工智能驅(qū)動(dòng)的網(wǎng)絡(luò)攻擊通常表現(xiàn)出以下特征:
自動(dòng)目標(biāo)分析:人工智能簡(jiǎn)化了攻擊研究,利用數(shù)據(jù)分析和機(jī)器學(xué)習(xí),通過從公共記錄、社交媒體和公司網(wǎng)站上收集信息,有效地分析目標(biāo)。
高效的信息收集:通過在各種在線平臺(tái)上自動(dòng)搜索目標(biāo),人工智能加速了偵察階段,提高了效率。
個(gè)性化攻擊:人工智能分析數(shù)據(jù),以高精度創(chuàng)建個(gè)性化的網(wǎng)絡(luò)釣魚消息,增加欺詐成功的可能性。
針對(duì)性的目標(biāo):人工智能會(huì)識(shí)別組織內(nèi)有權(quán)訪問敏感信息的關(guān)鍵人員。
強(qiáng)化學(xué)習(xí):人工智能利用強(qiáng)化學(xué)習(xí)(Reinforcement Learning)對(duì)攻擊進(jìn)行實(shí)時(shí)適應(yīng)和持續(xù)改進(jìn),根據(jù)之前的交互調(diào)整策略,以保持敏捷性,提高成功率,同時(shí)保持領(lǐng)先于安全防御。
網(wǎng)絡(luò)安全公司SlashNext最近的一份報(bào)告顯示了令人震驚的統(tǒng)計(jì)數(shù)據(jù):自2022年第四季度以來,惡意網(wǎng)絡(luò)釣魚郵件激增了1265%,憑據(jù)網(wǎng)絡(luò)釣魚飆升了967%。網(wǎng)絡(luò)犯罪分子正在利用ChatGPT等生成式人工智能工具來制作高度針對(duì)性和復(fù)雜的商業(yè)電子郵件欺詐(BEC)和網(wǎng)絡(luò)釣魚信息。
用蹩腳的英語編寫“尼日利亞王子”(Prince of Nigeria)電子郵件的日子已經(jīng)成為過去。如今的網(wǎng)絡(luò)釣魚郵件高度逼真,甚至能夠成功模仿來自可信來源的官方通信的語氣和格式。威脅行為者利用人工智能來制作極具說服力的電子郵件,這對(duì)區(qū)分其真實(shí)性構(gòu)成了挑戰(zhàn)。
實(shí)施先進(jìn)的電子郵件過濾和反網(wǎng)絡(luò)釣魚軟件,以檢測(cè)和阻止可疑電子郵件。
教育員工如何識(shí)別網(wǎng)絡(luò)釣魚指標(biāo),并定期進(jìn)行網(wǎng)絡(luò)釣魚意識(shí)培訓(xùn)。
實(shí)施多因素身份驗(yàn)證并定期更新軟件以減少已知漏洞。
人工智能生成的社會(huì)工程攻擊涉及通過人工智能算法編造令人信服的人物角色、信息或場(chǎng)景,來操縱和欺騙個(gè)人。這些方法利用心理學(xué)原理來影響目標(biāo),使其透露敏感信息或采取某些行動(dòng)。
人工智能生成的社會(huì)工程攻擊示例包括以下幾種:
人工智能生成的聊天機(jī)器人或虛擬助手能夠與人類進(jìn)行類似的互動(dòng),并在此過程中收集敏感信息或操縱他們的行為。
人工智能驅(qū)動(dòng)的深度造假(Deepfake)技術(shù)通過為虛假信息活動(dòng)生成真實(shí)的音頻和視頻內(nèi)容,構(gòu)成了重大威脅。惡意攻擊者可以利用人工智能語音合成工具,收集和分析音頻數(shù)據(jù),以準(zhǔn)確模仿目標(biāo)的聲音,便于在各種場(chǎng)景中實(shí)施欺詐活動(dòng)。
通過人工智能生成的個(gè)人資料或自動(dòng)機(jī)器人來操縱社交媒體,傳播虛假新聞或惡意鏈接。
高級(jí)威脅檢測(cè):實(shí)施人工智能驅(qū)動(dòng)的威脅檢測(cè)系統(tǒng),能夠識(shí)別表明社會(huì)工程攻擊的模式。
電子郵件過濾和反網(wǎng)絡(luò)釣魚工具:利用人工智能解決方案在惡意電子郵件到達(dá)用戶收件箱之前阻止它們。
多因素身份驗(yàn)證(MFA):實(shí)現(xiàn)MFA以增加額外的安全層,防止未經(jīng)授權(quán)的訪問。
員工培訓(xùn)和安全意識(shí)計(jì)劃:通過持續(xù)的意識(shí)活動(dòng)和培訓(xùn)課程,教育員工識(shí)別和報(bào)告社會(huì)工程策略,包括人工智能驅(qū)動(dòng)的技術(shù)。
NCSC評(píng)估報(bào)告指出,包括勒索軟件組織在內(nèi)的威脅行為者已經(jīng)在偵察、網(wǎng)絡(luò)釣魚和編碼等各種網(wǎng)絡(luò)操作中利用人工智能技術(shù),來提升攻擊速度和成功率。而且,預(yù)計(jì)這些趨勢(shì)將持續(xù)到2025年以后。
高級(jí)威脅檢測(cè):使用人工智能驅(qū)動(dòng)的系統(tǒng)來發(fā)現(xiàn)網(wǎng)絡(luò)活動(dòng)中的勒索軟件模式和異常。
網(wǎng)絡(luò)分段:劃分網(wǎng)絡(luò)以限制勒索軟件的橫向移動(dòng)能力。
備份與恢復(fù):定期對(duì)關(guān)鍵數(shù)據(jù)進(jìn)行備份,并驗(yàn)證恢復(fù)過程。
補(bǔ)丁管理:保持系統(tǒng)更新,以修復(fù)被勒索軟件利用的漏洞。
逃逸攻擊(Evasion Attack)和投毒攻擊(Poisoning Attack)是人工智能和機(jī)器學(xué)習(xí)模型背景下的兩種對(duì)抗性攻擊。
投毒攻擊:這些攻擊涉及將惡意數(shù)據(jù)插入AI或ML模型的訓(xùn)練數(shù)據(jù)集中。目標(biāo)是通過微妙地改變訓(xùn)練數(shù)據(jù)來操縱模型的行為,從而導(dǎo)致有偏差的預(yù)測(cè)或性能受損。通過在訓(xùn)練過程中注入有毒數(shù)據(jù),攻擊者可以破壞模型的完整性和可靠性。
逃逸攻擊:這些攻擊的目的是通過偽造輸入數(shù)據(jù)來欺騙機(jī)器學(xué)習(xí)模型。目標(biāo)是通過對(duì)輸入的細(xì)微修改來改變模型的預(yù)測(cè),使其對(duì)數(shù)據(jù)進(jìn)行錯(cuò)誤分類。這些調(diào)整經(jīng)過精心設(shè)計(jì),使人類在視覺上無法察覺。逃逸攻擊在不同的人工智能應(yīng)用中很普遍,比如圖像識(shí)別、自然語言處理和語音識(shí)別。
對(duì)抗性訓(xùn)練:使用可用的自動(dòng)發(fā)現(xiàn)工具訓(xùn)練模型識(shí)別對(duì)抗性示例。
切換模型:在系統(tǒng)中使用多個(gè)隨機(jī)模型進(jìn)行預(yù)測(cè),增加攻擊者實(shí)施惡意操作的困難度,因?yàn)樗麄儫o法確定正在使用的當(dāng)前模型是哪一種。
一般化模型:將多個(gè)模型組合起來創(chuàng)建一般化模型(Generalized Model),使威脅參與者難以欺騙所有模型。
負(fù)責(zé)任的AI:利用負(fù)責(zé)任的AI框架來解決機(jī)器學(xué)習(xí)中獨(dú)特的安全漏洞,因?yàn)閭鹘y(tǒng)的安全框架可能遠(yuǎn)遠(yuǎn)不夠。
惡意GPT涉及操縱生成式預(yù)訓(xùn)練模型(GPT)以達(dá)到攻擊目的。利用大量數(shù)據(jù)集的定制GPT可以潛在地繞過現(xiàn)有的安全系統(tǒng),從而加劇人工智能威脅。
知名的惡意GPT包括(但不僅限于)以下幾種:
WormGPT:用于生成欺詐性電子郵件、仇恨言論和分發(fā)惡意軟件,為網(wǎng)絡(luò)犯罪分子執(zhí)行商業(yè)電子郵件欺詐(BEC)攻擊提供服務(wù)。
FraudGPT:能夠生成無法檢測(cè)的惡意軟件、網(wǎng)絡(luò)釣魚頁面、未公開的黑客工具、識(shí)別泄漏和漏洞,并執(zhí)行附加功能。
PoisonGPT:PoisonGPT通過在歷史事件中注入虛假細(xì)節(jié)來傳播錯(cuò)誤信息。這一工具使惡意行為者能夠捏造新聞,歪曲事實(shí),并影響公眾認(rèn)知。
人工智能引發(fā)的攻擊構(gòu)成了嚴(yán)重威脅,能夠造成廣泛的傷害和破壞。為了應(yīng)對(duì)這些威脅,組織應(yīng)該投資防御性人工智能技術(shù),培養(yǎng)安全意識(shí)文化,并不斷更新其防御策略。通過保持警惕和積極主動(dòng),組織可以更好地保護(hù)自身免受這種新的和不斷發(fā)展的威脅影響。
原文標(biāo)題:Cybersecurity in the Age of AI: Exploring AI-Generated Cyber Attacks,作者:Dilki Rathnayake