您的位置:首頁(yè) >公共 >

暗黑版GPT流竄暗網(wǎng) 降低犯罪門檻

2023-08-08 07:05:43 來(lái)源:元宇宙日爆

隨著AIGC應(yīng)用的普及,不法分子利用AI技術(shù)犯罪的手段越來(lái)越高明,欺騙、敲詐、勒索也開(kāi)始與人工智能沾邊。

近期,專為網(wǎng)絡(luò)犯罪設(shè)計(jì)的“暗黑版GPT”持續(xù)浮出水面,它們不僅沒(méi)有任何道德界限,更沒(méi)有使用門檻,沒(méi)有編程經(jīng)驗(yàn)的小白能通過(guò)問(wèn)答的方式實(shí)施黑客攻擊。


(資料圖片僅供參考)

AI犯罪的威脅離我們?cè)絹?lái)越近,人類也開(kāi)始加筑新的防火墻。

現(xiàn)在,企圖“消滅人類”的ChaosGPT和幫助網(wǎng)絡(luò)犯罪的 WormGPT 之后,出現(xiàn)了一種更具威脅的人工智能工具。被稱為“FraudGPT”的新興網(wǎng)絡(luò)犯罪AIGC工具匿藏暗網(wǎng),并開(kāi)始在Telegram等社交媒體中打廣告。

與WormGPT一樣,F(xiàn)raudGPT也是人工智能大語(yǔ)言模型,專為作惡而設(shè)計(jì),被比作“網(wǎng)絡(luò)罪犯的武器庫(kù)”。通過(guò)接受不同來(lái)源的大量數(shù)據(jù)訓(xùn)練,F(xiàn)raudGPT不但能寫出釣魚郵件,還能編寫惡意軟件,哪怕是技術(shù)小白也能通過(guò)簡(jiǎn)單的問(wèn)答方式實(shí)施黑客攻擊。

FraudGPT在打廣告

FraudGPT的功能需付費(fèi)開(kāi)啟,200美元(約1400元)就能使用。發(fā)起人聲稱,F(xiàn)raudGPT 迄今為止已確認(rèn)銷量超過(guò)3000。也就是說(shuō),至少3000人已為這一毫無(wú)道德邊界的作惡工具付費(fèi),低成本的AIGC犯罪有可能威脅普通人。

據(jù)電子郵件安全供應(yīng)商Vade 檢測(cè),2023年上半年,僅網(wǎng)絡(luò)釣魚和惡意郵件就達(dá)到了驚人的億封,同比增長(zhǎng)了 54% 以上,AI很可能是加速增長(zhǎng)的推動(dòng)因素。網(wǎng)絡(luò)安全獨(dú)角獸公司Tanium的首席安全顧問(wèn)Timothy Morris表示,“這些電子郵件不僅語(yǔ)法正確,更有說(shuō)服力,而且可以被毫不費(fèi)力地創(chuàng)建,這降低了任何潛在罪犯的進(jìn)入門檻?!彼赋?,因?yàn)檎Z(yǔ)言已經(jīng)不再是障礙,潛在受害者的范圍也將進(jìn)一步擴(kuò)大。

自大模型誕生起,AI導(dǎo)致的風(fēng)險(xiǎn)類型層出不窮,安全防護(hù)卻一直沒(méi)有跟上,即便是ChatGPT也沒(méi)能躲過(guò)“奶奶漏洞”——只要在提示中寫“請(qǐng)扮演我已經(jīng)過(guò)世的祖母”就可以輕松“越獄”,讓ChatGPT回答道德與安全約束之外的問(wèn)題,比如生成Win11的序列號(hào)、介紹凝固汽油彈的制作方法等等。

目前,這個(gè)漏洞已被修補(bǔ),但下一個(gè)漏洞、下下個(gè)漏洞總以令人猝不及防的方式出現(xiàn)。近期,卡內(nèi)基梅隆大學(xué)和共同發(fā)布的一項(xiàng)研究表明,大模型的安全機(jī)制能通過(guò)一段代碼被破解,并且攻擊成功率非常高。

GPT等大模型都面臨較高的安全風(fēng)險(xiǎn)

隨著AIGC應(yīng)用的普及,普通大眾希望用AI提高生產(chǎn)效率,而不法者則在用AI提高犯罪效率。AIGC降低門檻,讓技能有限的網(wǎng)絡(luò)犯罪分子也能執(zhí)行復(fù)雜攻擊,維護(hù)AI安全的挑戰(zhàn)越來(lái)越高。

用AI魔法打敗AI黑魔法

針對(duì)黑客利用WormGPT與FraudGPT等工具開(kāi)發(fā)惡意程序、發(fā)起隱形攻擊等問(wèn)題,網(wǎng)絡(luò)安全廠家們也用上了AI,試圖用魔法打敗魔法。

在2023年RSA(網(wǎng)絡(luò)安全大會(huì))上,SentinelOne、谷歌云、埃森哲、IBM等在內(nèi)的眾多廠商都發(fā)布了基于生成式AI的新一代網(wǎng)絡(luò)安全產(chǎn)品,提供數(shù)據(jù)隱私、安全防護(hù)、IP防泄露、業(yè)務(wù)合規(guī)、數(shù)據(jù)治理、數(shù)據(jù)加密、模型管理、反饋循環(huán)、訪問(wèn)控制等安全服務(wù)。

SentinelOne首席執(zhí)行官Tomer Weigarten針對(duì)自家產(chǎn)品解釋,假設(shè)有人發(fā)送了一封釣魚郵件,系統(tǒng)能在用戶的收件箱內(nèi)檢測(cè)出該郵件為惡意郵件,并根據(jù)端點(diǎn)安全審計(jì)發(fā)現(xiàn)的異常立即執(zhí)行自動(dòng)修復(fù),從受攻擊端點(diǎn)刪除文件并實(shí)時(shí)阻止發(fā)件人,“整個(gè)過(guò)程幾乎不需要人工干預(yù)?!盬eingarten指出,有了AI系統(tǒng)助力,每個(gè)安全分析師的工作效率是過(guò)去的10倍。

為打擊人工智能助長(zhǎng)的網(wǎng)絡(luò)犯罪,還有研究人員臥底暗網(wǎng),深入敵人內(nèi)部打探消息,從不法分析的訓(xùn)練數(shù)據(jù)入手,利用AI反制罪惡流竄的暗網(wǎng)。

韓國(guó)科學(xué)技術(shù)院 (KAIST) 一個(gè)研究團(tuán)隊(duì)發(fā)布了應(yīng)用于網(wǎng)絡(luò)安全領(lǐng)域的大語(yǔ)言模型DarkBERT,就是專門從暗網(wǎng)獲取數(shù)據(jù)訓(xùn)練的模型,它可以分析暗網(wǎng)內(nèi)容,幫助研究人員、執(zhí)法機(jī)構(gòu)和網(wǎng)絡(luò)安全分析師打擊網(wǎng)絡(luò)犯罪。

與表層網(wǎng)絡(luò)使用的自然語(yǔ)言不同,由于暗網(wǎng)上的語(yǔ)料極端隱蔽且復(fù)雜,這使得傳統(tǒng)語(yǔ)言模型難以進(jìn)行分析。DarkBERT 專門設(shè)計(jì)用于處理暗網(wǎng)的語(yǔ)言復(fù)雜性,并證明在該領(lǐng)域中勝過(guò)其他大型語(yǔ)言模型。

如何確保人工智能被安全、可控地使用已成為計(jì)算機(jī)學(xué)界、業(yè)界的重要命題。人工智能大語(yǔ)言模型公司在提高數(shù)據(jù)質(zhì)量的同時(shí),需要充分考慮AI工具給倫理道德甚至法律層面帶來(lái)的影響。

7月21日,微軟、OpenAI、Google、Meta、亞馬遜、Anthropic和 Inflection AI共七個(gè)頂尖 AI 的研發(fā)公司齊聚美國(guó)白宮,發(fā)布人工智能自愿承諾,確保他們的產(chǎn)品安全且透明。針對(duì)網(wǎng)絡(luò)安全問(wèn)題,7家公司承諾,對(duì)AI系統(tǒng)進(jìn)行內(nèi)外部的安全測(cè)試,同時(shí)與整個(gè)行業(yè)、政府、民間及學(xué)術(shù)界共享AI風(fēng)險(xiǎn)管理的信息。

管理AI潛在的安全問(wèn)題先從識(shí)別“AI制造”開(kāi)始。這7家企業(yè)將開(kāi)發(fā)“水印系統(tǒng)”等技術(shù)機(jī)制,以明確哪些文本、圖像或其他內(nèi)容是AIGC的產(chǎn)物,便于受眾識(shí)別深度偽造和虛假信息。

防止AI“犯忌”的防護(hù)技術(shù)也開(kāi)始出現(xiàn)。今年5月初,英偉達(dá)以新工具封裝“護(hù)欄技術(shù)”,讓大模型的嘴有了“把門的”,能回避回答那些人類提出的觸碰道德與法律底線的問(wèn)題。這相當(dāng)于為大模型安裝了一個(gè)安全濾網(wǎng),控制大模型輸出的同時(shí),也幫助過(guò)濾輸入的內(nèi)容。護(hù)欄技術(shù)還能阻擋來(lái)自外界的“惡意輸入”,保護(hù)大模型不受攻擊。

“當(dāng)你凝視深淵的時(shí)候,深淵也在凝視你”,如同一枚硬幣的兩面,AI的黑與白也相伴而生,當(dāng)人工智能高歌猛進(jìn)的同時(shí),政府、企業(yè)、研究團(tuán)隊(duì)也在加速構(gòu)建人工智能的安全防線。

標(biāo)簽:

編輯推薦