當(dāng)前,諸如圖像識別、語音識別、自然語言翻譯等AI技術(shù)已經(jīng)在移動(dòng)互聯(lián)網(wǎng)、新型產(chǎn)業(yè)甚至眾多傳統(tǒng)產(chǎn)業(yè)領(lǐng)域得到普遍部署和廣泛應(yīng)用。以機(jī)器學(xué)習(xí)、深度學(xué)習(xí)為核心的第二次人工智能的加速成熟,終于迎來了人工智能技術(shù)的高光時(shí)刻。
無論是國家、科研機(jī)構(gòu),還是科技企業(yè)和各個(gè)產(chǎn)業(yè),也都在以滿懷憧憬的熱情來推動(dòng)著AI從科研學(xué)術(shù)成果走向產(chǎn)業(yè)落地。
AI技術(shù)的普及速度確實(shí)遠(yuǎn)超歷次新技術(shù)革命帶來的產(chǎn)業(yè)速度,其應(yīng)用的規(guī)模和深度也正在像電力、石油、互聯(lián)網(wǎng)一樣,被看作新的生產(chǎn)生活的基礎(chǔ)設(shè)施。
在備受AI技術(shù)廣闊前景的鼓舞之時(shí),人們也開始意識到AI技術(shù)本身也是一把雙刃劍。
AI既能推動(dòng)生產(chǎn)效率的提升和產(chǎn)業(yè)的數(shù)字化智能化水平的提升,同時(shí)又能帶來全新的技術(shù)風(fēng)險(xiǎn)和隱私倫理問題,成為新型詐騙犯罪、黑產(chǎn)牟利的趁手工具。
更重要的是,AI技術(shù)本身也存在一大隱憂。當(dāng)前主流的深度神經(jīng)網(wǎng)絡(luò)等技術(shù)具有的“黑箱屬性”,導(dǎo)致AI算法存在不可解釋性。這也就意味著AI技術(shù)在算法安全性上存在著不確定因素,可能會在產(chǎn)業(yè)應(yīng)用落地中出現(xiàn)各種安全隱患和風(fēng)險(xiǎn)。
正如隨著計(jì)算機(jī)技術(shù)和互聯(lián)網(wǎng)的誕生,計(jì)算機(jī)病毒、網(wǎng)絡(luò)攻擊等危害網(wǎng)絡(luò)安全的技術(shù)便如影隨形,AI技術(shù)的出現(xiàn)和發(fā)展也將始終伴隨著AI安全的種種問題相伴而行。
AI技術(shù)帶給產(chǎn)業(yè)的革命性變革的規(guī)模、價(jià)值越大,那么,其安全問題所導(dǎo)致的嚴(yán)重后果的影響也就越大。
當(dāng)身處數(shù)字化轉(zhuǎn)型升級的各個(gè)產(chǎn)業(yè)正在享受這一波新的智能化技術(shù)紅利的時(shí)候,AI安全問題,就如同網(wǎng)絡(luò)安全、信息安全一樣,被提上產(chǎn)業(yè)數(shù)字化建設(shè)的日程表了。
提及AI安全問題,很多人第一反應(yīng)可能是,通過AI技術(shù)進(jìn)行人臉造假、AI仿聲、AI仿寫假新聞、圖像及視頻造假等帶來的欺詐、隱私安全問題。
確實(shí),當(dāng)人們驚嘆于AI技術(shù)幾乎快要無所不能的時(shí)候,也能很直觀地意識到AI造假帶來的這類安全問題。畢竟AI造假既有輿論話題,又與大眾息息相關(guān)。但是對于AI技術(shù)本身所蘊(yùn)藏的算法安全風(fēng)險(xiǎn),大眾則可能沒有非常直觀的理解。而這一AI安全風(fēng)險(xiǎn),則是因?yàn)檫@些算法被當(dāng)做“成熟”技術(shù),廣泛應(yīng)用在產(chǎn)業(yè)的各個(gè)生產(chǎn)場景當(dāng)中,因而造成更為隱蔽但同樣后果非常嚴(yán)重的次生安全問題。
首先,AI算法本身存在安全漏洞。因?yàn)楦黝悪C(jī)器學(xué)習(xí)的高度復(fù)雜,帶來的“黑箱問題”使得算法不可解釋。這就如同我們乘坐在一架不知道由什么原理制造的發(fā)動(dòng)機(jī)驅(qū)動(dòng)的飛船上,看似效果還不錯(cuò),但是一旦出現(xiàn)問題,發(fā)明者也只能從“發(fā)動(dòng)機(jī)”外部進(jìn)行各種“嘗試性”修正。
其次,算法的“黑箱問題”會引發(fā)各類AI系統(tǒng)安全風(fēng)險(xiǎn),比如惡意機(jī)器學(xué)習(xí)的產(chǎn)生。攻擊者可以利用AI技術(shù)漏洞進(jìn)行“對抗樣本攻擊”和“數(shù)據(jù)污染攻擊”等種種手段,使得AI系統(tǒng)出現(xiàn)判斷失準(zhǔn)等問題。
最后,當(dāng)這些AI系統(tǒng)應(yīng)用于某些安全性要求極高的領(lǐng)域,比如安防監(jiān)控、工業(yè)質(zhì)檢、自動(dòng)駕駛、金融風(fēng)控以及醫(yī)療診斷上面,一旦AI出現(xiàn)判斷偏差,將會帶來直接的經(jīng)濟(jì)財(cái)產(chǎn)損失,甚至是人身安全與健康風(fēng)險(xiǎn)等嚴(yán)重后果。
原本要應(yīng)用于提升生產(chǎn)效率和安全性的AI技術(shù),卻有可能走向自身的反面。AI算法安全問題必須引起這些積極投入智能化的產(chǎn)業(yè)決策者的重視,同樣這一問題也需要得到來自AI技術(shù)研究者的積極回應(yīng)。
在2018年,信通院發(fā)布的《人工智能安全白皮書》就將“算法安全風(fēng)險(xiǎn)”列為AI領(lǐng)域的六大安全風(fēng)險(xiǎn)之一,指出AI算法當(dāng)中存在的五種風(fēng)險(xiǎn):算法黑箱、算法設(shè)計(jì)缺陷、數(shù)據(jù)依賴、對抗樣本攻擊、算法歧視。
針對這些算法安全風(fēng)險(xiǎn),提供AI算法的安全評估檢測成為未來的AI安全的重要發(fā)展方向。
當(dāng)前,AI算法模型,由于算法黑箱和算法漏洞的存在,面對攻擊者惡意攻擊難以被檢測。因此,建立可解釋、可溯源、魯棒性強(qiáng)的AI模型成為AI應(yīng)用落地的根本任務(wù)。
而對抗樣本攻擊又是造成當(dāng)前AI安全風(fēng)險(xiǎn)中的主要手段 。攻擊者可以在判斷階段對樣本加入少量噪音,誘導(dǎo)算法識別出現(xiàn)誤判,影響判斷結(jié)果。提升對抗樣本攻擊的防御手段,提供算法漏洞檢測技術(shù),也成為AI安全的當(dāng)務(wù)之急。
隨著產(chǎn)業(yè)智能化落地的加速,AI算法安全已經(jīng)成為一個(gè)產(chǎn)業(yè)現(xiàn)實(shí)的需求。
正如技術(shù)發(fā)展呈現(xiàn)的“矛與盾”的復(fù)雜關(guān)系,AI安全也同樣呈現(xiàn)出一種持續(xù)攻防的過程。新的攻擊手段出來,也必然要求有新的防御方法去應(yīng)對。
隨著AI技術(shù)不斷地成熟,以及在工業(yè)、金融、安防、交通、醫(yī)療教育等領(lǐng)域的實(shí)際應(yīng)用,這場AI安全的攻防賽就會以一種更加復(fù)雜和多變的競對狀態(tài)呈現(xiàn)出來。
目前,大量的AI安全風(fēng)險(xiǎn)已經(jīng)出現(xiàn),而且很多以常人難以直觀理解的方式出現(xiàn)在AI的應(yīng)用場景當(dāng)中。
如果將產(chǎn)業(yè)智能化升級看作一條蓄勢向前的河流,那么,AI算法的豐富拓展了產(chǎn)業(yè)智能化場景的廣度,其成熟和升級決定了產(chǎn)業(yè)智能化的深度,而AI算法的安全可靠,則決定了產(chǎn)業(yè)智能化的長度。
(本文轉(zhuǎn)載自電子發(fā)燒網(wǎng),如有侵權(quán),請聯(lián)系刪除)
地址:深圳市龍華區(qū)東環(huán)一路天匯大廈B棟1028室
QQ:2775887586 ? ? ? ? ? TEL:0755-83422736
技術(shù)支持:凱鼎電子???粵ICP備16123236號-1