大規(guī)模網(wǎng)絡(luò)攻擊曾倒逼殺毒軟件的誕生,人工智能時代針對算法漏洞這一“新型病毒”,又該如何“殺毒”?記者9日從RealAI(瑞萊智慧)獲悉,他們推出針對算法模型本身安全的檢測平臺,相當(dāng)于人工智能時代的“殺毒軟件”。
RealAI是一個孵化自清華大學(xué)人工智能研究院的創(chuàng)新團隊,相關(guān)研究成果已被FoolBox等開源軟件收錄為標(biāo)準(zhǔn)。RealAI還與清華方面組成戰(zhàn)隊,在人工智能領(lǐng)域多項國際大賽中斬獲冠軍。
RealAI的首席執(zhí)行官田天介紹,團隊最新推出的RealSafe人工智能安全平臺可以提供從測評到防御完整的解決方案,快速緩解對抗樣本攻擊威脅。
由于人工智能或可實現(xiàn)對人腦的替代,因此,在每一輪人工智能發(fā)展浪潮中,人們都非常關(guān)注其安全問題和倫理影響。業(yè)內(nèi)專家認為,當(dāng)前針對“人工智能安全”的定義主要來源于“賦能安全應(yīng)用”和“防范技術(shù)風(fēng)險”兩個層面。
其中,后者是對現(xiàn)階段由于人工智能技術(shù)不成熟以及惡意應(yīng)用所導(dǎo)致的安全風(fēng)險,包括模型缺陷、算法不可解釋性、數(shù)據(jù)強依賴性等,本質(zhì)上由人工智能“技術(shù)短板”所致,是限制人工智能發(fā)展最明顯的“軟肋”。而在中國信息通信研究院2018年編制的《人工智能安全白皮書》中,“算法安全”是人工智能六大安全風(fēng)險之一。白皮書還指出“對抗樣本攻擊誘使算法識別出現(xiàn)誤判漏判”這一算法模型缺陷為算法安全的重要風(fēng)險項。
田天解釋,對抗樣本原本是機器學(xué)習(xí)模型的一個有趣現(xiàn)象,通過在源數(shù)據(jù)上增加人類難以通過感官辨識到的細微改變,讓機器學(xué)習(xí)模型接受并做出錯誤的分類決定。但是經(jīng)過不斷升級演化,對抗樣本攻擊已不僅停留在數(shù)字世界。
“在路面上粘貼對抗樣本貼紙模仿合并條帶誤導(dǎo)自動駕駛汽車拐進逆行車道、佩戴對抗樣本生成的眼鏡輕易破解手機面部解鎖、胸前張貼對抗樣本貼紙即可實現(xiàn)隱身……”他舉例說,對抗樣本會導(dǎo)致人工智能系統(tǒng)被攻擊和惡意侵擾,成為威脅到人工智能系統(tǒng)的“人工智能病毒”,在人臉識別、自動駕駛等領(lǐng)域或?qū)⒃斐呻y以挽回的損失。
然而,業(yè)界對于如何評價算法模型的安全性并沒有清楚的定義,對抗樣本等算法漏洞檢測存在較高的技術(shù)壁壘,目前市面上缺乏自動化檢測評估工具。
田天表示,相較于目前常見的開源工具需要自行部署、編寫代碼,RealSafe平臺支持零編碼在線測評,用戶只需提供相應(yīng)的數(shù)據(jù)即可在線完成評估。為幫助用戶提高對模型安全性的概念,該平臺根據(jù)模型在對抗樣本攻擊下的表現(xiàn)進行評分,還提供模型安全性升級服務(wù),支持五種去除對抗噪聲的通用防御方法。部分第三方的人臉比對API通過使用RealSafe平臺的防御方案加固后,安全性可提高40%以上。
“推出安全檢測平臺是規(guī)避風(fēng)險的一條路徑,未來還需要聯(lián)合各界力量共同推動人工智能安全相關(guān)的國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)、聯(lián)盟標(biāo)準(zhǔn)的制定,為人工智能產(chǎn)品安全評估評測的統(tǒng)一參考。”他說。(完)
關(guān)鍵詞: