8月16日,中國信息通信研究院主辦的“2022可信AI峰會”在京舉行。會上公布了“2022年可信人工智能實(shí)踐案例”評選結(jié)果,螞蟻集團(tuán)共有三項(xiàng)可信AI實(shí)踐方案入選標(biāo)桿案例。
螞蟻集團(tuán)入選的三項(xiàng)標(biāo)桿案例,分別是基于可信AI技術(shù)支撐的“螞蟻可解釋機(jī)器學(xué)習(xí)平臺FinINTP”、“螞蟻可解釋AI的安全風(fēng)控實(shí)踐”及“螞蟻AI安全檢測平臺”。
圖:螞蟻集團(tuán)三案例入選中國信通院“2022可信人工智能實(shí)踐案例”標(biāo)桿案例
近年來,安全和可信性已成為制約下一階段人工智能技術(shù)發(fā)展的瓶頸所在。早在2017年,國務(wù)院《新一代人工智能發(fā)展規(guī)劃》中,就重點(diǎn)提及人工智能的安全可信性。今年5月起,中國信通院面向全社會征集2022年可信人工智能實(shí)踐案例,最終選出35項(xiàng)優(yōu)秀案例、13項(xiàng)標(biāo)桿案例,為行業(yè)開展可信AI應(yīng)用工作提供了示范指引。
當(dāng)下,AI越來越多參與到重要決策中,它的思考不能是“黑盒”。螞蟻集團(tuán)自主研發(fā)的“螞蟻可解釋機(jī)器學(xué)習(xí)平臺FinINTP”,結(jié)合規(guī)則學(xué)習(xí)、機(jī)器學(xué)習(xí)等技術(shù),不僅實(shí)現(xiàn)了智能風(fēng)控等多種場景的可解釋模型和規(guī)則建設(shè),還開發(fā)了多種基于擾動的可解釋器和基于梯度的事后解釋器,可實(shí)現(xiàn)對批量異常風(fēng)險(xiǎn)要素的提前感知。
螞蟻集團(tuán)基于可解釋AI的安全風(fēng)控實(shí)踐,沉淀了一套可解釋AI系統(tǒng)。該系統(tǒng)采用基于特征、基于模型到基于邏輯的分布式可解釋框架,將百萬量級預(yù)測樣本的可解釋計(jì)算速度提高100倍以上;同時(shí)通過人工經(jīng)驗(yàn)和機(jī)器學(xué)習(xí)交互結(jié)合的方法,確保AI決策結(jié)果的天然可解釋。目前,這套系統(tǒng)已在螞蟻智能風(fēng)控、投訴審理,反洗錢等場景應(yīng)用。
如何提高AI的魯棒性,即抗攻擊對抗能力及穩(wěn)定性,以應(yīng)對復(fù)雜多變的數(shù)據(jù)環(huán)境,也是可信人工智能的重要議題。此次入選標(biāo)桿案例的“螞蟻AI安全檢測平臺”,是業(yè)內(nèi)首個(gè)面向工業(yè)場景全數(shù)據(jù)類型的AI安全檢測平臺。該平臺可自動化評估不同數(shù)據(jù)和攻擊類型的AI安全風(fēng)險(xiǎn),并提供安全性增強(qiáng)方案,將于9月免費(fèi)對外開放魯棒性測評,并將持續(xù)增加可解釋性、算法公平性、隱私保護(hù)的檢測能力。
清華大學(xué)副教授李琦表示,人工智能可信問題廣受學(xué)術(shù)界和工業(yè)界關(guān)注,AI可解釋性是實(shí)現(xiàn)可信AI的關(guān)鍵技術(shù),但目前行業(yè)探索較多停留在理論層面,缺少通用的可解釋框架。螞蟻集團(tuán)在可信AI技術(shù)領(lǐng)域上的創(chuàng)新應(yīng)用,為可信人工智能技術(shù)的發(fā)展提供了更加廣闊的思路。
公開資料顯示,螞蟻集團(tuán)自2015年起投入可信AI技術(shù)研究,2016年全面啟動人工智能風(fēng)控防御戰(zhàn)略,目前已在反欺詐、反洗錢、反盜用、企業(yè)聯(lián)合風(fēng)控、數(shù)據(jù)隱私保護(hù)在內(nèi)的多個(gè)場景落地,形成了新一代智能風(fēng)控體系“IMAGE”,支撐全風(fēng)險(xiǎn)域的防控。
【免責(zé)聲明】本文僅代表第三方觀點(diǎn),不代表和訊網(wǎng)立場。投資者據(jù)此操作,風(fēng)險(xiǎn)請自擔(dān)。
最新評論