當(dāng)前,數(shù)字經(jīng)濟已成為引領(lǐng)全球經(jīng)濟社會變革、推動我國經(jīng)濟高質(zhì)量發(fā)展的重要引擎,人工智能應(yīng)用作為數(shù)字經(jīng)濟的重要戰(zhàn)略抓手,面臨著諸多安全風(fēng)險與挑戰(zhàn)。對此,啟明星辰信息技術(shù)集團股份有限公司首席執(zhí)行官嚴望佳提出關(guān)于加強人工智能應(yīng)用安全,促進數(shù)字經(jīng)濟穩(wěn)步發(fā)展的提案。
一、問題及原因分析
數(shù)字經(jīng)濟作為引領(lǐng)未來的新經(jīng)濟形態(tài)已成為我國高質(zhì)量發(fā)展的新引擎,習(xí)近平總書記更是指出“數(shù)字經(jīng)濟是全球未來的發(fā)展方向”。數(shù)據(jù)作為生產(chǎn)要素,依托人工智能應(yīng)用將會充分展現(xiàn)其要素價值,促進數(shù)字經(jīng)濟的進一步騰飛。
在大力發(fā)展人工智能應(yīng)用,助力數(shù)字經(jīng)濟發(fā)展的同時,必須堅持統(tǒng)籌發(fā)展與安全,加強人工智能應(yīng)用安全,促進數(shù)字經(jīng)濟穩(wěn)步前行。當(dāng)前人工智能應(yīng)用主要面臨如下一些安全問題。
1)與人工智能應(yīng)用相關(guān)的數(shù)據(jù)安全及隱私保護問題。構(gòu)建人工智能應(yīng)用通常以大量數(shù)據(jù)為基礎(chǔ),包括可能涉及的個人數(shù)據(jù)、企業(yè)敏感數(shù)據(jù)等。而數(shù)據(jù)的采集、處理、計算等過程不可避免會產(chǎn)生數(shù)據(jù)安全與隱私保護問題。
2)人工智能應(yīng)用中算法“黑盒”應(yīng)用模式的安全隱患。當(dāng)前很多人工智能應(yīng)用往往直接套用現(xiàn)有模型,缺乏對核心算法的深入剖析,忽視其工作原理。在這些應(yīng)用中,算法是不透明的“黑盒子”,很可能潛藏未知的安全隱患。
3)人工智能應(yīng)用軟硬件供應(yīng)鏈安全問題。人工智能應(yīng)用的實現(xiàn)包含大量工程化工作,涉及從底層芯片到上層應(yīng)用開發(fā)的一系列軟硬件供應(yīng)鏈,每一環(huán)節(jié)都可能產(chǎn)生安全問題。另外,實現(xiàn)中可能依賴開源代碼,既存在引入漏洞或后門的風(fēng)險,又觸及知識產(chǎn)權(quán)方面的問題。
4)逐漸顯現(xiàn)的人工智能應(yīng)用倫理安全問題。在這些問題中,既有將人工智能應(yīng)用于錯誤目的,比如屢屢發(fā)生的“大數(shù)據(jù)殺熟”;也有應(yīng)用構(gòu)建過程不合理,比如算法偏見造成的決策不公;還有應(yīng)用部署后的問題,比如決策錯誤引發(fā)損失時的責(zé)任認定等。
二、具體建議
“安全是發(fā)展的前提,發(fā)展是安全的保障”,為了穩(wěn)步推進數(shù)字經(jīng)濟發(fā)展,充分發(fā)揮人工智能應(yīng)用在發(fā)掘數(shù)據(jù)要素價值方面的作用,必須始終貫徹安全發(fā)展理念,從多方面采取有效措施加強人工智能應(yīng)用安全。具體建議如下:
1)加強人工智能應(yīng)用相關(guān)的數(shù)據(jù)安全及隱私保護技術(shù)研究
人工智能應(yīng)用在獲取數(shù)據(jù)價值的同時也面臨著數(shù)據(jù)安全風(fēng)險。傳統(tǒng)的數(shù)據(jù)脫敏等安全防護技術(shù)在隱藏敏感信息的同時也造成數(shù)據(jù)價值的損失。因此,在推進數(shù)據(jù)安全相關(guān)法律完善的同時,還應(yīng)加強隱私計算、安全多方計算等前沿技術(shù)研究,在不泄露隱私與敏感信息的前提下保留數(shù)據(jù)價值并支持人工智能應(yīng)用構(gòu)建所需的高效計算。建議設(shè)立相關(guān)專項課題推動產(chǎn)學(xué)研合作開展技術(shù)研究與應(yīng)用落地攻關(guān)等。
2)強化人工智能應(yīng)用的透明性要求,避免“黑盒”應(yīng)用
以深度神經(jīng)網(wǎng)絡(luò)為代表的新型人工智能算法模型復(fù)雜,尚缺乏嚴格的理論基礎(chǔ),其可解釋性仍然是一個前沿研究課題。在核心算法原理不明的情況下構(gòu)建的人工智能應(yīng)用可能產(chǎn)生意料之外的行為,安全風(fēng)險不可控。因此,必須提高人工智能應(yīng)用的透明性要求,尤其在涉及社會、人身安全的關(guān)鍵領(lǐng)域應(yīng)避免“黑盒”應(yīng)用。建議制定相關(guān)法律及標(biāo)準規(guī)范,明確各領(lǐng)域人工智能應(yīng)用的透明性要求與衡量指標(biāo)等。
3)推動人工智能應(yīng)用供應(yīng)鏈安全評估,強化自主可控要求
在如今供應(yīng)鏈安全事件頻發(fā)的態(tài)勢下,人工智能應(yīng)用軟硬件供應(yīng)鏈的安全問題應(yīng)得到更多關(guān)注。因此,必須加強人工智能應(yīng)用供應(yīng)鏈安全評估,尤其對于涉及國計民生行業(yè)中的關(guān)鍵信息基礎(chǔ)設(shè)施相關(guān)的人工智能應(yīng)用,在做好安全評估的基礎(chǔ)上還應(yīng)強化自主可控要求,避免被“卡脖子”。建議規(guī)范人工智能應(yīng)用供應(yīng)鏈安全評估機制并研究評估技術(shù)與方法,促進相關(guān)核心技術(shù)研究以實現(xiàn)自主可控等。此外,考慮到人工智能應(yīng)用越來越多的源自開源軟件領(lǐng)域,建議高度關(guān)注與加強評估開源供應(yīng)鏈安全和開源軟件安全,做好開源領(lǐng)域的風(fēng)險管控。
4)制度與技術(shù)雙輪驅(qū)動負責(zé)任的人工智能應(yīng)用
國家新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能治理原則——發(fā)展負責(zé)任的人工智能》提出了和諧友好、公平公正、安全可控、共擔(dān)責(zé)任等人工智能發(fā)展原則。這些原則的落實對于人工智能應(yīng)用倫理安全問題的應(yīng)對及數(shù)字經(jīng)濟的長遠發(fā)展具有重大意義。因此,必須從制度與技術(shù)兩方面共同采取措施促進發(fā)展負責(zé)任的人工智能應(yīng)用。建議推動人工智能治理規(guī)范的量化評測方法研究并制定相關(guān)規(guī)范制度,促進產(chǎn)學(xué)研協(xié)同研究打造負責(zé)任的人工智能應(yīng)用等。