對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)兼職教授邵長茂在《數(shù)字法治》撰文指出,人工智能正在一點(diǎn)一點(diǎn)地當(dāng)然也是迅速地顛覆著人類既有的社會(huì)結(jié)構(gòu)、組織形式和生活狀態(tài)。在這個(gè)過程中,一定會(huì)有大量的、意想不到的風(fēng)險(xiǎn)出現(xiàn)。對(duì)于這些風(fēng)險(xiǎn),有兩種應(yīng)對(duì)方式:一種是搭建法治軌道,另一種是劃出法治邊界。
搭建法治軌道,就是設(shè)定目的地,至少有明確的方向;嚴(yán)格的過程控制,以及標(biāo)準(zhǔn)化的流程;對(duì)發(fā)展規(guī)律的全面把握,加上完備的制度體系。比如,正在制定的歐盟《人工智能法案》要求在人工智能發(fā)展過程中進(jìn)行前置規(guī)劃和連續(xù)監(jiān)督,以嚴(yán)格縝密的規(guī)范體系引導(dǎo)技術(shù)前行,這就是典型的軌道性立法。但是,對(duì)我國而言,人工智能立法宜采用法治邊界模式而非法治軌道模式。這是因?yàn)?,人工智能還處于質(zhì)變前夜,方向未明,標(biāo)準(zhǔn)的制式監(jiān)管既不現(xiàn)實(shí)更不合時(shí)宜。實(shí)際上,歐盟法案也建立了監(jiān)管沙盒機(jī)制,允許并不成熟的技術(shù)與社會(huì)直接接觸,通過監(jiān)管上的極大松動(dòng)和更加靈活的機(jī)制為人工智能發(fā)展拓展空間。
劃出法治邊界,就是在法律上劃出人工智能發(fā)展不能逾越的紅線,并列明具體的負(fù)面清單。具體來說,應(yīng)基于產(chǎn)業(yè)發(fā)展、權(quán)利保護(hù)、倫理捍衛(wèi)三原則,分別從技術(shù)、社會(huì)和倫理的層面研究與應(yīng)對(duì)風(fēng)險(xiǎn)。就技術(shù)層面而言,至少有三類風(fēng)險(xiǎn):人工智能技術(shù)自身導(dǎo)致的不確定風(fēng)險(xiǎn),人工智能偏離設(shè)計(jì)應(yīng)用的風(fēng)險(xiǎn),人工智能技術(shù)被非法使用、濫用的風(fēng)險(xiǎn)。就社會(huì)層面而言,至少有三類風(fēng)險(xiǎn):算法歧視、深度偽造、錯(cuò)誤信息等造成的混亂和失序,個(gè)體失業(yè)和社會(huì)失常風(fēng)險(xiǎn),經(jīng)濟(jì)上的過分不平等和權(quán)力過分集中風(fēng)險(xiǎn)。就倫理層面而言,至少有三類風(fēng)險(xiǎn):反人類的風(fēng)險(xiǎn),異化人類的風(fēng)險(xiǎn),奴役人類的風(fēng)險(xiǎn)。
為了有效管控風(fēng)險(xiǎn),可從三個(gè)維度建立類型化、立體式的監(jiān)管體系,提升監(jiān)管措施的區(qū)分度和顆粒度。一是區(qū)分應(yīng)用場(chǎng)景?;谌斯ぶ悄芗夹g(shù)廣泛應(yīng)用于政務(wù)、金融、醫(yī)療、教育、交通、零售、物流等領(lǐng)域的實(shí)際,區(qū)分不同的業(yè)務(wù)場(chǎng)景和行業(yè)場(chǎng)景制定監(jiān)管政策。二是區(qū)分清單內(nèi)外。在清單內(nèi)的應(yīng)當(dāng)適用許可制,并進(jìn)行全程監(jiān)管;在清單外的,可適用備案制,并進(jìn)行重點(diǎn)環(huán)節(jié)監(jiān)管。三是區(qū)分風(fēng)險(xiǎn)程度。對(duì)不同類別以及不同程度的風(fēng)險(xiǎn)進(jìn)行分類分級(jí),適用不同的監(jiān)管政策。類型化的處理方式是由人工智能的特性決定的,有效的人工智能技術(shù)無疑就是一種“魔法”,能夠帶來顛覆性變革,讓生活更美好,當(dāng)然也可能更糟糕。人工智能立法應(yīng)基于不同的風(fēng)險(xiǎn)情形,明確完全禁止、部分禁止、有條件開放、完全開放的范圍,明確事前許可、事前備案、事后備案、完全自主的情形,明確全程監(jiān)管、重點(diǎn)環(huán)節(jié)監(jiān)管、無需監(jiān)管的條件。