【財(cái)新網(wǎng)】(記者 葉展旗)在人工智能(AI)發(fā)展過程中,真正的風(fēng)險(xiǎn)并不是人們想象的超級智能,而是現(xiàn)已涌現(xiàn)的安全、倫理問題。10月31日,在2019北京智源大會(huì)上,中國科學(xué)院自動(dòng)化研究所研究員曾毅接受財(cái)新等采訪時(shí)表示,實(shí)際上很多企業(yè)對存在的風(fēng)險(xiǎn)視而不見,人工智能的健康發(fā)展,一定是治理和發(fā)展雙輪驅(qū)動(dòng),要保證它向著正確的方向發(fā)展。
曾毅舉例稱,當(dāng)用對抗神經(jīng)網(wǎng)絡(luò)生成一個(gè)烏龜?shù)?D模型,谷歌的分類系統(tǒng)就有80%的幾率,把這個(gè)烏龜?shù)哪P妥R別成來福槍,另外20%的幾率識別為其它的東西,但也絕對不會(huì)是烏龜。這也就是說,系統(tǒng)沒有一次能把3D烏龜模型成功識別出來。因?yàn)閷股窠?jīng)網(wǎng)絡(luò)改變了3D烏龜模型的局部紋理,使得基于統(tǒng)計(jì)意義的分類系統(tǒng),沒有辦法把它識別出來。