對(duì)于任何一個(gè)國(guó)家的政策制定者而言,不論可用的數(shù)據(jù)有多么不完美,作出決策的最佳方式都是基于證據(jù)之上。但是,當(dāng)證據(jù)缺乏或者根本不存在時(shí),國(guó)家領(lǐng)導(dǎo)人們應(yīng)該如何做呢?這就是那些不得不應(yīng)對(duì)“高級(jí)預(yù)測(cè)算法”帶來負(fù)面影響的人們面臨的窘境。所謂“高級(jí)預(yù)測(cè)算法”,是一種關(guān)于機(jī)器學(xué)習(xí)和人工智能的二進(jìn)制構(gòu)建模塊。
在學(xué)術(shù)圈里,關(guān)注人工智能的學(xué)者不是“奇點(diǎn)主義者”就是“現(xiàn)代主義者”。前者認(rèn)為雖然人工智能會(huì)對(duì)人類構(gòu)成一定威脅,但總體而言利大于弊;后者關(guān)注新技術(shù)的公平性、可追責(zé)性和透明度,譬如,他們擔(dān)憂自動(dòng)化將對(duì)勞動(dòng)力市場(chǎng)造成何種影響。
基于目前的研究結(jié)果,不存在“可供使用的真相”來支持兩者中任何一方的觀點(diǎn)。顯然,世界需要一個(gè)新的框架來分析和管理人工智能造成的技術(shù)擾動(dòng)。
當(dāng)前,絕大多數(shù)關(guān)于人工智能的決策都發(fā)生在“北半球”,這使得欠發(fā)達(dá)國(guó)家的擔(dān)憂沒有得到足夠的重視,管理軍民兩用技術(shù)也變得更加困難。更糟糕的是,政策制定者往往沒有考慮潛在的環(huán)境影響,僅僅關(guān)注對(duì)自動(dòng)化、機(jī)器人和機(jī)器的人為影響。
而在人工智能領(lǐng)域采取預(yù)防性措施,將幫助重新平衡全球政策討論,在當(dāng)前被企業(yè)利益壟斷的辯論中給予弱者更大的影響力。同時(shí),決策過程也會(huì)變得更具包容性、更加深思熟慮,產(chǎn)出更能反映社會(huì)需求的解決方案。
此外,通過應(yīng)用預(yù)防性原則,治理機(jī)構(gòu)可以將責(zé)任的重?fù)?dān)轉(zhuǎn)移至算法創(chuàng)建者的身上。要求解釋算法決策過程可以改變誘因、防止“黑箱操作”,使得商業(yè)決策變得更加透明,令公共部門在技術(shù)研發(fā)方面有機(jī)會(huì)追趕上私營(yíng)部門。與此同時(shí),通過強(qiáng)迫企業(yè)和政府識(shí)別和考慮多種選項(xiàng),預(yù)防性原則將會(huì)使得此前被忽視的問題,比如環(huán)境影響,受到關(guān)注。
在算法、機(jī)器學(xué)習(xí)和人工智能領(lǐng)域,人類承受不起等待的代價(jià)。預(yù)防性原則的美妙之處不僅在于它是建立的國(guó)際公共法的基礎(chǔ)上,還在于它在各種各樣的科學(xué)場(chǎng)景里構(gòu)建了一種管理創(chuàng)新的框架。在進(jìn)步帶來的益處無(wú)法眾人平等共享時(shí),或者尚未造成不可逆轉(zhuǎn)的傷害時(shí),我們應(yīng)當(dāng)歡迎它。
(本文作者為歐洲大學(xué)學(xué)院跨國(guó)管理學(xué)院政策問題學(xué)者馬切伊·庫(kù)茲穆斯基。)