近日,在2024年世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會上,上海社會科學院、武漢大學、北京郵電大學等15家機構聯(lián)合發(fā)布了《全球人工智能治理研究報告》(以下簡稱《報告》)。該《報告》分析了全球人工智能治理現(xiàn)狀,梳理了全球人工智能治理的重要議題,并提出了構建完善全球人工智能治理體系的目標宗旨、原則共識、行動路徑,為全球人工智能治理提供中國智慧和方案。
2022年人工智能大模型ChatGPT一經(jīng)問世,即刻風靡全球,引發(fā)人工智能投資開發(fā)熱潮,推動人工智能的性能迅速增強,人工智能應用迅速普及,并成為不可阻擋的潮流。就拿我國來說,目前已完成備案并上線為公眾提供服務的生成式人工智能服務大模型近200個,注冊用戶超過了6億,應用范圍涵蓋了工業(yè)、農(nóng)業(yè)、商業(yè)、金融、教育、醫(yī)療等廣泛領域,推動了各行各業(yè)的智能化轉(zhuǎn)型和升級。與此同時,人工智能也帶來眾多可預見和不可預見的風險和挑戰(zhàn),危及個體、社會、國家等不同層面的安全?!秷蟾妗窂娬{(diào),全球人工智能治理攸關全人類命運,是世界各國面臨的共同課題,推進全球人工智能治理是一個長期的過程。
《報告》梳理了全球人工智能治理的十大重要議題,具體包括:國家主權原則和人工智能發(fā)展、社會變革和可持續(xù)發(fā)展、技術創(chuàng)新和產(chǎn)業(yè)發(fā)展、人機情感和生命倫理、內(nèi)容安全風險、模型算法安全風險、數(shù)據(jù)安全和隱私保護、產(chǎn)品責任和風險、知識產(chǎn)權保護、智能鴻溝和國際協(xié)作。透過這些重要議題,有三個重要的治理手段值得大家特別關注。
一是技術手段。人工智能技術是一把“雙刃劍”,對其的治理也離不開技術手段,甚至可以說,技術是人工智能治理的基礎。《報告》指出,人工智能技術的發(fā)展與國家主權問題密切相關,人工智能技術的戰(zhàn)略性發(fā)展可用于維護國家主權、安全、發(fā)展利益,國家主權也面臨著來自技術自主性的挑戰(zhàn);人工智能技術在賦能社會經(jīng)濟發(fā)展的同時,也對原有社會秩序帶來了沖擊;濫用人工智能技術生成錯誤、虛假信息等加劇了內(nèi)容安全風險。對此,《報告》強調(diào),要加強信息交流和技術合作,完善應對人工智能安全風險的技術,不斷提升人工智能技術的安全性、可靠性、可控性、公平性。唯有如此,才能發(fā)揮人工智能技術“善”的一面,確保其以人為本、智能向善,造福人類。
二是倫理規(guī)范。人工智能比以往任何技術都更深入人類社會生產(chǎn)關系,催生了人機混合社會,并在快速重塑人與人的關系。人工智能倫理的核心問題就是要確保人工智能不損害人類的生存條件和環(huán)境,不危害人類生命健康,保障人類的切身利益,促進人類社會的可持續(xù)發(fā)展。《報告》警告,人工智能技術可能引發(fā)根本性的倫理問題,危及人類自身生存和發(fā)展。為此,《報告》強調(diào)全球人工智能治理應當始終堅持“以人為本”的理念,以尊重人類權益為前提,以促進人類可持續(xù)發(fā)展為動力,以提高人類共同福祉為目標。唯有如此,才能將人工智能體培養(yǎng)成一個“好人”,確保智能向善。這也與《全球人工智能治理倡議》提出的“堅持倫理先行”的理念一脈相承。
三是法律規(guī)制。法律是社會規(guī)則的底線,法律通過明確企業(yè)開發(fā)人工智能的規(guī)則,用戶使用人工智能的規(guī)則,政府監(jiān)管人工智能的規(guī)則,防止人工智能被誤用、濫用、惡用,預防人工智能體成為“壞人”?!秷蟾妗分赋龅娜斯ぶ悄軘?shù)據(jù)安全和隱私保護問題、內(nèi)容安全風險、產(chǎn)品責任風險、知識產(chǎn)權保護問題等,均離不開法律的規(guī)制。畢竟算法正義是有局限的——依賴于代碼表達的正義無法映射出完整的社會公平正義。我國已出臺了《生成式人工智能服務管理暫行辦法》等法律文件,前瞻性地積極化解人工智能安全風險。
可見,技術、倫理和法律在人工智能治理中各有側重,相輔相成,有必要構建技術-倫理-法律三位一體的全球人工智能綜合治理體系。我們在推動人工智能技術發(fā)展的同時,應不斷強化倫理規(guī)則和法律規(guī)范,確保人工智能技術的發(fā)展與人類價值觀和倫理原則保持一致。通過國際合作和多方參與,我們可以共同構建一個開放、公正、有效的人工智能治理機制,促進人工智能技術造福全人類,推動構建人類命運共同體。
(作者:北京郵電大學互聯(lián)網(wǎng)治理與法律研究中心主任 謝永江)