中國政府采購報社主辦 財政部指定政府采購信息發(fā)布媒體
當前位置:首頁 >>供應商 >> IT、政采要聞、電子報 >> 歐盟率先發(fā)布人工智能道德準則

歐盟率先發(fā)布人工智能道德準則

欄目: IT,政采要聞,電子報 時間:2019-05-20 18:43:15 發(fā)布:管理員 分享到:
【摘要】

歐盟率先發(fā)布人工智能道德準則

近日,歐盟發(fā)布了一份人工智能道德準則,該準則的提出旨在對人工智能系統(tǒng)的道德框架進行研究、反思和討論,促進“值得信賴”的人工智能發(fā)展。

人工智能道德準則報告由三部分組成。第一部分為可信賴AI實現(xiàn)的基本條件;第二部分為可信賴AI實現(xiàn)的四項倫理準則;第三部分為可信賴AI實現(xiàn)的七個關鍵要素。

可信賴AI實現(xiàn)的三大基本條件

人工智能道德準則的目標是推進可信賴AI的發(fā)展。可信賴AI在系統(tǒng)的全生命周期中需要滿足三個條件:合法、符合倫理、技術穩(wěn)健。所謂合法,是指AI系統(tǒng)應該遵守所有適用的法律法規(guī);所謂符合倫理,是指AI系統(tǒng)應該遵守倫理準則和價值觀;所謂技術穩(wěn)健,是指不管從技術還是社會的角度來看,盡管開發(fā)或使用AI系統(tǒng)的本意是良好的,但是AI系統(tǒng)也可能會造成無意的傷害,所以系統(tǒng)中的每個組件都應該滿足可信賴AI的要求。理想情況下,上述三個條件應該在操作中協(xié)調發(fā)展,一旦出現(xiàn)互為排斥的關系,社會應該通過努力使其保持一致。

全球范圍內的AI系統(tǒng)不能“無法無天”地運作,國際層面、歐洲的一些具有法律約束力的規(guī)則已經適用于當今AI系統(tǒng)的開發(fā)、部署和使用。例如,根據國際人權法律、歐盟條約和歐盟憲章,專家組提出了AI系統(tǒng)應該涵蓋的基本權利,其中有些權利在歐盟是法律強制執(zhí)行的,因此保證這些權利也是法律的基本要求,包括:尊重人的尊嚴(Respect for human dignity),個人自由(Freedom of the individual),尊重民主、正義和法律規(guī)范(Respect for democracy, justice and the rule of law),平等、不歧視和團結(Equality, non-discrimination and solidarity),公民權利(Citizensrights)。法律的制定并不是總能跟上技術發(fā)展的速度。因此值得信賴的AI不僅要遵守法律,也應符合倫理規(guī)范。另外,即便有了道德的限制,無論是個人還是社會都不能保證AI系統(tǒng)不會造成無意識的傷害,因此,AI系統(tǒng)應該確保在其應用領域和全生命周期內穩(wěn)健運行。綜上所述,AI系統(tǒng)是以合法、符合道德、技術穩(wěn)健為基本條件的。

滿足四項道德準則

“可信賴AI”需要滿足四項道德準則。

準則一:尊重人的自主性。AI互動的人類必須能夠充分堅持自己的決定,并參與民主進程。AI系統(tǒng)不應該不合理地從屬、脅迫、欺騙、操縱人類。相反,AI系統(tǒng)的設計應該以增強、補充人類的認知、社會和文化技能為目的。人類與AI系統(tǒng)之間的功能分配應遵循以人為中心的設計原則,這意味著在AI系統(tǒng)的工作過程中要確保人類扮演監(jiān)督其工作的角色。AI系統(tǒng)也可能從根本上改變工作領域,但是它應該在工作環(huán)境中支持人類,并致力于創(chuàng)造有意義的工作。

準則二:預防傷害。AI系統(tǒng)不應該造成、加劇傷害,或以其他任何方式對人類產生不利的影響。AI系統(tǒng)及其運行的環(huán)境必須是安全可靠的。因此AI系統(tǒng)技術上必須是強健的,而且要確保AI技術不會被惡意使用。尤其是弱勢群體在使用AI系統(tǒng)時,應該受到更多關注。AI系統(tǒng)在開發(fā)、部署和使用過程中,均應關注弱勢群體。另外,還需注意AI系統(tǒng)可能導致或加劇由于權力或信息不對稱造成的不利影響。最后還需注意可能會惡意使用該技術的人和可能會造成不良影響的應用場景。

準則三:公平。AI系統(tǒng)的開發(fā)、部署和使用必須是公平的。雖然大眾對公平性可能會有不同的解讀,但是應當確保個人和組織不會受到不公平的偏見、歧視等。如果AI系統(tǒng)可以避免不公平的偏見,就可以增加社會公平性。公平還意味著AI從業(yè)者使用AI時平衡“手段”和“目標”之間的比例原則,為此,AI系統(tǒng)做出的決策以及做決策的過程應該是可提出質疑的并且有補救機制的。

準則四:可解釋性。可解釋性對構建用戶對AI系統(tǒng)的信任是非常關鍵的。也就是說整個決策的過程、輸入和輸出的關系都應該是可解釋的。但目前的人工智能算法和模型都是以黑盒(black box)的形式運行的。(黑盒模型是指諸如神經網絡、梯度增強模型或復雜的集成模型。此類的模型通常具有很高的準確性。然而,這些模型的內部工作機制卻難以理解,也無法估計每個特征對模型預測結果的重要性,更不能理解不同特征之間的相互作用關系。)在這種情況下,可能需要其他可解釋性措施,例如可追溯性、可審計性。

可信賴AI系統(tǒng)應滿足7個關鍵要素

專家組對實現(xiàn)可信賴的AI系統(tǒng)提出了7個關鍵要素。分別是:人工智能自治的治理(人的監(jiān)督)、技術強大性和安全性、隱私和數(shù)據治理、透明度、多樣性、非歧視性和公平性、社會和環(huán)境福祉以及問責。

關鍵要素一:人工智能自治的治理(人的監(jiān)督),即基于人類自治原則,AI系統(tǒng)應該支持人類的自治和決策。這要求AI系統(tǒng)既可以幫助使用者推動社會的民主、繁榮、公平,又能夠促進基本權利的行使,同時允許人類監(jiān)督。AI應與其他科技一樣,可以造福于人,如幫助人類追蹤個人數(shù)據,增加教育的可及性從而保障他們受教育的權利。但是,考慮到AI系統(tǒng)的使用范圍和能力,它們也會對基本權利產生負面影響。因此,應建立外部反饋機制以接收AI系統(tǒng)侵犯基本權利的信息。人類能動性是指,AI用戶應能夠基于AI系統(tǒng)自主作出決策。并且AI系統(tǒng)應賦予他們知識和工具,以便在人類滿意的程度上理解并與AI系統(tǒng)互動,并在可能的情況下,合理地自我評估。人工智能系統(tǒng)應支持個人根據他們的目標做出更好、更明智的選擇。人工智能系統(tǒng)有時可能通過難以被發(fā)現(xiàn)的機制來塑造和影響人類行為,因為它們可能利用潛意識過程,包括各種形式的不公平操縱、欺騙等威脅到人類的自主權。用戶自治的總體原則必須是系統(tǒng)功能的核心。關鍵在于,當決策對用戶產生法律效果或對用戶產生重大影響時,用戶權利不受基于自動化處理的決策約束。人類監(jiān)督是指,人為監(jiān)督有助于確保AI系統(tǒng)不會破壞人的自主權或造成其他不利影響。監(jiān)督可以通過治理機制來實現(xiàn),例如human-in-the-loop (HITL), human-on-the-loop (HOTL), or human-in-command (HIC)方法。HITL指的是在系統(tǒng)的每個決策周期內人為干預的能力。HOTL指的是在系統(tǒng)設計周期內監(jiān)控系統(tǒng)運行的人為干預的能力。HIC指的是監(jiān)督AI系統(tǒng)整體活動的能力(包括其更廣泛的經濟、社會、法律和道德影響)以及決定何時以及如何在任何特定情況下使用該系統(tǒng)的能力。此外,必須確保公共執(zhí)法者有能力根據其任務規(guī)定進行監(jiān)督。根據AI系統(tǒng)的應用領域和潛在風險,可能需要不同程度的監(jiān)督機制來支持其他安全和控制措施。在其他條件相同的情況下,如果人類對AI系統(tǒng)進行的監(jiān)督越少,那么需要進行的測試就越廣泛、管理就越嚴格。

關鍵要素二:技術強大性和安全性。技術強大性要求AI系統(tǒng)的開發(fā)采用可靠的預防性措施防范風險,使其能夠按預期運行,同時盡量減少無意和意外傷害,并防止不可接受的傷害。這一要求也適用于AI操作環(huán)境發(fā)生潛在變化的情況,或以對抗方式與系統(tǒng)交互的其他智能體(人類和人工)出現(xiàn)的情況。此外,還應確保人類的身心健康。

與所有軟件系統(tǒng)一樣,AI系統(tǒng)應該受到保護,免受被攻擊,例如黑客攻擊。攻擊可能針對數(shù)據(數(shù)據中毒)、模型(模型泄漏)或底層基礎設施(包括軟件和硬件)。如果AI系統(tǒng)受到攻擊,例如在對抗性攻擊中,數(shù)據和系統(tǒng)行為被改變,導致系統(tǒng)作出不同的決定,或者導致它完全關閉。系統(tǒng)和數(shù)據也可能因惡意或暴露于意外情形而被破壞。安全程序不足也可能導致錯誤的決策甚至是物理性傷害。為了使AI系統(tǒng)被認為是安全的,應該考慮人工智能系統(tǒng)中潛在的非預期應用和惡意行為者濫用系統(tǒng)。

AI系統(tǒng)應該有一定的安全措施,在出現(xiàn)問題時,使用可以啟用后備計劃。這可能意味著AI系統(tǒng)從統(tǒng)計程序切換到規(guī)則程序,或者它們在繼續(xù)行動之前詢問人類再進行操作,且必須確保系統(tǒng)能夠在不傷害生物或環(huán)境的情況下完成預期的工作,最大限度地減少意外產生。此外,應建立程序對AI系統(tǒng)所在的應用領域潛在風險進行解釋和評估。如果可以預測開發(fā)過程或系統(tǒng)本身會帶來較高風險,那么主動開發(fā)和測試安全措施則至關重要。

此外,準確性與AI系統(tǒng)作出正確判斷的能力有關。明確且完善的開發(fā)和評估程序可以支持、緩解和糾正不準確預測帶來的意外風險。當偶然的不準確預測無法避免時,很重要的一點是系統(tǒng)能夠指出這些錯誤。在AI系統(tǒng)直接影響人類生活的情況下,高準確性非常必要。另外,至關重要的是,AI系統(tǒng)的結果是可靠的,也是可重復的??煽康?/span>AI系統(tǒng)可以在一系列輸入和各種情況下正常工作,這需要仔細檢查AI系統(tǒng)并防止意外傷害??芍貜托灾溉斯ぶ悄軐嶒炘谙嗤瑮l件下重復時能否表現(xiàn)出相同的行為,這使科學家和政策制定者能夠準確描述AI系統(tǒng)的作用。

關鍵要素三:隱私和數(shù)據治理,即根據AI系統(tǒng)應用的領域、其訪問協(xié)議及處理數(shù)據的能力進行的數(shù)據管理,包括使用數(shù)據的質量和完整性。AI系統(tǒng)須在系統(tǒng)的整個生命周期內確保隱私和數(shù)據保護,包括最初由用戶提供的信息,以及在用戶與系統(tǒng)交互過程中產生的關于用戶的信息。人類行為的數(shù)字記錄可以允許AI系統(tǒng)推斷個人偏好、性取向、年齡、性別、宗教或政治觀點,為了使個人信任數(shù)據收集過程,必須確保收集的有關數(shù)據不會被非法使用或使他們受到不公平歧視。另外,所使用的數(shù)據集的質量對AI系統(tǒng)的性能至關重要。收集的數(shù)據,可能包含對社會構造的偏見、不準確、錯誤和誤差。因此,如何確保數(shù)據質量且確保數(shù)據的完整性至關重要。惡意數(shù)據進入AI系統(tǒng)可能會改變其行為,尤其是自學系統(tǒng)。因此,必須在每個步驟(例如規(guī)劃、訓練、測試和部署)中測試和記錄所使用的流程和數(shù)據集,這也適用于其他獲取而非內部開發(fā)的人工智能系統(tǒng)。

關鍵要素四:透明度。即與AI系統(tǒng)相關的數(shù)據、系統(tǒng)和商業(yè)模型的透明度。產生AI系統(tǒng)決策的數(shù)據集和過程,包括數(shù)據收集和數(shù)據標記以及所使用的算法,應予以記錄,以實現(xiàn)可追溯性和提高透明度。這樣可以確定AI決策錯誤的原因,反過來也可幫助防止未來的錯誤??勺匪菪杂兄谔岣呖蓪彶樾院涂山忉屝?。

關鍵要素五:多樣性、非歧視性和公平性,即人類在整個AI系統(tǒng)的生命周期內,通過包容性設計和平等性設計,確保平等訪問可信賴的AI。AI系統(tǒng)(用于訓練和操作)使用的數(shù)據集可能會受制于偏差、不完整和管理不當?shù)葐栴},這類偏見可能導致對某些群體或個人直接、間接侵害和歧視,從而加劇偏見和邊緣化。因此,AI系統(tǒng)開發(fā)者應盡可能在數(shù)據收集階段消除可識別和歧視性偏見。開發(fā)人工智能系統(tǒng)的方式(例如算法編程)也可能遭受不公平的偏見,這可以通過建立監(jiān)督機制來抵消,以清晰透明的方式分析和解決系統(tǒng)的目的、約束、要求和決策。此外,應鼓勵從不同背景、文化和學科招聘開發(fā)人員以保證意見的多樣性。另外,在B2C領域,AI系統(tǒng)應以用戶為中心,允許所有人使用AI產品或服務,無論其年齡、性別、能力或其他特征,特別是殘疾人士均可以使用AI產品和服務。AI系統(tǒng)不應采用一刀切的設計,設計原則應符合相關的可訪問性標準且滿足最廣泛的用戶范圍。所有人能夠平等訪問和積極參與現(xiàn)有和將有的計算機介導的人類活動以及輔助技術。

關鍵要素六:社會和環(huán)境福祉,即根據公平性和預防損害原則,在整個AI系統(tǒng)的生命周期中,更廣泛的社會、其他生命和環(huán)境也應被視為利益相關者。應鼓勵AI系統(tǒng)的可持續(xù)性和生態(tài)責任,并將此研究納入AI解決方案以解決全球關注的問題,如可持續(xù)發(fā)展。理想情況下,人工智能系統(tǒng)應用于使所有人類(包括后代)受益。人工智能系統(tǒng)承諾幫助解決一些緊迫的社會問題,并且盡可能以環(huán)境友好的方式解決。如AI系統(tǒng)的開發(fā)和使用過程,以及整個供應鏈都應該進行這方面的評估。例如:通過對訓練期間資源使用和能源消耗的嚴格審查,選擇危害較小的方式。另外,如果人類在生活的各個方面(教育、工作、健康、娛樂)使用AI系統(tǒng),都可能改變我們對社交媒介的理解,或影響我們的社會關系和依附。雖然人工智能系統(tǒng)可用于提高社交技能,但同樣可以使其惡化,這也可能影響人們的身心健康。因此,必須仔細監(jiān)測和考慮這些負面影響。除了評估人工智能系統(tǒng)的開發(fā)和使用對個人的影響之外,還應從社會角度評估這種影響,同時考慮其對行政機構、民主和整個社會的影響。特別是在與民主進程有關的情況下,仔細考慮使用AI系統(tǒng),包括政治決策、選舉等。

關鍵要素七:問責機制,即建立可審計機制以確保AI系統(tǒng)及其成果在開發(fā)、部署和使用前后的責任和問責。可審計性包含了對算法、數(shù)據和設計過程的評估。但這并不意味著與人工智能系統(tǒng)相關的商業(yè)模型和知識產權需要公開。內部和外部審計人員的評估以及此類評估報告有助于驗證技術的可信度。在影響基本權利的應用中,比如與關鍵安全相關的應用,AI系統(tǒng)進行獨立審計。在實施上述要求時出現(xiàn)的緊張關系會導致不可避免的權衡。這需要確定AI系統(tǒng)所涉及的相關利益和價值觀。如果出現(xiàn)沖突,應明確并權衡其對道德原則(包括基本權利)的風險。在道德上不可接受權衡的情況下,人工智能系統(tǒng)的開發(fā)、部署和使用不應以該形式進行。任何關于權衡的決定都應可解釋并被妥善記錄。決策者必須對權衡的方式負責,并應不斷審查最終決策的適當性,以確保能在必要時修改系統(tǒng)。

(昝妍/編譯)




本報擁有此文版權,若需轉載或復制,請注明來源于中國政府采購報,標注作者,并保持文章的完整性。否則,將追究法律責任。

責任編輯:LIZHENG

本文來源:中國政府采購報第859期第5版
歡迎訂閱中國政府采購報

我國政府采購領域第一份“中”字頭的專業(yè)報紙——《中國政府采購報》已于2010年5月7日正式創(chuàng)刊!

《中國政府采購報》由中國財經報社主辦,作為財政部指定的政府采購信息發(fā)布媒體,服務政府采購改革,支持政府采購事業(yè),推動政府采購發(fā)展是國家和時代賦予《中國政府采購報》的重大使命。

《中國政府采購報》的前身是伴隨我國政府采購事業(yè)一路同行12年的《中國財經報?政府采購周刊》?!吨袊少張蟆芬詫I(yè)的水準、豐富的資訊、及時的報道、權威的影響,與您一起把握和感受中國政府采購發(fā)展事業(yè)的脈搏與動向。

《中國政府采購報》為國際流行對開大報,精美彩色印刷;每周二、周五出版,每期8個版,全年訂價276元,每月定價23元,每季定價69元。零售每份3元??梢云圃隆⑵萍居嗛?。 可以破月、破季訂閱。

歡迎訂閱《中國政府采購報》!

訂閱方式:郵局訂閱(請到當?shù)剜]局直接訂閱)