當地時間3月13日,歐洲議會正式通過了《人工智能法》,以下是相關情況和內容概要。
當地時間周三,歐洲議會以523票贊成、46票反對、49票棄權通過了具有里程碑意義的《人工智能法》(AI Act),使得歐盟在對這項顛覆性技術的監管方面走在了世界前列,很可能會為整個西方的AI監管規則定下基調。
歐洲議會表示,《人工智能法》旨在保護基本權利、民主、法治和環境可持續性不受高風險人工智能的影響,同時促進創新,使歐洲成為該領域的領導者。該法規根據人工智能的潛在風險和影響程度為人工智能規定了義務。
歐盟內部市場專員蒂埃里·布雷頓表示,《人工智能法》獲得了壓倒性支持,這是世界上第一個全面、有約束力的可信賴AI框架,歐洲現在是值得信賴的AI標準制定者。
微軟、OpenAI等生產強大、復雜和廣泛使用的AI模型的公司也將受到披露要求的約束。它還要求所有AI生成的內容(圖像、音頻或視頻等)都要有明確的標簽,以解決人們對虛假信息和干預選舉的擔憂。
接下來,該法案還需要得到歐盟理事會的正式批準,使之成為法律。不過,最艱難的立法階段已經過去,距離最終出臺僅剩一步之遙了。
預計《人工智能法》將于明年初生效,并于2026年正式實施,不過其中一些條款將提前生效。
立法中備受關注的規定,簡要概述如下:
禁止的應用
該法禁止某些威脅公民權利的人工智能應用,包括基于敏感特征的生物識別分類系統,以及從互聯網或閉路電視錄像中無針對性地抓取面部圖像以創建面部識別數據庫。工作場所和學校的情感識別、社會評分、預測性警務(僅基于對一個人的畫像或評估其特征)以及操縱人類行為或利用人們弱點的人工智能也將被禁止。
執法豁免
原則上禁止執法部門使用生物特征識別系統,除非符合詳盡列舉和狹義界定的情形。“實時”遠程生物特征識別只有在滿足嚴格保障的情況下才能使用,例如,其使用在時間和地理范圍上受到限制,并事先獲得具體的司法或行政授權。這種用途可包括,例如,對失蹤人員進行有針對性的搜索或防止恐怖襲擊。事后使用此類系統(“事后遠程RBI”)被認為是一種高風險用例,需要與刑事犯罪有關的司法授權。
高風險系統的義務
對于其他高風險人工智能系統(由于其對健康、安全、基本權利、環境、民主和法治的重大潛在危害),也規定了明確的義務。高風險人工智能應用的例子包括關鍵基礎設施、教育和職業培訓、就業、基本的私人和公共服務(例如,醫療保健、銀行業)、執法、移民和邊境管理、司法和民主程序(例如,影響選舉)中的某些系統。這種系統必須評估和減少風險,保持使用日志,透明和準確,并確保人為監督。公民將有權提交對人工智能系統的投訴,并獲得對基于高風險人工智能系統做出的影響其權利的決定的解釋。
透明度要求
通用人工智能(GPAI)系統及其所基于的GPAI模型必須滿足一定的透明度要求,包括遵守歐盟版權法和發布用于訓練的內容的詳細摘要。更強大的GPAI模型可能會帶來系統性風險,將面臨額外的要求,包括進行模型評估,評估和減輕系統性風險,并報告事件。
此外,人造或人工處理的圖像、音頻或視頻內容("深度偽造")需要明確標注。
支持創新和中小企業的措施
必須在國家層面建立監管沙盒和真實世界測試,并向中小企業和初創企業開放,以便在創新性人工智能投放市場之前對其進行開發和訓練。
