協(xié)議達成前夕唯一重要的變化就是關(guān)于生成式人工智能模型,“這些模型的設計和開發(fā)必須符合歐盟法律和基本權(quán)利,,包括表達自由,。”
《人工智能法》還禁止“有目的的”操縱,?!坝心康牡摹边@個詞有爭議,,因為可能難以證明故意性,但仍被保留下來,。
另外,,在執(zhí)法、邊境管理,、工作場所和教育領(lǐng)域,,法案要求禁止使用AI驅(qū)動的情緒識別軟件。
歐盟立法者對預測性警務(predictive policing)的禁令從刑事犯罪擴展到了行政犯罪,,其依據(jù)是荷蘭兒童福利丑聞,,該丑聞中成千上萬的家庭因有缺陷的算法而被誤判為欺詐。
高風險分類變化
許多人工智能工具可能被認為是高風險的,,例如用于關(guān)鍵基礎設施,、執(zhí)法或教育的工具。它們比“不可接受”低一級,,因此不會被完全禁止,,但需要在操作中保持高度透明。高風險人工智能的使用者可能需要完成嚴格的風險評估,,記錄他們的活動,,并向當局提供數(shù)據(jù)以供審查。這可能會增加公司的合規(guī)成本,。
最初的提案將某些關(guān)鍵領(lǐng)域和用例的人工智能解決方案自動歸類為高風險,,這意味著供應商必須遵守更嚴格的制度,包括對風險管理,、透明度和數(shù)據(jù)治理的要求,。歐洲議會引入了一個額外的層次,使這些類別的人工智能模型只有在對健康,、安全或基本權(quán)利構(gòu)成重大風險的情況下才會被視為高風險,。
重大風險被定義為“由于其嚴重性、強度,、發(fā)生的概率和影響的持續(xù)時間而具有重大意義的風險,,并且能夠影響一個人,、多個人或一個特定群體”,。
根據(jù)綠黨的要求,用于管理能源網(wǎng)或水系統(tǒng)等關(guān)鍵基礎設施的人工智能,,如果帶來嚴重的環(huán)境風險,,也將被歸類為高風險。
此外,,中左翼立法者還爭取到了一個規(guī)定:根據(jù)《數(shù)字服務法》(DSA)的定義,,超大型在線平臺的推薦系統(tǒng)將被視為高風險,。
歐洲議會議員為高風險人工智能模型的提供者處理敏感數(shù)據(jù)(如性取向或宗教信仰)以檢測負面偏見的過程,納入了額外的保障措施,。此外,,評估必須發(fā)生在受控環(huán)境中。敏感數(shù)據(jù)不能被傳輸給其他方,,并且必須在偏見評估后被刪除,。提供者還必須記錄數(shù)據(jù)處理發(fā)生的原因。
《國家法律評論》4月26日報道稱:“《人工智能法》將產(chǎn)生全球性的影響,,因為它將適用于在歐盟提供或使用人工智能系統(tǒng)的組織,;以及位于第三國(包括英國和美國)的人工智能系統(tǒng)的提供者或使用者,如果這些人工智能系統(tǒng)產(chǎn)生的輸出在歐盟使用,?!?/p>