據美國《科學》雜志網站19 日報道,歐盟委員會發布新計劃稱,將制定法律嚴格監管高風險人工智能(AI)技術,更新歐盟2018 年AI 發展戰略,未來在AI 研發領域投資數十億美元等,以進一步促進歐盟AI 產業發展。
該委員會將起草新法律,管理AI 技術的高風險應用,例如在醫療設備、自動駕駛汽車內的應用等。盡管這些法律將比歐盟以往發布的任何法律都更廣泛且更嚴格,但歐洲委員會主席烏爾蘇拉·馮·德·萊恩表示,這些法律的目的是促進“信任,而非恐懼”。
歐盟委員會指出,確定某些應用是否是“高風險”應用有一套準則。例如,是否會導致人受傷、或者會導致人對機器人決定(如AI 用于招聘或警務活動)沒有任何發言權。歐盟委員會希望,高風險應用需要人工監督。
法律還將確定誰為AI 系統的行為負責:使用AI 系統的公司還是設計AI 系統的公司。高風險應用程序必須被證明遵守法規,才能在歐盟內廣泛使用。
此外,這些法律還將管理用于訓練AI 系統的大型數據集,以確保它們合法采購、來源合法。歐盟委員會反壟斷專員瑪格麗特·維斯塔格說:“AI 系統可靠的基礎是技術強大且準確。”
歐盟委員會表示,將就“面部識別AI 系統在歐洲范圍內開展一場廣泛的討論”。盡管德國等歐盟國家已宣布部署這些系統的計劃,但官員們表示,這些系統經常違反歐盟隱私法,包括有關警察工作的特別規定。
新AI 計劃不僅涉及法規,歐盟委員會還將提出一項“行動計劃”,將人工智能整合到交通和醫療等公共服務中,并將更新歐盟2018 年人工智能發展戰略,該戰略擬投入15 億歐元用于AI 研究。此外,歐盟委員會呼吁開展更多研發,包括創立AI“卓越和測試中心”,投資數十億美元建立新型AI 產業合作伙伴關系等。