日期:2022年12月
計畫主持人:李淳 Lee, Roy Chun
研究人員:王煜翔Wang, Yu-Shung
l 為防範運用人工智慧(AI)所衍生的新興安全風險,歐盟自2021年開始研擬《AI法律調和規則(Artificial Intelligence Act)》,預計針對AI應用採取風險分級之監管方式,將高風險AI納入上市前規範、後市場監督等規範要求。本研究第一階段優先針對AI法律調和規則草案之規範重點進行說明,並著手評估對我國業者可能產生之主要影響;
l 第一階段影響評估報告之分析結果指出:歐盟AI法律調和規則對涉及AI高風險AI應用類別之業者衝擊影響較大,對應歐盟透明化要求須及早在開發階段做出因應。此外,基於AI技術發展之特性,調和規則採行監管查核要求可能對AI創新活動產生阻礙,延宕系統業者開發AI系統與導入應用端之進程,另一方面,亦將衍生AI規範領域專業人才之需求。歐盟AI法律調和規則實施細節尚在研議中,應持續關注適用範圍、透明化義務等重點規範,以及相關規範對中小企業之影響;
l 歐盟草擬之新機械法規將確保機械安全功能的軟體、結合AI之機械產品列為潛在高風險產品,相關產品進入歐盟市場需經第三方驗證其安全性。同時,新法亦要求製造商將學習與自主行為所衍生之安全風險納入風險評估。新法將資訊安全(Cyber Security)列為產品安全要求項目(EHSR)之一,透過強化控制系統之資安功能,防範第三方惡意改動、網路攻擊等事件可能引發的機械安全性問題。
l 影響評估報告進一步指出:歐盟新機械法規將AI、用於安全功能的軟體附加較為嚴格的第三方驗證要求、風險評估義務以及後市場安全數據蒐集義務,會增加機器人產品成本、管理費用以及延後產品上市時間。歐盟應在法規實施之前及早公布內容,並給予業者足夠的時間進行調整。除此之外,針對新法推動符合性聲明、驗證資訊之電子化,部分業者關切驗證資訊的無紙化,可能導致業者必須要求上下游廠商配合調整設備與作業流程,以及業者必須同時維持紙本與電子化兩種作業方式。
l 第二階段本研究歸納產業報告與專家訪談之意見,指出:AI應用業者關切重點集中在研發、使用之AI是否被認定屬於AI調和規則所界定之高風險AI;針對歐盟機械法規草案,業者主要關切歐盟如何認定產品涉及運用AI技術之安全功能、產品是否會被歐盟認定為高風險之機械產品在歐盟上市前必須通過第三方驗證、新法下系統供應商與系統整合商之責任分配,以及歐盟驗證機構之量能問題。
l 因應台灣與歐盟推動機器人產業對話,第二階段報告針對臺歐機器人對話討論議題提出建議如下:
² 將「歐盟如何協助業者釐清法規適用範圍」列為臺歐對話機制之討論議題;
² 針對「歐盟如何認定產品涉及AI運用於安全功能」此一問題進行案例討論;詢問目前歐洲議會(或內部)有關安全功能定義的討論進展;
² 向歐方詢問在法規研擬過程中,是否有針對「實質改動」之具體案例進行討論,如有,亦請歐方能提供相關資訊協助我方釐清系統供應商與系統整合商的法規責任分配問題。
² 詢問歐盟是否已經著手評估合格驗證機構之認證工作進度與量能? 是否有規劃採行相關配套措施因應?
英文:https://web.wtocenter.org.tw/EN/Page?nid=145&pid=387935