您現在的位置:首頁 / 最新消息

美、英聯合發布全球首份「安全人工智慧系統開發指引」

  今(2023)年11月26日, 美國國土安全部網路安全暨基礎設施安全局(Cybersecurity and Infrastructure Security Agency, CISA)與英國國家網路安全中心(National Cyber Security Centre, NCSC)聯合發布「安全人工智慧(AI)系統開發指引」(Guidelines for Secure AI System Development),以解決人工智慧與網路安全。

  該指引旨在協助所有開發AI系統的人員,在開發過程中的每個階段做出明智的網路安全決策,以防止AI技術遭濫用,確保客戶和廣大公眾的安全。這份指引是由美國、英國、澳洲、加拿大、紐西蘭、智利、捷克共和國、愛沙尼亞、法國、德國、以色列、日本、尼日利亞、挪威、波瀾、韓國和新加坡等18個國家共計21個機構與部門聯合制定,同時也是全球首份以網路安全為核心的AI系統開發指引。

  「安全AI系統開發指引」依循著「從設計上保障安全」的原則,針對AI系統開發的生命週期的四個階段:設計、開發、部署以及運作和維持,提供一般性建議。具體內容包括在開發階段審查軟體供應商,在部署階段保護數據不被篡改,在運作和維持階段監控和記錄AI系統以避免其被濫用,以及在發布AI模型前要經過適當的安全測試等。然而,該指引並不具有約束力,且並未解決諸如AI的適當用途或如何收集AI模型所需的數據等問題。

  事實上,近年來各國皆致力於制定AI監管規則,以支持安全、可靠和可信賴AI技術的發展,其中立法速度最快的當屬歐盟的《AI法案》(AI Act)。法國、德國和義大利亦於近日達成一項AI監管協議,支持AI供應商透過制定「行為準則」以所謂的AI基礎模型實施具有約束力的「自我規範」,並對其遵守情況進行監管和評估。美國則由於國會未能就如何監管AI取得共識,使其在立法方面進展甚微;儘管如此,美國總統拜登仍於今年10月公布一項行政,要求對國家安全、經濟、公眾健康或安全構成風險的AI系統開發商,在向公眾發布之前,必須與美國政府分享安全測試的結果。此外,該行政命令還指示國土安全部,必須在全球推廣AI安全標準,保護美國網路和關鍵基礎設施,減少AI被用於制造大規模毀滅性武器的風險,以及打擊與AI相關的智慧財產權盜竊。而「安全人工智慧(AI)系統開發指引」即美、英等國在支持安全、可靠和可信賴AI技術發展的最新成果。

【由黃哲融綜合報導,取材自Reuters,2023年11月27日;CISA,2023年11月26日】