美國生成式人工智能協會 (Association for Generative AI)計算機器全球技術政策委員會 (ACM TPC) 日前發布了《生成式人工智能技術的開發、部署和使用原則》,日前已經由 ACM 的美國技術政策委員會(USTPC)和歐洲技術政策委員會(Europe TPC)通過。
據悉,該原則旨在促進有關生成和所有其他人工智能技術的公平、準確和有益的決策。不過 ACM 方面并未就此敦促推行具體的立法。
ACM 美國技術政策委員會主席 Jeremy Epstein 表示,“我們會直接回應立法機構的意見征詢,但不會對法案或其中的部分內容公開表態。”
ACM 成立于 1947 年,號稱是“世界上最大的科學和教育計算協會”,擁有約 110000 名學生和專業會員。他們認為,生成式 AI 日益強大,或將對社會構成嚴重風險,目前的技術安全使用指南不足,因此需要建立新標準,以確保可規避該技術可能帶來的危害。
▲ 圖源 美國人工智能協會
此次發布的原則中,有四項原則專門針對生成式 AI,另外四項原則改編自 TPC 2022 年的 《負責任的算法系統聲明》原則,IT之家將原則全文置于下方:
生成式 AI 特定原則
部署和使用的限制和指南: 應與所有利益相關者協商,審查和應用書面或修訂的法律和法規,以在需要時限制生成人工智能技術的部署和使用,以最大程度地減少危害。如果沒有明確和充分的保障措施,包括 “human in the loop” 以及相關利益相關者之間的明確共識,即該系統的好處將大大超過其潛在的負面影響,則不應允許任何高風險的人工智能系統運行。一種方法是定義風險等級,最高級別為不可接受的風險,最低級別為最小風險。
所有權:知識產權 (IP) 法律和法規尚未充分考慮生成式人工智能系統的結構和功能的固有方面。
個人數據控制: 生成式人工智能系統應該允許人們選擇不使用他們的數據來訓練系統或促進其信息生成。
可糾正性: 生成人工智能系統的提供者應創建和維護公共存儲庫,可以記錄系統所犯的錯誤,并可以選擇進行更正。
改編的先前原則
透明度: 任何使用生成式人工智能的應用程序或系統都應向適當的利益相關者明確披露。
可審計性和可質疑性: 生成人工智能系統的提供者應確保盡可能記錄系統模型、算法、數據和輸出(適當考慮隱私),以便在適當的情況下對其進行審計和 / 或質疑。
限制環境影響:鑒于生成式人工智能模型對環境的巨大影響,建議就方法論達成共識,以衡量、歸因并積極減少此類影響。