歐盟最新修訂的「人工智慧法(The Artificial Intelligence Act,AIA)」草案文本中,添加了一項新條款- ChatGPT 等生成式 AI 模型的製造商將被要求披露在構建其 AI 系統時所使用的版權材料。該草案預計將成為西方首個專門為監管人工智慧所推出的綜合規則,未來很可能在全球範圍內被參考和採用。
(前情提要:歐洲ChatGPT封殺潮》德國:恐效仿義大利禁用;法國、愛爾蘭尋求依據)
(背景補充:AI封殺潮》ChatGPT遭德法、瑞典..調查,VPN翻牆成必備工具?)
據華爾街日報今(28)日報導,歐洲議會談判代表達成一項早期協議,在歐盟的 AI 草案中增添新條款,要求生成式人工智慧模型的開發人員必須發布一份「足夠詳細的摘要」,說明他們在訓練 AI 模型過程中所使用的版權材料。
像是 ChatGPT 這樣的生成式 AI 模型可以學習數十億個現有文本、圖像、影像或音樂片段來創建新的內容,如行銷文案、繪圖和歌曲等。
版權方或能從中獲利
自 ChatGPT 去年底徹底引爆 AI 熱度以來,如何處理在訓練生成式 AI 模型時使用版權材料的問題一直存在爭議。
現在這項新規定可能會提振出版業者和其他創意工作者,這種披露義務將為他們提供一種新的武器以獲取利潤,未來他們將有望得知他們的版權內容在多大程度上被用於訓練生成式 AI 模型,並有機會從中獲得補償。
歐洲議會議員,同時擔任該機構人工智慧特別委員會主席的 Dragoş Tudorache 對最新規定評論稱:
「這為版權持有者打開了大門。我們的目標是加強對這些 AI 模型的問責制、透明度和審查。」
路透則援引知情人士說法稱,該條款是在過去兩週內擬定的,「一些委員會成員最初提議完全禁止將受版權保護的材料用於訓練生成式 AI 模型,但由於透明度要求而被放棄。」
延伸閱讀:傳ChatGPT-5年底推出!OpenAI放話:智慧遠超人類,可能對世界帶來巨大風險
歐盟目標在年內通過人工智慧法
歐盟最新的 AI 法案的草案文本還添加其他條款,包括要求生成式 AI 模型的開發人員在設計時必須提供足夠的保護措施,以防這些機器人創建違反歐盟法律的內容,如兒童色情內容;此外也要求這些 AI 模型的開發商證明他們正在識別和減輕可預見的風險,例如有關健康和安全或法治方面。
草案也指出, 未來會將 AI 工具根據其感知風險級別進行定義並分級:從最低到有限、高和不可接受。 被評估有風險的領域可能包括生物識別監控、傳播錯誤資訊或歧視性語言。雖然被分類為高風險的 AI 不會被禁止,但使用它們的人需要在操作中保持高度透明。
歐盟的人工智慧法案於 2021 年出台,並在去年 12 月獲得歐盟理事會批准,歐洲議會成員現已同意將草案推進到下一階段,即歐盟執委會、歐洲議會及歐盟部長理事會得三方協商,在此期間,歐盟立法者和成員國將討論該法案的最終細節,目標是在今年晚些時候談判並通過該法案的最終版本。
📍相關報導📍
ChatGPT洩漏個資》OpenAI 緊急下線、道歉!1.2%付費版用戶支付資訊恐外洩
里程碑!歐盟批准加密監管法《MiCA》,幣安CZ:世界最大市場擁抱Web3