路透社
日本內閣個人情報保護委員會今(6/2)警告ChatGPT的母公司OpenAI,在訓練聊天機器人之際,應盡可能減少收集敏感個資,且需經過當事人同意,否則可能開罰。日本是最新一個採取行動的國家,各國已紛紛意識到生成式人工智慧的風險,著手制定相關管制,雖然目前還沒具體法規。本文簡述各國進度:
澳洲:徵詢是否納管的相關意見據澳洲產業與科學部今年4月表示,正和國內主要的科學諮詢機構研討,規劃下一階段的監管措施。
英國:正規劃納管數個單位一起負責草擬人工智慧管制規定,其中一個是金融行為監理總署(FCA),正向艾倫圖靈研究所(Alan Turing Institute)和其他法律、學術機構討教,加強科技知識。
英國今年3月表示,會在人權、公衛、國安、市場競爭這4個監管單位裏選一個負責管理人工智慧議題,不會另創新單位。上月4日,競爭監管機構表示將檢驗人工智慧對消費者、商業和經濟的影響,再決定是否需要推出新管制。
中國:正規劃納管中國網信辦4月公布生成式AI的管控草案,希望企業在推出產品前先送交監管單位評估。北京市經濟和信息化局2月表示,支持領銜企業打造可匹敵ChatGPT的 AI模型。
歐盟:正規劃納管歐盟執委會競爭事務執委維斯塔哲(Margrethe Vestager)5月31日表示,美國與歐盟近月內應該推動AI產業接受一份自願性行為準則,在制定新法規的同時提供保障,有信心歐盟接下來數週內就能提出草案的最後定案。
歐洲議會上月11日則針對一份更嚴格的草案達成共識,將管制生成式AI,還建議禁止臉部監控,將於本月稍晚進行投票。歐洲議會這份草案可能成為全球首部管制生成式AI的綜合法案,重點放在智財權的保護。
歐洲資料保護委員會(European Data Protection Board, EDPB)4月成立了一個關於ChatGPT的特別小組。歐洲消費者組織(European Consumer Organization,BEUC)也呼籲歐洲消費者保護機構調查生成式AI對人們的危害。
G7:徵詢是否納管的相關意見在5月20日日本廣島的G7峰會上,各國承認有必要納管AI和沉浸式科技(VR、AR)等技術,並同意各國相關部長應展開討論,今年年底前提出報告。
峰會前,4月舉行的G7數位技術相關部長會議也指出,成員國應該採取以「風險」為重點的AI管制措施。
愛爾蘭:徵詢是否納管的相關意見愛爾蘭資訊保護委員會主席4月表示,生成式AI需要納管,但不可操之過急地推出禁令。
義大利:調查潛在的違法行為義大利資訊保護局(Garante Privacy)宣布3月禁止使用ChatGPT,並表示將聘請更多AI專家來審查其他AI平台。不過,在OpenAI調整措施、也達到義大利資訊保護局要求後,義大利已於4月恢復ChatGPT的使用。
法國:調查潛在的違法行為義大利因隱私權問題一度禁止使用ChatGPT後,法國資訊與自由全國委員會(CNIL)4月也表示,正在調查關於ChatGPT的投訴。然而,法國國民會議3 月已批准在2024年巴黎奧運期間使用AI影像監控,無視民權組織警告。
西班牙:調查潛在的違法行為西班牙資訊保護局4月表示,正對ChatGPT數據可能外洩事件展開初步調查。此外,也要求歐盟監管單位評估ChatGPT 相關的隱私問題。
美國:徵詢是否納管的相關意見聯邦貿易委員會(FTC)主席5月初表示,正依據現有法規追查AI的危險性,例如可能強化產業龍頭的優勢、或加速詐欺犯罪。
民主黨籍參議員班奈特(Michael Bennet)4月提出法案,要求設立一個特別小組來審查美國當前的AI政策,找出最能避免威脅隱私、公民自由和正當法律程序的方法。
拜登政府4月稍早表示,正針對AI系統的潛在問責機制徵詢大眾意見。拜登已對科技顧問們表示,AI或許有助應對疾病和氣候變遷,但也必須處理AI為社會、國安和經濟帶來的潛在風險。