تمرير قانون الذكاء الاصطناعي الأساسي في تايوان! كيف يتم التعامل مع الاحتيال بالذكاء الاصطناعي؟ سبع مبادئ لمساعدات البطالة، نظرة واحدة على المبادئ السبعة
台灣立法院於 12 月 23 日三讀通過《人工智慧基本法》,確立七大治理原則,國科會為中央主管機關。針對 AI 詐騙、深偽影像,高風險應用須標示警語並建立救濟機制;AI 導致失業者,政府負責輔導就業。然而,民間司改會批評此法像白皮書,缺乏人民權利條文與 AI 濫用禁止清單。
台灣 AI 基本法七大原則框定發展底線
為了確保技術發展不偏離正軌,台灣 AI 基本法明確揭示了政府在推動 AI 研發與應用時必須遵循的七大核心原則。這些原則涵蓋了從技術安全到社會公平的各個層面,形成一個相對完整的治理框架。
永續性原則要求應兼顧社會公平與環境永續,降低數位落差。這意味著 AI 發展不能只服務於科技菁英或都市地區,偏鄉和弱勢群體也應享有 AI 帶來的紅利。人類自主性原則強調尊重人格權與文化價值,允許人類監督,落實以人為本。這是對 AI 完全自主決策的制約,確保人類始終保有最終控制權。
隱私保護及資料治理原則要求妥善保護個資,落實資料最小化原則。這條原則直接回應了民眾對 AI 蒐集過多個人資訊的擔憂。安全性原則要求建立資安防護措施,防範攻擊與威脅。在 AI 系統日益複雜的背景下,資安漏洞可能造成災難性後果。
台灣 AI 基本法七大治理原則
永續性:兼顧社會公平與環境永續,降低數位落差
人類自主性:尊重人格權與文化價值,允許人類監督,落實以人為本
隱私保護及資料治理:妥善保護個資,落實資料最小化原則
安全性:建立資安防護措施,防範攻擊與威脅
透明及可解釋性:適當標記或揭露 AI 產出資訊,提升可信任度
公平性:避免演算法產生偏差或歧視特定群體
可問責性:開發與應用者應承擔相應的治理與社會責任
透明及可解釋性原則要求適當標記或揭露 AI 產出資訊,提升可信任度。這意味著 AI 生成的內容必須明確標示,避免誤導民眾。公平性原則則要避免演算法產生偏差或歧視特定群體。可問責性原則強調開發與應用者應承擔相應的治理與社會責任,這為未來可能的 AI 事故責任歸屬提供了法律基礎。
AI 詐騙與深偽影像的監管手段
針對民眾最關心的 AI 詐騙問題,台灣 AI 基本法提供了初步的管理框架。三讀條文明定政府應避免 AI 應用侵害人民生命、財產或安全,並防範廣告不實、資訊誤導或造假情事。這條原則性規定雖然方向正確,但具體執行細節仍有待各部會的作用法補充。
針對經認定為「高風險應用」的 AI 產品或系統,政府要求必須明確標示注意事項或警語,並應建立救濟、補償或保險機制,以應對可能的損害。這種分級管理思路與歐盟的 AI 法案相似,將 AI 應用分為不同風險等級,對高風險應用施加更嚴格的監管。
然而,什麼構成「高風險應用」?如何認定 AI 詐騙與合法使用的界線?這些關鍵問題在台灣 AI 基本法中尚未明確。例如,使用 AI 生成的名人影像進行商品推銷是否構成詐騙?AI 客服提供誤導性投資建議的責任如何界定?這些具體情境需要後續立法或司法解釋才能釐清。
民間司法改革基金會對此提出嚴厲批評,認為台灣 AI 基本法缺乏明確的禁止清單。司改會呼籲,政府應參考國際標準,明確禁止利用 AI 建立社會評分系統、預測個人犯罪風險,或是在教育與執法場合進行無差別的情緒推測與臉部辨識。這些具體的禁止條款才能真正防範 AI 濫用。
因 AI 失業怎麼辦?輔導就業機制入法
針對 AI 導致失業的疑慮,台灣 AI 基本法明定政府應積極運用 AI 確保勞權,消彌技能落差,並保障尊嚴勞動。對於因 AI 利用而導致失業的人員,政府負有依其工作能力予以「輔導就業」的責任。這是台灣首次在法律層級明確規範 AI 對勞動市場的影響。
輔導就業的具體內容可能包括:職業訓練課程、AI 技能再培訓、就業媒合服務,以及過渡期的生活補助。然而,台灣 AI 基本法並未明確規定補助金額、培訓時長或資格條件,這些細節需要勞動部制定作用法時補充。
台灣人工智慧學校校務長蔡明順認為,基本法的通過代表台灣 AI 治理已從過去的政策宣示,正式進入到法制落地的階段。他強調,接下來的考驗將在於各部會「作用法」的制定,例如金管會針對金融應用的規範、衛福部的醫療認證以及經濟部的製造標準等。
蔡明順建議,產業不能等各部會訂定作用法,要盡快開始盤點內部的 AI 應用,並做風險自評。未來每家公司董事會必須要有人既懂技術又懂 AI 法規,也要建立跨企業的資料聯盟,一起合作技術先做實驗。他特別指出,台灣 AI 基本法第 10 條給了中小企業真正的資源,包括補助、租稅優惠、投資獎勵都有了法律位階。
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تمرير قانون الذكاء الاصطناعي الأساسي في تايوان! كيف يتم التعامل مع الاحتيال بالذكاء الاصطناعي؟ سبع مبادئ لمساعدات البطالة، نظرة واحدة على المبادئ السبعة
台灣立法院於 12 月 23 日三讀通過《人工智慧基本法》,確立七大治理原則,國科會為中央主管機關。針對 AI 詐騙、深偽影像,高風險應用須標示警語並建立救濟機制;AI 導致失業者,政府負責輔導就業。然而,民間司改會批評此法像白皮書,缺乏人民權利條文與 AI 濫用禁止清單。
台灣 AI 基本法七大原則框定發展底線
為了確保技術發展不偏離正軌,台灣 AI 基本法明確揭示了政府在推動 AI 研發與應用時必須遵循的七大核心原則。這些原則涵蓋了從技術安全到社會公平的各個層面,形成一個相對完整的治理框架。
永續性原則要求應兼顧社會公平與環境永續,降低數位落差。這意味著 AI 發展不能只服務於科技菁英或都市地區,偏鄉和弱勢群體也應享有 AI 帶來的紅利。人類自主性原則強調尊重人格權與文化價值,允許人類監督,落實以人為本。這是對 AI 完全自主決策的制約,確保人類始終保有最終控制權。
隱私保護及資料治理原則要求妥善保護個資,落實資料最小化原則。這條原則直接回應了民眾對 AI 蒐集過多個人資訊的擔憂。安全性原則要求建立資安防護措施,防範攻擊與威脅。在 AI 系統日益複雜的背景下,資安漏洞可能造成災難性後果。
台灣 AI 基本法七大治理原則
永續性:兼顧社會公平與環境永續,降低數位落差
人類自主性:尊重人格權與文化價值,允許人類監督,落實以人為本
隱私保護及資料治理:妥善保護個資,落實資料最小化原則
安全性:建立資安防護措施,防範攻擊與威脅
透明及可解釋性:適當標記或揭露 AI 產出資訊,提升可信任度
公平性:避免演算法產生偏差或歧視特定群體
可問責性:開發與應用者應承擔相應的治理與社會責任
透明及可解釋性原則要求適當標記或揭露 AI 產出資訊,提升可信任度。這意味著 AI 生成的內容必須明確標示,避免誤導民眾。公平性原則則要避免演算法產生偏差或歧視特定群體。可問責性原則強調開發與應用者應承擔相應的治理與社會責任,這為未來可能的 AI 事故責任歸屬提供了法律基礎。
AI 詐騙與深偽影像的監管手段
針對民眾最關心的 AI 詐騙問題,台灣 AI 基本法提供了初步的管理框架。三讀條文明定政府應避免 AI 應用侵害人民生命、財產或安全,並防範廣告不實、資訊誤導或造假情事。這條原則性規定雖然方向正確,但具體執行細節仍有待各部會的作用法補充。
針對經認定為「高風險應用」的 AI 產品或系統,政府要求必須明確標示注意事項或警語,並應建立救濟、補償或保險機制,以應對可能的損害。這種分級管理思路與歐盟的 AI 法案相似,將 AI 應用分為不同風險等級,對高風險應用施加更嚴格的監管。
然而,什麼構成「高風險應用」?如何認定 AI 詐騙與合法使用的界線?這些關鍵問題在台灣 AI 基本法中尚未明確。例如,使用 AI 生成的名人影像進行商品推銷是否構成詐騙?AI 客服提供誤導性投資建議的責任如何界定?這些具體情境需要後續立法或司法解釋才能釐清。
民間司法改革基金會對此提出嚴厲批評,認為台灣 AI 基本法缺乏明確的禁止清單。司改會呼籲,政府應參考國際標準,明確禁止利用 AI 建立社會評分系統、預測個人犯罪風險,或是在教育與執法場合進行無差別的情緒推測與臉部辨識。這些具體的禁止條款才能真正防範 AI 濫用。
因 AI 失業怎麼辦?輔導就業機制入法
針對 AI 導致失業的疑慮,台灣 AI 基本法明定政府應積極運用 AI 確保勞權,消彌技能落差,並保障尊嚴勞動。對於因 AI 利用而導致失業的人員,政府負有依其工作能力予以「輔導就業」的責任。這是台灣首次在法律層級明確規範 AI 對勞動市場的影響。
輔導就業的具體內容可能包括:職業訓練課程、AI 技能再培訓、就業媒合服務,以及過渡期的生活補助。然而,台灣 AI 基本法並未明確規定補助金額、培訓時長或資格條件,這些細節需要勞動部制定作用法時補充。
台灣人工智慧學校校務長蔡明順認為,基本法的通過代表台灣 AI 治理已從過去的政策宣示,正式進入到法制落地的階段。他強調,接下來的考驗將在於各部會「作用法」的制定,例如金管會針對金融應用的規範、衛福部的醫療認證以及經濟部的製造標準等。
蔡明順建議,產業不能等各部會訂定作用法,要盡快開始盤點內部的 AI 應用,並做風險自評。未來每家公司董事會必須要有人既懂技術又懂 AI 法規,也要建立跨企業的資料聯盟,一起合作技術先做實驗。他特別指出,台灣 AI 基本法第 10 條給了中小企業真正的資源,包括補助、租稅優惠、投資獎勵都有了法律位階。