研究案摘要
隨著人工智慧(AI)技術快速發展並日益成熟,世界各國紛紛將AI應用於公共治理,包括行政自動化決策(Automated Decision-Making)、社會服務決策輔助、公共諮詢分析與風險預測等領域。然而,國際間已有若干爭議案例突顯AI應用之風險,例如在社會福利、稅務及移民政策導入AI所引發的決策誤判與不當差別對待事件,促使各國開始重視公部門應用AI可能產生的風險與責任分界。這些公部門AI應用爭議案例顯示,公部門若未事先建立完善的風險評估框架,搭配責任歸屬機制與監督制度,AI不僅難以發揮增進行政治理的效能,反而可能侵蝕民主治理基礎並削弱社會信任。
本研究擬從多面向切入主題,分析公務機關應用AI的責任概念、實務應用的情境挑戰,及對應的責任分配與歸屬,以及如何借鑑國際經驗,進而提出適用於本國的制度或配套措施的設計建議。為探究AI導入機關可能引發的責任議題、制度配套措施的需求,本研究將結合法制面向與實務觀點,採取分階段、跨方法的研究設計。研究將以國際經驗為起點,輔以實務訪談與領域專家意見,逐步建構適用於我國的分析框架與政策建議,使成果兼具理論深度與操作可行性。