政府推動AI為基礎的創新應用機制
展出日期:2025-12-02
隨人工智慧(AI)技術快速發展及成熟,各國政府也將AI應用於公共治理,包括行政自動化決策(Automated
Decision-Making, ADM)、社會服務決策輔助、公共諮詢分析與風險預測等領域。然而,因AI而產生的風險及爭議—如個資隱私、資料偏誤等可能造成決策錯誤,影響人民權益。從行政角度,缺乏明確的法治框架及課責機制亦導致公務人員卻步使用AI,不利於推進創新政策。這皆凸顯事先建立完善的風險評估框架,及搭配責任歸屬與監督機制的重要性。
各國政府展現多元的法制措施作為因應。如歐盟制定《歐盟人工智慧法》(EU AI Act)將AI使用風險分級,針對涉及基礎公共服務(如社會救助、醫療、教育、執法、移民、司法行政)之「高風險AI系統」訂定高風險AI系統部署者的義務(Obligations of deployers of high-risk AI
systems)規範,內容包含使用要求、監督管理及系統監測機制、資料代表性及高敏性等,如違反則需負擔法律或行政責任[1]。
美國以《AI問責框架》(AI Accountability
Framework)為治理架構,以治理、資料、執行、監控四大原則為核心,讓公務人員在各階段AI系統生命週期皆有法可循,明確責任分屬及達到制度化管理的要求[2];另外,美國在2025年發布第M-25-21號與第M-25-22號備忘錄,要求機構需建立AI最低風險管理措施(minimum risk management practices)及指定高層負責人,強化責任追溯及透明的監督機制[3]。
澳洲曾因ADM演算法錯誤追繳社會福利債務,侵害人民權益及重創民眾對政府及AI應用於公共治理的信任[4],該事件調查報告指出澳洲政府應建立ADM法規制度與治理架構,確保利害關係人救濟與審查途徑及第三方監督機制[5];另外澳洲政府雖頒布《自動化決策最佳實踐指引》(Automated Decision-Making Better Practice Guide)提供公務機關與公務人員在導入ADM系統時,具透明、可解釋與負責任的運作原則,然而尚不具法律拘束力,公務機關與人員即便遵循指引,仍需承擔相關法律責任[6]。
加拿大聯邦政府於2019年發布《自動化決策指令》(Directive on Automated Decision-Making, DADM)要求各部會在採購、設計、部署、及維運各階段進行演算法影響評估(Algorithmic Impact Assessment, AIA),並根據影響等級有不同程度的治理義務,該指令與影響評估助於保存法律責任的證據及明確公務人員職務責任,形成透明可被稽核的責任鏈[7, 8]。
臺灣近年積極推行AI導入公共治理,2023年發布《臺灣AI行動計畫2.0》作為AI政策綱領[9],並相繼發布《行政院及所屬機關(構)使用生成式AI參考指引》[10]、及《公部門人工智慧應用參考手冊》(草案)[11]等作為公部門導入AI的依循參考,臺北市政府也於2024年9月公告執行其《臺北市政府使用人工智慧作業指引》[12],參考歐盟AI風險分級制度,並涵蓋課責制、安全性、透明性與可解釋性、公平且無歧視、隱私與個資保護六大責任。然而上述規範皆未明確說明責任分屬及公務人員承擔風險後之保障機制,且皆不具法律拘束力,屬機關自願遵循,因此使公務人員應用AI的意願受到影響,AI導入公共治理推行受阻。數位治理中心受託研析公部門應用AI的課責機制,期望借鑑國際經驗,進而提出適用我國制度的配套措施及建議。
參考來源
[1] European Parliament, Artificial Intelligence
Act. June, 2024, https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2021)698792#:~:text=The%20European%20Commission%20tabled%20a,AI%20systems%20and%20associated%20risks.#:~:text=The%20European%20Commission%20tabled%20a,AI%20systems%20and%20associated%20risks. (last visited November 16, 2025).
[2] US Government Accountability Office,
Artificial Intelligence: An Accountability Framework for Federal Agencies and
Other Entities, June 30, 2021,
https://www.gao.gov/products/gao-21-519sp (last visited July 30, 2025).
[3] US OMB, Memorandum For The Heads of Executive
Departments and Agencies, https://www.whitehouse.gov/wp-content/uploads/2025/02/M-25-21-Accelerating-Federal-Use-of-AI-through-Innovation-Governance-and-Public-Trust.pdf?utm_source=chatgpt.com (last visited July 30, 2025).
[4] Michelle Nemec, Robodebt Illegality and How
Expediting Automated Decision-Making Failed to ‘Take the Bull by the Horns, https://classic.austlii.edu.au/au/journals/UNSWLawJlStuS/2023/6.html#:~:text=B%20Definition%20of%20Automated%20Decision%2DMaking&text=ADM%20systems%20range%20from%20traditional,key%20points%20of%20the%20process. (last visited July 30, 2025).
[5] Australia Royal Commission into the Robodebt
Scheme, July 7, 2023, https://robodebt.royalcommission.gov.au/publications/report (last visited July 30, 2025).
[6] Commonwealth Ombudsmen, Automated
Decision-Making Better Practice Guide, 2024, https://www.ombudsman.gov.au/__data/assets/pdf_file/0025/317437/Automated-Decision-Making-Better-Practice-Guide-March-2025.pdf?utm_source=chatgpt.com (last visited July 31, 2025).
[7] Government of Canada, Guide on the Scope of
the Directive on Automated Decision-Making, https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/guide-scope-directive-automated-decision-making.html?utm_source=chatgpt.com (last visited July 31, 2025).
[8] Government of Canada, Algorithmic Impact
Assessment Tool, https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html (last visited July 31, 2025).
[9] 行政院智慧國家推動小組 (2023年2月)。臺灣 AI 行動計畫 2.0 (2023-2026 年) (核定本)。引用自:https://digi.nstc.gov.tw/File/7C71629D702E2D89
[10] 國家科學及技術委員會。行政院及所屬機關(構)使用生成式 AI 參考指引。引用自:https://www.nstc.gov.tw/folksonomy/list/c79bf57b-dc94-4aff-8d14-3262b5559cfc?l=ch
[11] 數位發展部。公部門人工智慧應用參考手冊(草案)。引用自:https://moda.gov.tw/digital-affairs/digital-service/guide/15002
[12] 臺北市政府。臺北市政府使用人工智慧作業指引。引用自:https://smartcity.taipei/cp.aspx?n=B62A305B042D90DD
留言討論
COMING SOON