29/09/2025
🔹 ธปท. ออกแนวนโยบายการใช้ AI ในภาคการเงิน 🔹
ธนาคารแห่งประเทศไทย (ธปท.) ประกาศ แนวนโยบายการบริหารจัดการความเสี่ยงของการใช้งานระบบปัญญาประดิษฐ์ (AI) เพื่อให้สถาบันการเงินและผู้ให้บริการระบบการชำระเงินใช้ AI อย่างมีความรับผิดชอบ ปลอดภัย และคุ้มครองผู้ใช้บริการ
ทำไมต้องมีนโยบายนี้?
AI ถูกนำมาใช้มากขึ้น ทั้งช่วยตัดสินใจ อนุมัติสินเชื่อ บริการลูกค้า ฯลฯ
หากขาดการกำกับ อาจเกิดความเสี่ยง เช่น ผลลัพธ์ผิดพลาด ขาดความโปร่งใส ข้อมูลรั่วไหล หรือถูกโจมตีทางไซเบอร์
ธปท. ต้องการให้ทุกองค์กรใช้ AI อย่าง โปร่งใส ยุติธรรม รับผิดชอบ และปลอดภัย
ความเสี่ยงที่ต้องระวัง
ข้อมูล – ใช้ข้อมูลไม่ถูกต้อง ไม่หลากหลาย → ผลลัพธ์บิดเบือน
โมเดล – อธิบายไม่ได้ (Explainability ต่ำ) → เสี่ยงต่อการตัดสินใจผิดพลาด
ไซเบอร์ – ถูกโจมตีรูปแบบใหม่ เช่น Prompt Injection, Data Poisoning, Adversarial Attack
หลักการจัดการความเสี่ยง
ผู้ให้บริการต้อง รับผิดชอบผลลัพธ์ของ AI
ต้องดำเนินการตามหลัก FEAT → Fairness, Ethics, Accountability, Transparency
คุมความเสี่ยงตลอด AI Lifecycle ตั้งแต่พัฒนา → ใช้งานจริง
ต้องมีแนวทาง คุ้มครองลูกค้า อย่างชัดเจน
แนวทางปฏิบัติ
1. ธรรมาภิบาล (Governance)
ผู้บริหารต้องรับผิดชอบชัดเจน
มีนโยบาย AI ขององค์กร + ทบทวนสม่ำเสมอ
ระบุความเสี่ยง (Risk Appetite) ติดตามต่อเนื่อง
งานสำคัญ เช่น อนุมัติสินเชื่อ → ต้องมี Human in/over the loop
หาก AI ใช้สื่อสารลูกค้า → ต้องแจ้งลูกค้าทราบ + มีช่องทางคุยกับเจ้าหน้าที่
2. การพัฒนาและความปลอดภัย (Development & Security)
ข้อมูล → ตรวจสอบคุณภาพ คุมการเข้าถึง ป้องกันข้อมูลรั่ว
โมเดล → มีเกณฑ์ประเมิน, ทดสอบด้วย Unseen Data, Edge Cases, ใช้ RAG ลด Hallucination
ไซเบอร์ → ทดสอบการโจมตี, ใช้มาตรฐานสากล (OWASP, MITRE ATLAS)
📌 สรุป
นโยบายนี้ของ ธปท. ไม่ได้ห้ามใช้ AI แต่ต้องการให้ใช้ อย่างมีธรรมาภิบาล ปลอดภัย โปร่งใส และคุ้มครองผู้บริโภค ไม่ว่าระบบจะพัฒนาเองหรือซื้อจากภายนอก องค์กรการเงินทุกแห่งต้องนำไปประยุกต์ใช้