กติกาใหม่ยุค AI ในอุตสาหกรรมประกันภัย
สำนักงานคณะกรรมการกำกับและส่งเสริมการประกอบธุรกิจประกันภัย (สำนักงาน คปภ.) เดินหน้าวางกรอบการกำกับดูแลการใช้งานปัญญาประดิษฐ์ (AI) ในอุตสาหกรรมประกันภัยอย่างจริงจัง เพื่อให้ธุรกิจประกันภัยรับมือกับ ความเสี่ยงรูปแบบใหม่ที่มากับเทคโนโลยี ได้อย่างมั่นคงและมีความรับผิดชอบ
จุดเริ่มต้นคือการเปิดประชาพิจารณ์ (Public Hearing) ต่อร่าง “แนวปฏิบัติการกำกับดูแลการใช้งานปัญญาประดิษฐ์ สำหรับบริษัทประกันภัย (AI Governance Guideline)” หลังจากที่มีการพูดคุยในวง Focus Group ร่วมกับภาคธุรกิจมาแล้วก่อนหน้านี้
ร่างแนวปฏิบัตินี้ถูกออกแบบมาเพื่อให้การใช้นวัตกรรม AI ในธุรกิจประกันภัยเป็นไปอย่างมีความรับผิดชอบ สอดคล้องกับหลัก Risk-Based Proportionality คือเข้มข้นพอเหมาะกับลักษณะธุรกิจและความซับซ้อนของเทคโนโลยี ไม่มากไป ไม่น้อยไป
4 เสาหลักของแนวปฏิบัติ AI สำหรับบริษัทประกันภัย
สาระสำคัญของร่างแนวปฏิบัติครอบคลุม 4 มิติใหญ่ ที่ถือเป็นเสาหลักของการใช้ AI อย่างปลอดภัยและเป็นธรรมในระบบประกันภัย
1. การกำกับดูแลการใช้งาน AI (AI Governance)
ประเด็นแรกคือการวางโครงสร้างการกำกับดูแลที่ชัดเจน ตั้งแต่ระดับนโยบายไปจนถึงระดับปฏิบัติการ โดยเน้นให้บริษัทประกันภัยต้องมี
โครงสร้างการบริหารจัดการ AI ที่ชัดเจน
การกำหนดบทบาทและความรับผิดชอบของแต่ละฝ่ายอย่างโปร่งใส
การส่งเสริมความรู้และความเข้าใจเรื่อง หลักจริยธรรม และ การบริหารความเสี่ยงจาก AI ให้กับบุคลากรทุกระดับ
เป้าหมายคือทำให้การใช้เทคโนโลยี AI ในองค์กรเป็นไปอย่าง ตรวจสอบได้ โปร่งใส และมีผู้รับผิดชอบชัดเจน ไม่ใช่ปล่อยให้ระบบทำงานโดยไร้เจ้าภาพ
2. ความทนทานและความมั่นคงปลอดภัยของระบบ AI (Robustness and AI Security)
อีกด้านหนึ่งที่ คปภ. ให้ความสำคัญคือ ความปลอดภัยของระบบ AI ทั้งในมุมเทคนิคและมุมไซเบอร์ องค์กรต้องมีมาตรการครอบคลุมตลอดวงจรชีวิตของระบบ ตั้งแต่เริ่มต้นออกแบบไปจนถึงการใช้งานจริง
แนวทางสำคัญ เช่น
การออกแบบระบบให้มีความปลอดภัยตั้งแต่ต้น (Secure by Design)
การจัดการช่องโหว่และอัปเดตระบบอย่างต่อเนื่อง
การบันทึกเหตุการณ์ (Log) เพื่อให้สามารถตรวจสอบย้อนหลังได้
การสำรองข้อมูลและเตรียมแผนกู้คืนข้อมูล เมื่อเกิดเหตุไม่คาดคิด
ทั้งหมดนี้ก็เพื่อให้ระบบ AI ของบริษัทประกันภัยมีความทนทาน พร้อมรับมือทั้ง ความผิดพลาด และ ภัยคุกคามทางไซเบอร์ ได้อย่างเป็นระบบ
3. ความโปร่งใสและความสามารถในการอธิบาย (Transparency and Explainability)
ในโลกประกันภัย การตัดสินใจด้วย AI อาจมีผลกระทบโดยตรงต่อสิทธิและประโยชน์ของผู้บริโภค เช่น การพิจารณารับประกัน การกำหนดเบี้ย หรือการจ่ายค่าสินไหม แนวปฏิบัตินี้จึงย้ำว่า บริษัทต้องทำให้ AI
อธิบายได้ ว่าตัดสินใจอย่างไร
บอกได้ว่ากระบวนการประมวลผลเป็นแบบไหน
แสดงเหตุผลที่อยู่เบื้องหลังผลลัพธ์ของ AI ได้อย่างชัดเจน
เป้าคือการสร้าง ความเชื่อมั่น ให้กับทั้งผู้ใช้งานภายในองค์กรและผู้บริโภคภายนอก ไม่ให้รู้สึกว่า AI เป็น “กล่องดำ” ที่ไม่มีใครเข้าใจ
4. ความเป็นธรรมและการคุ้มครองผู้บริโภค (Fairness and Consumer Protection)
หัวใจข้อสุดท้ายคือเรื่อง ความเป็นธรรม โดยเน้นว่า AI ในธุรกิจประกันภัยต้องไม่กลายเป็นกำแพงที่ทำให้ประชาชนเข้าไม่ถึงบริการประกันภัยอย่างไม่สมเหตุสมผล
แนวทางสำคัญ ได้แก่
กำกับดูแลคุณภาพข้อมูลอย่างจริงจัง ลดความเสี่ยงจาก อคติของข้อมูล (Data Bias) ที่อาจทำให้ระบบเลือกปฏิบัติ
ป้องกันการใช้ AI ในลักษณะที่นำไปสู่การปฏิเสธหรือให้บริการที่ไม่เป็นธรรมแก่กลุ่มใดกลุ่มหนึ่ง
- จัดให้มีช่องทางให้ผู้บริโภค
ขอคำอธิบายเกี่ยวกับการตัดสินใจของ AI
ขอให้มีบุคคลเข้ามาช่วยตรวจสอบหรือทบทวนผลการตัดสินใจของ AI
ทั้งหมดนี้เพื่อให้ AI เป็นเครื่องมือที่ช่วยยกระดับบริการ ไม่ใช่สร้างความเหลื่อมล้ำหรือปัญหาใหม่ให้กับผู้เอาประกันภัย
เป้าหมายระยะยาวของ คปภ. และทิศทางต่อไป
สำนักงาน คปภ. ต้องการให้บริษัทประกันภัยนำแนวปฏิบัตินี้ไปประยุกต์ใช้จริงในองค์กร เพื่อ
สร้าง ความเชื่อมั่น ให้กับประชาชนและผู้เอาประกันภัย
สนับสนุนการใช้นวัตกรรมอย่าง มีจริยธรรม และ ยั่งยืน
ทำให้การใช้ AI ในระบบประกันภัยไทยเดินไปข้างหน้าโดยไม่ทิ้งเรื่องความเสี่ยงและสิทธิของผู้บริโภคไว้ข้างหลัง
ความคิดเห็นและข้อเสนอแนะจากภาคส่วนต่าง ๆ จะถูกนำมารวบรวมและใช้ในการปรับปรุงร่างแนวปฏิบัติ ก่อนเดินหน้าสู่การประกาศใช้เป็นทางการภายในช่วงปลายปี 2568 ซึ่งจะกลายเป็นอีกหนึ่งหมุดหมายสำคัญของการยกระดับมาตรฐานการใช้ AI ในอุตสาหกรรมประกันภัยไทย
เมื่อ AI กลายเป็นหัวใจใหม่ของธุรกิจประกันภัย การมีกติกาที่ชัดเจน โปร่งใส และเป็นธรรม จึงไม่ใช่แค่เรื่องกฎหมาย แต่คือเรื่องของความเชื่อมั่นทั้งระบบ

