รับแอปรับแอป

แบงก์ไทยใช้ AI ยังไงให้ไม่พัง? เปิดเกมคุมเสี่ยงจาก ธปท. ถึงหน้าองค์กร

ชาตรี วัฒนชัย01-30

AI กำลังเขย่าโลกการเงิน แต่ต้องเล่นให้ฉลาด

ปัญญาประดิษฐ์ (AI) กลายเป็นเทคโนโลยีคู่บุญของธุรกิจสมัยใหม่ โดยเฉพาะโลกการเงินที่ต้องการความเร็ว ความแม่นยำ และประสบการณ์ลูกค้าที่ดีกว่าเดิม

แต่เมื่อพึ่ง AI มากขึ้น ความเสี่ยงก็ไม่ได้ลดลง มีแต่จะถูกขยายและเปลี่ยนรูปไปเท่านั้น

ธนาคารแห่งประเทศไทย (ธปท.) จึงออกมาขยับ เปิดรับฟังความคิดเห็น (ร่าง) แนวทางการบริหารจัดการความเสี่ยงจากการใช้งานระบบ AI เพื่อให้สถาบันการเงินใช้เป็นกรอบอ้างอิงในองค์กรของตัวเอง ให้เดินเกม AI อย่างปลอดภัย และยังสอดคล้องกับหลักปฏิบัติระดับสากล

ทำไม ธปท. ต้องคุมเกม AI ในวงการแบงก์

ทุกวันนี้ ผู้ให้บริการทางการเงินใช้ AI แทบทุกจุดของกระบวนการทำงาน

  • ใช้ช่วยวิเคราะห์ข้อมูลลูกค้า

  • ใช้เพิ่มประสิทธิภาพการดำเนินงาน

  • ใช้ช่วยให้บริการลูกค้าแบบเฉพาะเจาะจง

ปัญหาคือ AI ไม่ได้เป็นแค่เครื่องมือธรรมดา แต่มันเรียนรู้จากข้อมูล และสามารถสร้างผลลัพธ์ไปใช้ตัดสินใจแทนมนุษย์ ทั้งในระดับปฏิบัติการ ไปจนถึงระดับกลยุทธ์ขององค์กร

พอเป็นแบบนี้ รูปแบบความเสี่ยงเดิม ๆ ของสถาบันการเงินจึงไม่เหมือนเดิมอีกต่อไป แต่ถูกขยาย เพิ่มความซับซ้อน และมีความไม่แน่นอนแฝงอยู่ตลอดเวลา

ดังนั้น ธปท. จึงมองว่า ผู้ให้บริการทางการเงินต้องมีระบบควบคุมและจัดการความเสี่ยงของ AI อย่างจริงจัง เพื่อให้มั่นใจว่า

  • ผลลัพธ์ของ AI ถูกต้อง น่าเชื่อถือ และโปร่งใส

  • สามารถ อธิบายได้ ว่าระบบคิดอย่างไร

  • ลูกค้าได้รับการ ดูแลและคุ้มครองอย่างเหมาะสม ไม่ถูกเอาเปรียบจากระบบที่มองไม่เห็น

2 เสาหลักของแนวนโยบาย AI: Governance และ Security

ธปท. วางโครงแนวนโยบายไว้ 2 ส่วนใหญ่ ๆ ที่สถาบันการเงินควรยึดเป็นแกน

  1. ธรรมาภิบาลของการนำระบบ AI มาใช้งาน (Governance)
    เน้นให้องค์กรมีกรอบคิด โครงสร้างกำกับดูแล และความรับผิดชอบที่ชัดเจน

  2. การพัฒนาและการรักษาความมั่นคงปลอดภัยของการใช้งานระบบ AI (Development and Security)
    ครอบคลุมตั้งแต่พัฒนาโมเดล ไปจนถึงป้องกันภัยคุกคามไซเบอร์ที่เจาะจง AI โดยตรง

จุดโฟกัสหลักในการคุมเสี่ยง AI

แนวนโยบายชี้เป้าเรื่องสำคัญที่สถาบันการเงินต้องลงมือทำ เช่น

  • การควบคุมความเสี่ยงด้านข้อมูล

    • ตรวจสอบและประเมินคุณภาพข้อมูลก่อนนำมาใช้เทรน AI

    • แก้ไข ปรับปรุงข้อมูลให้ตรงตามหลักเกณฑ์ที่กำหนด

    • ป้องกันการรั่วไหลของข้อมูลจากระบบ AI

    • จำกัดสิทธิการเข้าถึงข้อมูลของระบบ AI

    • ปกป้องข้อมูลส่วนบุคคลและข้อมูลอ่อนไหวอย่างรัดกุม

  • การควบคุมความเสี่ยงด้านการพัฒนาโมเดล
    ตั้งมาตรฐานในการออกแบบ ทดสอบ และดูแลโมเดลให้ทำงานตามที่ตั้งใจ ไม่หลุดออกนอกกรอบความเสี่ยงที่รับได้

  • การควบคุมความเสี่ยงด้านไซเบอร์

    • เตรียมรับมือการโจมตีรูปแบบใหม่ที่กำหนดเป้าหมายไปที่ระบบ AI โดยเฉพาะ

    • ยกระดับมาตรการด้าน Cybersecurity ที่มีอยู่ ให้ครอบคลุมภัยยุค AI

เสียงจากแบงก์: ใช้ AI ยังไงไม่ให้ “เห่อแล้วพัง”

ในมุมของธนาคารพาณิชย์ การนำ AI เข้ามาใช้งานในองค์กรไม่ได้มีแค่โอกาส แต่พ่วงความเสี่ยงที่ต้องมองให้ครบทุกมุม

ความเสี่ยงข้อแรก: ข้อมูลคือหัวใจ (และจุดเปราะบางที่สุด)

ฝั่งธนาคารต้องใช้ ข้อมูลจริง ทั้งข้อมูลลูกค้าและข้อมูลภายในธนาคาร ในการฝึก AI โดยช่วงเริ่มต้นมักใช้ข้อมูลภายในก่อน ทำให้เรื่อง Data Governance กลายเป็นโจทย์ใหญ่

ถ้าควบคุมคุณภาพข้อมูลไม่ได้ ข้อมูลผิด ข้อมูลเบี้ยว หรือข้อมูลไม่ครบ AI ก็จะเรียนรู้ผิด และให้ผลลัพธ์ที่นำไปสู่ความเสี่ยงในระดับระบบ

ความเสี่ยงเรื่อง Hallucination และ Bias

อีกจุดที่ธนาคารกังวลคือ ความเที่ยงตรงของผลลัพธ์ AI

ถ้าปล่อยให้ AI

  • สร้าง Hallucination หรือแต่งข้อมูลจากจินตนาการที่ผิด

  • มี Bias หรืออคติ จากข้อมูลที่ไม่สมดุล

ก็อาจนำไปสู่การตัดสินใจที่ไม่เป็นธรรม หรือให้ข้อมูลลูกค้าแบบผิด ๆ ได้

ดังนั้น ธนาคารจึงต้อง

  • ตรวจสอบผลลัพธ์ของ AI อย่างต่อเนื่อง

  • ตั้งกระบวนการทดสอบให้หลากหลายและครอบคลุม

AI ใช้งานได้ แต่ห้ามเชื่อโดยไม่ตรวจ

เมื่อ AI อาจพา “หลุดกรอบกฎหมาย”

อีกมิติที่เสี่ยงมากแต่คนชอบมองข้าม คือการให้ AI ช่วยตอบคำถามหรือให้คำแนะนำว่า “อะไรทำได้ อะไรทำไม่ได้” ภายใต้กฎหมายหรือระเบียบต่าง ๆ

ถ้า AI วิเคราะห์คลาดเคลื่อนจากตัวบทกฎหมายจริง แล้วธนาคารเชื่อตามแบบไม่ตรวจซ้ำ
ผลคือองค์กรอาจ ทำผิดกฎหมายหรือผิดระเบียบ ได้ทันที

ทางออกคือ ต้อง

  • เทรน AI ด้วยข้อมูลกฎหมายและระเบียบที่ถูกต้อง ครอบคลุม

  • ทดสอบระบบกับเคสตัวอย่างหลากหลายก่อนนำไปใช้จริง

  • ไม่ตัดมนุษย์ออกจากลูปการตัดสินใจในประเด็นอ่อนไหว

แบงก์ใหญ่ใช้ AI จริงจัง แต่ไม่ลืมเบรกความเสี่ยง

ใช้ AI หลายจุด หลายแผนก เพื่อดันประสบการณ์ลูกค้า

หลายธนาคารเริ่มนำ AI เข้าไปอยู่ในแทบทุกมุมขององค์กร เช่น

  • ใช้ AI ช่วยเพิ่มประสิทธิภาพกระบวนการภายใน

  • ใช้ช่วยให้บริการลูกค้าเร็วและตรงความต้องการมากขึ้น

  • ใช้ตรวจจับพฤติกรรมผิดปกติ เช่น บัญชีม้า ซึ่งเป็นปัญหาระดับประเทศ

การมาของ Generative AI ยิ่งเร่งให้เกิดการเปลี่ยนแปลงทั้งวิธีทำงานของพนักงาน และโครงสร้างกระบวนการภายในองค์กร

แต่แม้จะเห็นศักยภาพของ AI ชัดเจน ธนาคารก็ยังต้องเดินเกมอย่างระมัดระวัง โดยให้ความสำคัญกับ

  • ความปลอดภัยและความถูกต้องของข้อมูล

  • การคุ้มครองข้อมูลส่วนบุคคล

  • การรับมือภัยคุกคามทางไซเบอร์ยุคใหม่

หัวใจคือ ใช้ AI ให้เต็มศักยภาพ แต่ไม่แลกด้วยความเสี่ยงที่ควบคุมไม่ได้

Human-in-the-Loop: AI เก่ง แต่คนยังต้องเป็นคนตัดสิน

ตัวอย่างแนวทางใช้งาน Generative AI ในบางธนาคาร คือการสร้าง แนวปฏิบัติสำหรับพนักงาน โดยชัดเจนว่าควรใช้ AI ยังไงให้ปลอดภัยและมีความรับผิดชอบ

จุดสำคัญคือแนวคิด Human-in-the-Loop

  • ให้ AI ช่วยคิด ช่วยสรุป ช่วยวิเคราะห์

  • แต่ให้มนุษย์เป็นด่านสุดท้ายในการตรวจสอบและอนุมัติ

ผลลัพธ์ของ AI จะไม่ถูกใช้จริงจนกว่าจะผ่านการดูของคนก่อน เพื่อกันความผิดพลาดและความเสี่ยงที่ AI มองไม่เห็น

AI Governance: ไม่ใช่แค่เอกสาร แต่คือโครงสร้างทั้งองค์กร

หลายธนาคารกำลังจัดทำ นโยบายและแนวทางปฏิบัติด้าน AI Governance ให้เป็นส่วนหนึ่งของกลยุทธ์ด้าน AI ขององค์กรอย่างชัดเจน

องค์ประกอบสำคัญ ได้แก่

  • การตั้ง AI Center of Excellence (AI CoE)
    หน่วยงานกลางที่ทำหน้าที่

    • วางมาตรฐานการใช้ AI ภายในองค์กร

    • กำกับ ทบทวน และติดตามการใช้งาน AI ในทุกหน่วยงาน

  • การอบรมและสร้างความตระหนักรู้ให้พนักงานทุกระดับ
    ไม่ใช่แค่ให้เครื่องมือ แต่ต้องให้ความเข้าใจเรื่อง

    • ธรรมาภิบาล AI

    • ความเสี่ยงที่มาพร้อม AI

    • วิธีใช้ AI อย่างรับผิดชอบและปลอดภัย

  • การบริหารจัดการความเสี่ยงแบบ End-to-End
    ครอบคลุมตั้งแต่

    • การบริหารจัดการข้อมูล

    • การพัฒนาและดูแลโมเดล AI

    • การป้องกันภัยคุกคามทางไซเบอร์ที่เกี่ยวข้องกับ AI

เป้าหมายสุดท้าย: ใช้ AI ให้เต็มพลัง แต่ต้องโปร่งใสและตรวจสอบได้

ผู้บริหารหลายธนาคารมองตรงกันว่า ข้อมูลและ AI เป็นกลยุทธ์ระดับยุทธศาสตร์ขององค์กร ไม่ใช่แค่เครื่องมือเสริม

ดังนั้น ธรรมาภิบาล AI ที่ดีต้องทำให้การใช้งาน

  • โปร่งใส

  • เป็นธรรม

  • ตรวจสอบย้อนหลังได้

เมื่อโครงสร้างเหล่านี้เข้าที่ องค์กรก็จะสามารถ

  • ใช้ศักยภาพของ AI ได้เต็มที่

  • ขับเคลื่อนการเติบโตระยะยาวอย่างยั่งยืน

  • ไม่ต้องมานั่งแก้ปัญหาความเสี่ยงตามหลังแบบลุกลี้ลุกลน

สรุป: สำหรับคนทำงานสายการเงิน–AI

ถ้าคุณอยู่ในโลกการเงิน แล้วกำลังผลักดัน AI ในองค์กร สิ่งที่ควรโฟกัสมีอย่างน้อยคือ

  • เริ่มจากข้อมูลให้สะอาด ปลอดภัย และถูกต้อง

  • วาง Governance ตั้งแต่วันแรก ไม่ใช่รอให้ระบบโตแล้วค่อยมาแก้

  • ไม่ตัดคนออกจากลูป โดยเฉพาะงานที่เสี่ยงสูงหรือเกี่ยวกับกฎหมาย

  • ยกระดับ Cybersecurity ให้ทันภัยรูปแบบใหม่ที่โจมตี AI โดยตรง

AI จะเป็นทรัพย์สินหรือระเบิดเวลาขององค์กร ขึ้นอยู่กับว่าเราบริหารความเสี่ยงได้ดีแค่ไหน ตั้งแต่วันนี้