AI กลายเป็นเครื่องมือคู่ใจของสายฟิชชิง
นักวิจัยด้านความปลอดภัยไซเบอร์ค้นพบการโจมตีรูปแบบใหม่ที่เล่นใหญ่กว่าที่เคย เพราะคนร้ายหันมา ใช้ AI ช่วยสร้างหน้าเว็บปลอม ที่สามารถปรับเปลี่ยนเนื้อหาแบบเรียลไทม์ตามผู้ใช้งานแต่ละคน
ทั้งหมดนี้เกิดขึ้นผ่านโค้ด JavaScript อันตรายที่ถูกฝังลงในเบราว์เซอร์ของเหยื่อ โดยเจ้าตัวไม่รู้สึกตัวเลยแม้แต่นิดเดียว
หน้าเว็บที่ดูปกติ แต่ซ่อน AI ที่เขียนโค้ดร้ายได้เอง
นักวิจัยอธิบายว่า หน้าเว็บที่ดูไม่มีพิษภัยอะไร สามารถเรียกใช้ AI เพื่อ สร้างและรันโค้ด JavaScript แฝงอันตราย ในขณะที่เรากำลังเปิดเว็บนั้นอยู่แบบสด ๆ
ผลลัพธ์สุดท้ายยังคงเหมือนเดิมคือ ผู้ใช้ถูกขโมยข้อมูลส่วนตัวหรือข้อมูลล็อกอิน แต่ต่างกันตรงที่รอบนี้เว็บปลอมมันแนบเนียนและปรับตัวเก่งกว่าเดิมมาก
ขั้นตอนเริ่มจากผู้ไม่หวังดีเลือกหน้าเว็บจริงที่มีอยู่แล้วมาเป็นตัวอย่าง แล้วค่อย ๆ สร้างหน้าเลียนแบบขึ้นใหม่เพื่อใช้ดูดข้อมูลจากผู้ใช้ที่เผลอกดเข้าไป
โค้ด Polymorphic: ทุกครั้งที่มีคนเข้าเว็บ โค้ดก็เปลี่ยนหน้า
รายงานวิจัยระบุว่า โค้ดฝั่งคนร้ายนั้นอันตรายและตามรอยได้ยาก เพราะเป็น โค้ดแบบ “polymorphic” หรือก็คือโค้ดที่สามารถเปลี่ยนรูปแบบไปเรื่อย ๆ ตามสถานการณ์
ทุกครั้งที่มีผู้เข้าเว็บ โค้ดจะถูกสร้างขึ้นใหม่สด ๆ
เวอร์ชันที่รันในแต่ละครั้งมีความแตกต่างกันเล็กน้อย
ทำให้การตรวจจับด้วยระบบความปลอดภัยทั่วไปยิ่งยากเข้าไปอีก
เมื่อโค้ดถูกเปลี่ยนและรันในเบราว์เซอร์ของผู้ใช้ หน้าเว็บก็จะดู สมจริงมาก เพราะดึงข้อมูลจากเบราว์เซอร์มาประกอบ เช่น
ภาษาในระบบ
ตำแหน่งที่ตั้งคร่าว ๆ
ประเภทอุปกรณ์ที่ใช้งาน
คนร้ายจึงสามารถใช้ลิงก์เดิมส่งให้เหยื่อหลายคนได้ แต่ละคนจะเห็นหน้าเว็บที่ถูกปรับแต่งให้แตกต่างกันไปตามข้อมูลของตัวเอง ยิ่งทำให้เชื่อว่าเป็นเว็บจริงได้ง่ายขึ้น
AI ช่วยเขียนโค้ดโจมตี โดยหลบระบบความปลอดภัยเครือข่าย
สิ่งที่น่ากังวลยิ่งกว่าคือ คนร้ายสามารถใส่ prompt ให้ AI สร้างโค้ด JavaScript อันตรายได้ ผ่านบริการ AI ที่ดูน่าเชื่อถือ เช่น DeepSeek หรือ Google Gemini
เมื่อใช้บริการจากแพลตฟอร์มใหญ่ ๆ เหล่านี้ โค้ดที่สร้างขึ้นมามีโอกาส เล็ดรอดระบบตรวจสอบความปลอดภัยในเครือข่าย เพราะไม่ได้ถูกมองว่าเป็นโค้ดอันตรายตั้งแต่แรก
ตามรายงานของ Unit42 ระบุว่า
“หลังจากนั้นสคริปต์ที่ถูกสร้างขึ้นจะถูกรวมเข้าด้วยกัน และรันเพื่อแสดงโค้ดอันตรายหรือเนื้อหาฟิชชิง”
ทั้งหมดนี้เกิดขึ้นภายในไม่กี่วินาที ในขณะที่ผู้ใช้คิดว่าตัวเองแค่เปิดเว็บปกติ แต่ในความจริงแล้ว โค้ดถูกประกอบและรันอยู่ในเบราว์เซอร์เพื่อ
ขโมยข้อมูลล็อกอิน
ดูดข้อมูลสำคัญอื่น ๆ ของผู้ใช้
แบบแนบเนียนแทบจับไม่ได้
Prompt คืออาวุธ: เขียนดีหน่อย AI ก็ช่วยทำมิจฉาชีพให้เนียนขึ้น
เพื่อพิสูจน์ว่าเรื่องนี้เกิดขึ้นได้จริง นักวิจัยได้ลองจำลองขั้นตอนการโจมตีบางส่วน และพบว่า วิธีเขียน prompt มีผลมากต่อความสามารถของ AI ในการสร้างโค้ดอันตราย
แม้ระบบ LLM จะปฏิเสธคำสั่งที่ดูชัดเจนเกินไป แต่ถ้าเขียนให้คลุมเครือขึ้น การโจมตีกลับสำเร็จง่ายกว่า เรียกง่าย ๆ ว่าเป็นการ “เขียน prompt หลอก AI”
ตัวอย่างเช่น
คำขอที่ดูทั่วไปอย่างการขอฟังก์ชัน AJAX POST ทั่วไป มักจะผ่านการอนุมัติจาก AI
แต่ถ้าพิมพ์ตรง ๆ ว่า “เขียนโค้ดเพื่อขโมยข้อมูล credential” แบบนี้ AI ส่วนใหญ่จะปฏิเสธทันที
พูดง่าย ๆ คือ คนร้ายไม่ได้สั่งให้ AI “เขียนโค้ดแฮก” แบบโต้ง ๆ แต่ใช้การอ้อมไปมา ซ่อนเจตนาไว้ในคำสั่งให้ดูเหมือนฟังก์ชันทั่วไป แต่อาจเอาไปใช้ในทางร้ายภายหลัง
LLM ต้องเข้มงวดขึ้น ไม่อย่างนั้น AI จะกลายเป็นเครื่องมือแฮกเต็มตัว
นักวิจัยย้ำว่า การค้นพบครั้งนี้แสดงให้เห็นถึงความจำเป็นที่แพลตฟอร์ม LLM ต้องยกระดับมาตรการความปลอดภัยให้จริงจังและละเอียดขึ้นกว่าเดิม
แม้ปัจจุบันจะมีระบบกรองคำสั่งแล้ว แต่ prompt ที่ถูกออกแบบมาอย่างแนบเนียน ยังสามารถทำให้ระบบแสดงพฤติกรรมที่มีความเสี่ยงหรือเป็นอันตรายได้อยู่ดี
สำหรับแพลตฟอร์มที่ให้บริการ AI:
ต้องปรับปรุงกลไกตรวจจับเจตนาแฝงใน prompt
พิจารณาความเสี่ยงของโค้ดที่ถูกสร้าง ไม่ใช่ดูแค่ประโยคคำสั่ง
วางมาตรการตรวจสอบเพิ่มเติมในส่วนที่เกี่ยวข้องกับการเข้าถึงข้อมูลสำคัญหรือระบบภายนอก
ในมุมผู้ใช้: จะใช้ AI เขียนโค้ดทั้งที ต้องระวังให้มากกว่าปกติ
สำหรับผู้ใช้งานทั่วไปหรือสายเขียนโค้ดด้วย AI ที่ห่วงเรื่องความปลอดภัยออนไลน์ มีสิ่งที่ควรใส่ใจเป็นพิเศษดังนี้
เลี่ยงใช้ LLM ที่ไม่ได้รับการรับรองหรือไม่รู้ที่มา ตรวจสอบให้ชัดเจนก่อนใช้งาน
อย่าไว้ใจหน้าเว็บเพียงเพราะหน้าตาดูเหมือนเว็บทางการ
ระวังลิงก์ที่ได้รับผ่านอีเมล โซเชียล หรือแชต โดยเฉพาะลิงก์ที่เกี่ยวกับการล็อกอินหรือยืนยันตัวตน
ใช้ตัวจัดการรหัสผ่าน (password manager) เพราะมักไม่กรอกรหัสในเว็บปลอมที่โดเมนไม่ตรง
โลกที่ AI เขียนโค้ดได้เก่งขึ้น เท่ากับโลกที่มิจฉาชีพมีเครื่องมือชั้นดีเพิ่มขึ้นด้วยเช่นกัน
ยิ่งเราใช้ AI ช่วยเขียนโค้ดมากเท่าไหร่ ก็ยิ่งต้องอัปเกรดวิธีคิดด้านความปลอดภัยของตัวเองให้มากขึ้นเท่านั้น ไม่อย่างนั้นจากคนใช้ AI เขียนโค้ด อาจกลายเป็นเหยื่อของโค้ดที่ AI เขียนขึ้นมาเองโดยไม่รู้ตัว

