รับแอปรับแอป

เมื่อซีอีโอ ChatGPT บอกว่า "ลูกผมไม่มีวันฉลาดกว่า AI" แล้วเราควรเชื่อ AI แค่ไหนกันแน่?

พีรวิชญ์ สุวรรณดี01-31

เมื่อพ่อสายเทคยอมรับว่า “ลูกผมไม่ฉลาดกว่า AI”

ยุคนี้ไม่ใช่ยุคแข่งกันอวยลูกว่าเก่งกว่าลูกบ้านข้างๆ อีกต่อไปแล้ว เพราะแม้แต่ Sam Altman ซีอีโอและผู้ร่วมก่อตั้ง OpenAI ยังพูดตรงๆ ว่า “ลูกผมไม่มีวันฉลาดกว่า AI”

เขาเพิ่งต้อนรับลูกคนแรกเมื่อเดือนกุมภาพันธ์ 2025 และเชื่อว่าลูกๆ ของเขาจะเติบโตมาพร้อมความสามารถที่เหนือกว่าคนรุ่นก่อน ทำในสิ่งที่เราคาดไม่ถึง และใช้ AI ได้คล่องแบบสุดๆ แต่ถึงอย่างนั้น เขาก็ยังย้ำว่า เด็กๆ จะไม่ฉลาดไปกว่าเทคโนโลยีอย่าง ChatGPT

แม้จะฟังดูแปลกหูในฐานะคำพูดของคุณพ่อมือใหม่ แต่ Altman เสริมต่อว่า “ผมว่าลูกผมไม่แคร์หรอก ว่าพวกเขาจะไม่ฉลาดกว่า AI”

ChatGPT = เพื่อนเลี้ยงลูกของคุณพ่อสาย AI

ในฐานะคุณพ่อมือใหม่ และคนที่มองว่าทุกคนควรมีลูกหลายๆ คน Altman ยอมรับแบบไม่อายว่า ChatGPT กลายเป็นผู้ช่วยสำคัญในการเลี้ยงลูก

ในช่วงสัปดาห์แรกๆ หลังลูกชายลืมตาดูโลก เขาแทบจะถาม AI แทบทุกเรื่อง ตั้งแต่การดูแลทารกพื้นฐานไปจนถึงรายละเอียดเล็กๆ น้อยๆ ที่พ่อแม่มือใหม่มักไม่มั่นใจ

แน่นอนว่า เขารู้ดีว่ามนุษย์เลี้ยงเด็กกันมาได้ตั้งแต่ยุคที่ยังไม่มี ChatGPT แต่พอถึงเวลาตัวเองต้องเลี้ยงลูกจริงๆ เขากลับคิดไม่ออกเลยว่า ถ้าไม่มี AI คอยช่วย เขาจะผ่านช่วงเวลาเหล่านั้นไปได้ยังไง

แม้จะมองเห็นความเสี่ยงจากการพึ่งพา AI มากเกินไป และรู้ดีว่าเทคโนโลยีอาจสร้างปัญหาให้สังคม แต่ในมุมของ Altman เขายังคงเชื่อว่า ประโยชน์ของ AI มีมากกว่าผลเสีย

อย่างไรก็ตาม คำพูดของเขาก็ไม่ได้โรยกลีบกุหลาบให้ AI เสมอไป เพราะ Altman เองก็ยอมรับตรงๆ ว่า เขารู้ว่า ChatGPT ชอบ “หลอน” อยู่บ่อยครั้ง แต่ผู้คนจำนวนมากก็ยังเลือกเชื่อมัน

เขาถึงกับพูดไว้ชัดเจนว่า ผู้คนให้ความไว้วางใจ ChatGPT สูงมาก ทั้งที่ “มันไม่ใช่เทคโนโลยีที่คุณควรเชื่อแบบ 100%”

AI Hallucination: เมื่อ AI มั่นใจในสิ่งที่มันแต่งขึ้นเอง

ปรากฏการณ์ที่ AI ตอบอะไรบางอย่างด้วยความมั่นใจ แต่ดันผิดแบบหลุดโลก มีชื่อเรียกเท่ๆ ว่า AI Hallucination

มันมักเกิดกับ โมเดลภาษาขนาดใหญ่ (LLM) อย่างแชตบอท AI ที่ดันไปเจอ “แพทเทิร์น” หรือรูปแบบบางอย่างที่จริงๆ ไม่ได้มีอยู่ แต่ก็เอามาปั้นเป็นคำตอบให้เราเหมือนมันรู้จริง ทั้งที่ไม่มีเหตุผลรองรับและไม่ถูกต้องด้วยซ้ำ

สาเหตุของความหลอนนี้อาจมาจากหลายด้าน เช่น

  • คลังข้อมูลคุณภาพไม่ดี

  • อัลกอริธึมยังไม่แม่น

  • ข้อมูลที่ใช้เทรนมีความลำเอียง

ที่น่าขนลุกกว่านั้นคือ ทุกวันนี้ AI ไม่ได้ใช้แค่ตรวจแกรมมาร์หรือช่วยสรุปข้อความอีกต่อไป แต่มันถูกใช้ใน วงการแพทย์ กฎหมาย และอุตสาหกรรม ถ้า AI หลอนแล้วดันตอบผิดในบริบทเหล่านี้ ผลที่ตามมาอาจไม่ใช่แค่ผิดเล็กน้อย แต่กลายเป็น หายนะระดับใหญ่ ได้เลย

หลายคนอาจคิดว่า “เดี๋ยวอีกหน่อยก็พัฒนาให้ดีขึ้นเอง” แต่สิ่งที่นักวิจัยพบกลับตรงกันข้าม เพราะตลอดหลายปีที่ผ่านมา ปัญหา AI Hallucination ไม่ได้หายไปไหน แถม ยังเกิดบ่อยขึ้น และที่หนักกว่านั้นคือ ผู้ใช้กลับจับผิดมันได้ยากกว่าเดิม

มีรายงานหนึ่งระบุว่า ปัจจุบันมีการพัฒนาระบบ Reasoning หรือระบบใช้เหตุผลรูปแบบใหม่ให้ AI ตอบช้าลงนิดหน่อยแต่ดูคิดเป็นขั้นเป็นตอนมากขึ้น ทว่าผลการทดสอบกลับพบว่า โมเดลรุ่นใหม่บางตัวมีอัตราการหลอนสูงถึง 79%

แม้ตัวเลขนี้จะอาจเกินจริงสำหรับโมเดลส่วนใหญ่ แต่นักวิจัยก็ยอมรับว่า อัตราความหลอนของ AI ยังคงอยู่ในระดับ เลขสองหลัก อย่างเหนียวแน่นอยู่ดี

ทำดีที่สุดแล้ว…แต่มันก็ยังหลอนอยู่ดี

ฝั่งนักพัฒนาและผู้เชี่ยวชาญสายเทคไม่ได้ปล่อยปัญหานี้ทิ้งไว้เฉยๆ พวกเขาพยายามทั้งแก้บั๊ก เพิ่มข้อมูล ปรับโมเดล และสร้างระบบใหม่ๆ เพื่อกดความหลอนลง

แต่เมื่อเวลาผ่านไป ฐานข้อมูลของ AI ยิ่งใหญ่ขึ้น ซับซ้อนขึ้น ความหวังว่าจะจัดการปัญหานี้ให้หมดไปกลับ เลือนรางลงเรื่อยๆ

Amr Awadallah ซีอีโอของ Vectara บริษัทที่ทำโซลูชัน AI สำหรับองค์กร เตือนชัดว่า ต่อให้พยายามกันแค่ไหน AI ก็จะหลอนอยู่ดี และปัญหานี้จะไม่มีวันหายไป

ทีมวิจัยจากจีนก็มีมุมมองคล้ายกัน พวกเขามองว่า ความหลอนของ AI กลายเป็น ลักษณะตามธรรมชาติของโมเดล GPT ไปแล้ว และแทบเป็นไปไม่ได้เลยที่จะกำจัดมันออกไปโดยไม่ทำให้คุณภาพการทำงานโดยรวมของโมเดลแย่ลง

ปีที่ผ่านมา ยังมีศาสตราจารย์ด้านเทคโนโลยีสามคน เขียนบทความเตือนถึงการระบาดของสิ่งที่พวกเขาเรียกว่า “Botshit”

คำนี้เปรียบเทียบกับคำว่า Bullshit หรือเนื้อหาที่ฟังดูดีแต่ไร้แก่นสาร และชี้ให้เห็นว่า AI ก็สามารถผลิตคำตอบแบบไร้สาระทว่าฟังดูน่าเชื่อได้เช่นกัน ขอแค่โน้มน้าวให้คนเชื่อสำเร็จ มันไม่สนใจเลยว่าคำตอบนั้นจะจริงแค่ไหน

นักวิจัยจาก Oxford Internet Institute เคยชี้ให้เห็นว่า LLM ไม่ได้ถูกออกแบบมาให้พูดแต่ความจริงเท่านั้น แต่ยังถูกวัดผลงานจากหลายด้าน เช่น

  • ความช่วยเหลือและความเป็นมิตร

  • ความปลอดภัยในการใช้งาน

  • ประสิทธิภาพทางเทคนิค

  • ศักยภาพในการทำเงิน

  • ระดับการยอมรับของผู้ใช้

ด้วยเหตุนี้ พวกเขาจึงเตือนว่า AI อาจกลายเป็น ภัยที่แพร่กระจายได้ จุดที่น่ากลัวไม่ใช่แค่ความหลอนของมัน แต่คือ ความมั่นใจในคำตอบ ที่สามารถทำให้ทั้งผู้เชี่ยวชาญและคนทั่วไปเชื่อในสิ่งที่เป็นเท็จได้อย่างง่ายดาย

นักปรัชญาอย่าง Harry Frankfurt มองว่า ความเสี่ยงนี้ไม่ได้จบแค่ในระดับปัจเจก แต่มันอาจส่งผลกระทบต่อ วิทยาศาสตร์ ระบบการศึกษา และสังคมโดยรวมในระยะยาว

แล้วเรายังควรให้ AI ช่วยเลี้ยงลูกอยู่ไหม?

ท้ายที่สุด เราอาจยังตอบไม่ได้แบบฟันธงว่ามุมมองของ Altman ในฐานะซีอีโอ OpenAI เกี่ยวกับการเลี้ยงลูกนั้น “ถูก” หรือ “ผิด” กันแน่

บางที ChatGPT ก็อาจเป็น ผู้ช่วยเลี้ยงเด็กที่มีประโยชน์มากๆ ได้จริงๆ ตราบใดที่พ่อแม่ยังจำไว้ว่ามันคือ “เครื่องมือ” ไม่ใช่ “ผู้ปกครองร่วม” และที่สำคัญคือ อย่าเชื่อทุกคำที่มันพูดแบบไม่คิดซ้ำ

เพราะในวันที่ AI ฉลาดขึ้นทุกวัน มนุษย์อาจไม่ได้แพ้เรื่องสติปัญญา แต่เราอาจแพ้ตรงที่ ปล่อยให้ตัวเองเชื่อสิ่งที่มันพูดมากเกินไป ต่างหาก

แล้วคุณล่ะ… กล้าให้ ChatGPT เป็นที่ปรึกษาเรื่องการเลี้ยงลูกแรกเกิดของคุณหรือเปล่า?