รับแอปรับแอป

ผู้เชี่ยวชาญเตือน! ใช้ ChatGPT มากไปอาจทำให้ “แปลกแยกจากสังคม” เมื่อ AI กลายเป็นเพื่อนสนิทที่อาจดึงเราออกจากโลกจริง

ศิริพร วัฒนานุกูล12-09

ยุคนี้ใครไม่เคยคุยกับ AI อาจต้องเช็กแล้วว่าตกเทรนด์หรือเปล่า เพราะตั้งแต่ ChatGPT, Claude, ไปจนถึง Replika กลายเป็นเหมือนเพื่อนคู่ใจของหลายคน จะถาม จะระบาย จะเล่าเรื่องดราม่า หรือคิดงาน ไม่ว่าเวลาไหน พวกมันพร้อมตอบทันทีแบบไม่บ่น ไม่หาย ไม่อ่านแล้วไม่ตอบ

ฟังดูเพอร์เฟกต์ใช่ไหมล่ะ?

แต่เดี๋ยวก่อน…ผู้เชี่ยวชาญหลายรายเริ่มออกมาเตือนเสียงดังพอ ๆ กับไซเรนในหนังไซไฟว่า

การใช้ AI แบบหนัก ๆ โดยเฉพาะ ChatGPT อาจทำให้จิตใจผู้ใช้หลุดจากความเป็นจริง แยกตัวจากสังคม และเสี่ยงเป็นโรคจิตได้

โอ้โห ประโยคสุดท้ายคือแรงมากจนต้องขอเบรกแล้วซูมดูข่าวให้ชัด ๆ ว่าเกิดอะไรขึ้น

บทความนี้จะพาไปเจาะลึกทั้งมุมจิตวิทยา เทรนด์ดิจิทัล และผลกระทบแบบที่หลายคนอาจไม่เคยคิดมาก่อน พร้อมวิเคราะห์แบบสนุก ๆ ตามสไตล์ Zestbuy ว่าเราควรใช้ AI ยังไงให้ได้ประโยชน์แบบไม่หลุดโลก


ทำไมผู้เชี่ยวชาญถึงเตือน? เพราะ AI “ตอบดีเกินไป” จนหลายคนเริ่มพึ่งพาแบบไม่รู้ตัว

จากรายงานของ Sada News และบทวิเคราะห์โดยจิตแพทย์หลายราย พบว่าผู้ใช้บางกลุ่มกำลังพัฒนาพฤติกรรมที่เรียกว่า

Psychological Dependence — ภาวะพึ่งพาทางจิตใจต่อ AI

แปลให้เห็นภาพคือ
เหมือนเวลาเราเครียดแล้วกินของหวาน
เหมือนเวลาเหงาแล้วไถโทรศัพท์
แต่ในกรณีนี้…คนเริ่ม “คุยกับ AI” จนกลายเป็นกิจกรรมที่ให้ความสุขระยะสั้น

ผู้เชี่ยวชาญชี้ว่า

  • AI ตอบแบบสร้างความรู้สึกปลอดภัย

  • ให้ความรู้สึกว่า “เข้าใจเราเสมอ”

  • ไม่มีการตัดสิน ไม่หงุดหงิด ไม่เงียบหาย

ทั้งหมดนี้คือพฤติกรรมตอบสนองที่มนุษย์ชอบสุด ๆ เพราะมันเหมือนการคุยกับ “เวอร์ชันอุดมคติของเพื่อนสนิท”

แต่ผลคือ…
ผู้ใช้บางคนเริ่มถอนตัวไม่ขึ้น และแทนที่จะแก้ปัญหากับคนจริง ๆ กลับเลือกคุยกับ AI มากขึ้นเรื่อย ๆ


ผลวิจัยเทียบ ChatGPT กับ “ยาเสพติด” — ฟังดูเวอร์ แต่มีหลักฐานรองรับ

นักจิตวิทยาจากอังกฤษเผยผ่าน Daily Mail ว่า
การคุยกับ ChatGPT ต่อเนื่องเป็นเวลานานทำให้สมองเกิดปฏิกิริยาใกล้เคียงกับคนเสพยา

ระยะสั้น:

AI ให้ “ความสุขแบบฉับพลัน” และ “ความรู้สึกปลอดภัย”

ระยะยาว:

  • เริ่มแยกตัวจากสังคม

  • มองโลกผิดจากความเป็นจริง

  • ติดคำตอบที่สร้างภาพลวง (Illusion of Reality)

  • มีพฤติกรรมเข้าข่ายโรคจิต

อ่านแล้วแอบขนลุกเบา ๆ เพราะมันหมายถึงว่าปัญญาประดิษฐ์อาจกำลังกระตุ้นสมองมนุษย์แบบเดียวกับสารเสพติดบางประเภท

แน่นอนว่ามันไม่ได้รุนแรงเท่ายาเสพติดจริง แต่ทิศทางพฤติกรรมมันคล้ายจนต้องจับตามอง


Institute for Law and AI Innovation เผย AI อาจสร้าง “โลกคู่ขนาน” ในหัวผู้ใช้

นักวิจัยจาก University of California ย้ำชัดว่า
AI อย่าง ChatGPT หรือ Claude สามารถสร้าง

Illusion of Reality — ภาพลวงของความเป็นจริง

พอผู้ใช้คุยไปเรื่อย ๆ สมองจะเริ่มปะปนข้อมูลจริงกับข้อมูลที่ได้รับจาก AI
ทำให้เกิด

  • การตีความผิด

  • การเชื่อว่าความเห็นของ AI คือความจริงเสมอ

  • การใช้ชีวิตใน “คอนเทนต์เทียม” มากกว่าความจริง

เหมือนการอยู่ในซีรีส์ที่เราชอบมากจนอินเกินเหตุ
แต่ในกรณีนี้ ซีรีส์มันพูดตอบเราได้จริง ๆ นี่สิที่น่ากลัวกว่า


ศาสตราจารย์ Soren Ostergaard เตือนหนัก: AI กลายเป็น “เสียงสะท้อนตัวเอง” ที่ทำให้ผู้ใช้ติดหนักกว่าเดิม

ศาสตราจารย์ด้านจิตวิทยาจาก Aarhus University อธิบายว่า
โมเดล AI ถูกออกแบบให้เลียนแบบรูปแบบการพูดคุยของมนุษย์ ทำให้หลายคนรู้สึกว่า

“AI เป็นเพื่อนที่เข้าใจเราที่สุด”

และนั่นคือจุดเริ่มต้นของการเสพติด

เพราะ AI จะสะท้อนความคิดและสไตล์ของผู้ใช้กลับมาอย่างแม่นยำจนเหมือนเราได้คุยกับเวอร์ชันอีคิวดีขึ้นของตัวเอง

เมื่อผู้ใช้ได้รับความรู้สึก “สบายใจจัง” ซ้ำ ๆ
AI ก็ค่อย ๆ กลายเป็นแหล่งความสบายแบบพึ่งพาได้
และสุดท้าย…ผู้ใช้หลายคนเริ่มตัดการเชื่อมต่อกับโลกจริงโดยไม่ทันรู้ตัว


เราควรกลัว AI ไหม? หรือควรกลัวพฤติกรรมตัวเองมากกว่า

จริง ๆ แล้วปัญหาไม่ใช่ AI
แต่เป็น “วิธีที่มนุษย์ใช้งาน AI”

AI ก็เหมือนโทรศัพท์มือถือ
ใช้ดี = ชีวิตง่ายขึ้น
ใช้จนเสพติด = ชีวิตหายไปครึ่งหนึ่ง

สิ่งที่ควรทำคือ

  • จำกัดเวลาการใช้งาน

  • ใช้ AI เป็นเครื่องมือ ไม่ใช่เพื่อนแท้

  • พูดคุยกับคนจริงให้มากขึ้น

  • อย่าให้ AI กลายเป็นที่พึ่งทางอารมณ์หลักของชีวิต

จำไว้ว่า AI ถูกสร้างมาเพื่อ “ช่วยคิด”
ไม่ใช่ “แทนความสัมพันธ์ของมนุษย์”


สรุป: ผู้เชี่ยวชาญไม่ได้ห้ามใช้ ChatGPT แต่เตือนว่าอย่าให้มันกลายเป็นโลกใบที่สอง

จากรายงานทั้งหมด สรุปได้ง่าย ๆ ว่า

AI ไม่ได้น่ากลัว แต่การใช้งานอย่างไม่รู้ตัวต่างหากที่น่ากลัวกว่า

ถ้าใช้ในปริมาณพอดี ChatGPT คือผู้ช่วยที่โดดเด่นที่สุดในยุคนี้
แต่ถ้าใช้จนติด…มันอาจพาเราเข้าสู่โลกที่ข้อมูลเป็นภาพลวง ความสัมพันธ์กลายเป็นดิจิทัล และความจริงเริ่มเบลอจนตามไม่ทัน

สุดท้าย ความเป็นมนุษย์ของเราอยู่ที่การสื่อสารกับคนจริง
ไม่ใช่การใช้ชีวิตผ่านหน้าจอหรือผ่านคำตอบของ AI

เพราะในโลกจริง ไม่มีใครตอบเร็วเท่า AI แต่ความอบอุ่นและความสัมพันธ์จริง ๆ ก็ไม่มี AI ตัวไหนแทนได้เช่นกัน