ซีอีโอ NVIDIA ชี้ “อย่าพูดร้ายเกี่ยวกับ AI” เตือนกระแส Doomer Narrative กำลังบิดเบือนสังคม

Jensen Huang วิจารณ์ผู้บริหารบางรายที่ผลักดันความกลัว AI จนกระทบการพัฒนาและนโยบายรัฐ
ท่ามกลางกระแสการเติบโตของเทคโนโลยี AI ที่กำลังเปลี่ยนโลกอย่างรวดเร็ว Jensen Huang ซีอีโอของ NVIDIA ออกมาแสดงจุดยืนชัดเจนว่า การพูดถึง AI ในแง่ “หายนะของมนุษยชาติ” หรือที่เขาเรียกว่า “Doomer Narrative” ไม่ได้เป็นผลดีกับใครเลย ทั้งต่อสังคม อุตสาหกรรม และภาครัฐ
Huang มองว่าความกลัวเกินจริงเกี่ยวกับ AI ไม่ได้เกิดจากประชาชนทั่วไป แต่กลับมาจากบุคคลระดับผู้บริหารในอุตสาหกรรมเอง ซึ่งกำลังส่งอิทธิพลต่อทิศทางนโยบายของรัฐบาล และอาจทำให้การพัฒนา AI ชะงักลงโดยไม่จำเป็น
เกิดอะไรขึ้น: Jensen Huang ออกโรงวิจารณ์กระแส “AI โลกแตก”
Jensen Huang ให้สัมภาษณ์กับรายการ No Priors โดยกล่าวถึงกระแสความกังวลที่มองว่า AI จะนำไปสู่การว่างงานครั้งใหญ่ หรือแม้แต่เป็นภัยต่อมนุษยชาติ เขาเรียกแนวคิดนี้ว่า doomers’ narrative และระบุว่าเป็นเรื่องที่ “ทำร้ายสังคมอย่างมาก”
เขากล่าวอย่างตรงไปตรงมาว่า การเล่าเรื่อง AI ในเชิงวันสิ้นโลก ไม่ได้ช่วยให้คนเข้าใจเทคโนโลยีมากขึ้น ตรงกันข้ามกลับสร้างความสับสนและความกลัว โดยเฉพาะในกลุ่มผู้กำหนดนโยบายที่อาจยังไม่คุ้นเคยกับเทคโนโลยีนี้ดีพอ
Huang มองว่า การสื่อสารลักษณะนี้ไม่เป็นผลดีต่อ
-
ประชาชนทั่วไป
-
อุตสาหกรรมเทคโนโลยี
-
ภาครัฐและการกำหนดกฎระเบียบ
ใครเกี่ยวข้อง: ซีอีโอ vs ซีอีโอ ในโลก AI
แม้ Jensen Huang จะไม่ได้เอ่ยชื่อใครโดยตรง แต่เขาระบุชัดว่าคนที่ผลักดันแนวคิดเชิงลบเกี่ยวกับ AI ไม่ใช่ “คนธรรมดา” แต่เป็น ซีอีโอของบริษัทเทคโนโลยีบางแห่ง ที่กำลังล็อบบี้รัฐบาลให้ควบคุม AI อย่างเข้มงวด
จากบริบทนี้ สื่อและผู้ติดตามวงการเทคโนโลยีมองว่า คำพูดของ Huang มีแนวโน้มพาดพิงถึง Dario Amodei ซีอีโอของ Anthropic ซึ่งเคยออกมาแสดงความกังวลว่า AI อาจเข้ามาแทนที่ “ครึ่งหนึ่งของงานสาย White Collar” และสนับสนุนแนวคิดเรื่องการกำกับดูแล AI อย่างจริงจัง
ทั้ง Jensen Huang และ Amodei เคยแสดงจุดยืนที่ต่างกันอย่างชัดเจนในที่สาธารณะมาก่อน ทำให้ความขัดแย้งทางมุมมองครั้งนี้ยิ่งถูกจับตามอง
ทำไม Jensen Huang ถึงมองว่ากระแส Doomer เป็นปัญหา
Huang มองว่าการสร้างภาพ AI เป็นภัยร้ายแรงต่อมนุษย์ เป็นการนำแนวคิดแบบนิยายวิทยาศาสตร์ (science fiction) มาใช้ผิดบริบท และไม่ช่วยให้สังคมเดินหน้า
เขาให้เหตุผลว่า
-
AI ไม่ได้ทำให้โลกพังทลายอย่างที่หลายคนกลัว
-
เทคโนโลยี AI ที่พัฒนาเร็วขึ้น กลับช่วยแก้ปัญหาหลายด้าน
-
ความสามารถของ AI ในปัจจุบัน “ดีขึ้น มีประโยชน์ขึ้น และใช้งานได้จริงมากขึ้น”
Huang ย้ำว่า ความปลอดภัยของเทคโนโลยี ไม่ควรถูกมองจากกรณีเลวร้ายที่สุดก่อน แต่ควรเริ่มจากคำถามพื้นฐานว่า มันทำงานได้ตามที่ออกแบบไว้หรือไม่
เขาเปรียบเทียบว่า การประเมินความปลอดภัยของ AI ก็เหมือนรถยนต์
“ความปลอดภัยของรถ ไม่ใช่การจินตนาการว่ามีใครจะเอารถไปทำร้ายคนอื่น แต่คือรถคันนั้นทำงานได้ตามที่ออกแบบไว้หรือไม่”
มุมมองต่อกฎระเบียบ AI: คุมมากไป อาจถ่วงความก้าวหน้า
Jensen Huang ยังแสดงความเห็นอย่างชัดเจนว่า การควบคุม AI ที่เข้มงวดเกินไป อาจขัดขวางความก้าวหน้าทางเทคโนโลยี ไม่ว่าจะเป็น
-
มาตรการควบคุมการส่งออกชิป
-
ข้อจำกัดด้านการพัฒนา AI
-
กฎระเบียบที่ตั้งอยู่บนความกลัวมากกว่าความเข้าใจ
เขามองว่า ในอดีต มีเสียงเรียกร้องให้ “ชะลอการพัฒนา AI” แต่เมื่อเวลาผ่านไป กลับพบว่า AI ที่พัฒนาต่อเนื่องสามารถแก้ปัญหาหลายอย่างได้จริง เช่น
-
การทำความเข้าใจข้อมูล (grounding)
-
การให้เหตุผล (reasoning)
-
การทำวิจัยและค้นคว้า (research)
แทนที่โลกจะพังทลายอย่างที่หลายคนกังวล AI กลับกลายเป็นเครื่องมือที่มีประโยชน์และใช้งานได้มากขึ้นเรื่อย ๆ
AI กำลังมุ่งไปทางไหน: ไม่ใช่แค่แชตบอตอีกต่อไป
Huang มองว่า AI กำลังก้าวเข้าสู่ยุคใหม่ ที่ไม่ได้มีแค่โมเดลแบบเดียว แต่แบ่งออกเป็นหลายชั้น เช่น
-
Generative AI
-
Agentic AI
-
Physical AI
การพัฒนาในทิศทางนี้ มีเป้าหมายหลักคือ การทำให้การทำงานของมนุษย์มีประสิทธิภาพมากขึ้น และช่วยลดภาระงานซ้ำซ้อน ไม่ใช่การทำลายตลาดแรงงานอย่างที่หลายคนหวาดกลัว
เขาเชื่อว่า AI เป็นเครื่องมือในการเพิ่มศักยภาพมนุษย์ มากกว่าการแทนที่มนุษย์ทั้งหมด
ส่งผลกระทบกับใครบ้าง: สังคม เทคโนโลยี และแรงงาน
ประเด็นนี้ส่งผลกระทบในวงกว้าง ไม่ว่าจะเป็น
-
ผู้กำหนดนโยบาย ที่อาจตัดสินใจจากความกลัวมากกว่าข้อเท็จจริง
-
อุตสาหกรรมเทคโนโลยี ที่อาจถูกจำกัดการพัฒนา
-
แรงงานทั่วไป ที่ได้รับข้อมูลด้านเดียวจนเกิดความกังวลเกินจริง
Huang เห็นว่าการพูดถึง AI อย่างสมดุล เข้าใจข้อดีและข้อจำกัด จะช่วยให้ทุกฝ่ายปรับตัวได้ดีกว่า การสร้างภาพ AI เป็นภัยร้ายที่ควบคุมไม่ได้
บทสรุป: AI ไม่ใช่ผู้ร้าย แต่การเล่าเรื่องผิดต่างหากที่เป็นปัญหา
มุมมองของ Jensen Huang ซีอีโอ NVIDIA สะท้อนชัดว่า ปัญหาใหญ่ของ AI ในวันนี้ ไม่ใช่ตัวเทคโนโลยี แต่คือ วิธีที่สังคมพูดถึงมัน
เขาเชื่อว่า การสร้างความกลัวด้วย Doomer Narrative ไม่ได้ช่วยให้ AI ปลอดภัยขึ้น แต่กลับทำให้การพัฒนาและการใช้งานที่เป็นประโยชน์ต่อสังคมถูกชะลอโดยไม่จำเป็น
ในโลกที่ AI กำลังกลายเป็นโครงสร้างพื้นฐานสำคัญของเศรษฐกิจและการทำงาน การสนทนาอย่างมีเหตุผล เข้าใจเทคโนโลยี และมองไปข้างหน้า อาจเป็นสิ่งที่จำเป็นมากกว่าการกลัวอนาคตที่ยังมาไม่ถึง
ที่มา wccftech
แนะนำสำหรับคุณ
หัวข้อพิเศษเดือนกันยายน|ก้าวสู่อนาคต: การประชุมของ Apple ในเครื่องนี้จะมีคุณสมบัติเด่นอะไรเป็นหลักงการรับรู้อัจฉริยะของเรา?
เปิดโลกบ้านอัจฉริยะกับ Xiaomi
Digital Trends กำลังมาแรง | การแข่งขัน Valorant Champions Tournament ปี 2025 กำลังดำเนินอยู่! เหล่าผู้เชี่ยวชาญด้านอีสปอร์ตใช้อุปกรณ์ 4K อะไรบ้าง? มาดูกัน!
Bluetooth Earphone|ปลดปล่อยตัวเองจากข้อจำกัด: พร้อมฟังเสียงที่ไร้ขอบเขตในทุกการเดินทาง
แนะนำกันแดดใช้ดี กันยูวีไม่ทำร้ายผิว!
Marshall Major V : Headphone สำหรับชาวร็อค


