“AI มันจะฆ่าฉันไหม? หรือแค่จะแย่งงานฉัน?”
ของเล่นใหม่อย่าง AI ทำให้การทำงานสะดวกขึ้น ความคิดลื่นไหลขึ้น
แต่เบื้องหลังความล้ำ มีความสงสัยและความกลัวซุกซ่อนอยู่
นี่คือที่มาของ AI Paranoia Index (API) ดัชนีชี้วัดว่าคนกลัว AI แค่ไหน
งานวิจัยจาก KPMG + University of Melbourne สำรวจ 48,340 คนจาก 47 ประเทศ (พ.ย. 2024 – ม.ค. 2025) พบว่า
66% ใช้ AI เป็นประจำ …แต่กลับมีแค่ 46% ที่ไว้ใจมัน
ใน ออสเตรเลีย ถึง 50% ใช้ AI แต่มีเพียง 36% เท่านั้นที่ “ไว้ใจ” มัน และ 78% กังวลถึงความเสี่ยง
นั่นคือ…คนใช้ AI กันเยอะ แต่ไม่ไว้ใจ เหมือนกินอาหารอร่อยแต่กลัวอาหารเป็นพิษ
Pew Research สำรวจคนทำงานอเมริกัน (5,273 คน) พบว่า
52% กังวลกับผลกระทบในที่ทำงาน
32% เชื่อว่ามันจะลดจำนวนงานของตน
เพียง 6% เท่านั้นที่คิดว่า AI จะเพิ่มโอกาสงานของตนเอง
ในขณะที่ผู้เชี่ยวชาญระดับโลก
75% มองว่าผลกระทบจะเกิดทางบวก
แต่สาธารณชนกลับรู้สึกเช่นกันแค่ 25%
พูดสั้นๆ คนธรรมดากลัวว่า AI จะเอางานไป แต่ผู้เชี่ยวชาญมองว่ามันจะทำงานใหม่ให้เกิดขึ้น
จาก Ipsos Mori กลุ่มประเทศภาษาอังกฤษ (สหรัฐฯ อังกฤษ แคนาดา ออสเตรเลีย) มีความกังวลสูงสุด
โดยเฉพาะในสหรัฐฯ สหราชอาณาจักร และญี่ปุ่น ผู้คนให้ความไว้วางใจหน่วยงานควบคุม AI น้อยที่สุด
ในขณะที่ยุโรปแผ่นดินใหญ่ เช่น เยอรมนี ฝรั่งเศส อิตาลี กลับมีความกังวลน้อยกว่า
ประเทศในอาเซียน รวมถึงไทย มาเลเซีย อินโดนีเซีย มีความตื่นเต้นสูง แต่ไม่ใช่ความไว้ใจ
มิติ | คำอธิบาย | วิจัยพูดว่าอะไร |
---|---|---|
Cultural Sensitivity | ในญี่ปุ่น ชินกับ AI เป็นเพื่อน ในขณะที่ฝรั่งเศสกลัวการเก็บข้อมูลส่วนตัว | Ipsos Mori ชี้ว่า trust ต่ำในกลุ่มประเทศกลุ่มนี้ |
Historical Distrust | เหตุการณ์เช่น Cambridge Analytica ทำให้หลายประเทศ (ออสเตรเลีย-ยุโรป) กลัวระบอบ surveillance | 78% ผู้ใช้ออสซียังหวาดเรื่องข้อมูล |
Economic Threat | ในสหรัฐฯ, 64% เชื่อว่า AI จะลดตำแหน่งงานในอนาคต | Pew ระบุคนทั่วไปคิดเช่นนี้ 64% ในขณะที่ผู้เชี่ยวชาญคิด 39% |
Narrative Exposure | ภาพจาก Black Mirror และหนัง Sci-Fi ฝังความระแวงถึงความ “กลายพันธุ์” ของ AI | Pew ให้เห็นว่าคนกังวลเรื่อง job loss และ fake info สูง |
ปรับ Brand Voice ได้ชัดเจน
เช่น ฝรั่งเศส – ย้ำ Data Privacy ด้วยภาพนักเลง AI ถูกจําคุกใต้ GDPR
ญี่ปุ่น - ย้ำความร่วมมือ ‘AI คือเพื่อน’ ไม่ใช่ ‘Sherlock ที่คอยจ้องคุณ’
เลี่ยงฟลอปที่มุ่งแค่เทคนิค
อย่าเข็น AI ออกมาโดยไม่รู้ว่าคนกลัวอะไร → เสี่ยงได้รับ backlash รุนแรง
เสริม Governance + UX ให้คนรู้สึก “มีชีวิต” อยู่กับ AI
เช่นให้เลือกระดับ AI ได้ แสดง log ว่ามันใช้ข้อมูลอะไรบ้าง มี third-party audit
แอปหาคู่ในอินเดีย เพิ่ม slider ควบคุม “AI matching intensity” เพื่อทำให้ผู้ใช้รู้สึกควบคุม ไม่ใช่ถูกจับคู่อัตโนมัติ
โรงเรียนฝรั่งเศส มีการเปลี่ยนระบบ AI ตรวจข้อสอบเป็น hybrid ตรวจเอง
บริษัทไทย เริ่มติดป้ายหน้าเว็บว่า “เราใช้ AI แต่คุณควบคุมมันได้” เพื่อคลายความรู้สึกถูกบังคับ
งานวิจัย KPMG พบว่า 57% พนักงานซ่อนว่าใช้ AI จากนายจ้าง และมี 56% ทำงานผิดพลาดจากมันเพราะไม่มี training
ในอดีต เรากลัวไฟ ก่อนจะใช้มันเปลี่ยนโลก
ทุกเทคโนโลยีใหม่มาพร้อมความกลัว แต่ AI ไม่ใช่แค่เครื่องมือ แต่เป็นกระจกสะท้อนจิตมนุษย์
และ “AI Paranoia” จะไม่หายไปไหน ทว่า มันจะวิวัฒน์
อนาคต คนจะไม่ถูกสอนแค่ AI ทำงานอย่างไร แต่จะต้องเรียนรู้ว่า
“ฉันรู้สึกอย่างไรกับ AI?” และ “ฉันพร้อมจะอยู่กับมันหรือไม่?”
โรงเรียนอาจมีวิชาใหม่อย่าง
“AI Literacy for Mental Wellbeing”
“Emotional Ethics in Human-AI Interaction”
องค์กรจะเริ่มวัด “ระดับความไว้วางใจ AI” ของพนักงานเหมือนวัด engagement
และ HR อาจต้องให้ความสำคัญกับ การฟื้นฟูความรู้สึกไว้ใจเทคโนโลยี มากพอ ๆ กับทักษะด้าน data
แบรนด์จะต้องเปิดเผยมากขึ้นว่า AI ของตน
ตัดสินใจบนหลักการอะไร?
มีการตรวจสอบ bias หรือไม่?
เคารพความรู้สึกของผู้ใช้หรือเปล่า?
“AI with Values” จะกลายเป็น USP (จุดขายสำคัญ)
เราจะเห็นปรากฏการณ์คล้ายกับการเลือกผลิตภัณฑ์ Fair Trade หรือปลอดการทดลองกับสัตว์ — แต่เปลี่ยนเป็น “Fair Algorithm”
โลกอาจแบ่งออกเป็นสองขั้ว:
ฝั่งหนึ่งคือ “AI Everywhere” ใช้ทุกการตัดสินใจ
แต่อีกฝั่งจะเรียกร้อง “AI-Free Zones”
องค์กรอาจต้องประกาศให้ชัดว่า
ส่วนไหนของบริการที่ยังคงใช้มนุษย์ล้วน
ลูกค้ามีสิทธิเลือกไม่ให้ AI ประเมิน (เช่น เครดิต, การสมัครงาน, การรักษา)
บางประเทศอาจมี “AI Bill of Rights” หรือ “สิทธิในการไม่ให้ AI ประมวลผลข้อมูลบุคคล” เป็นมาตราในรัฐธรรมนูญ
ถ้า AI คือรถยนต์คันแรกของโลก แล้วตอนนี้เราอยู่ในยุคที่คนยังคิดว่า "ม้าเร็วกว่า"
ความจริงคือ: การยอมรับเทคโนโลยีไม่เคยขึ้นอยู่กับความสมบูรณ์แบบ แต่ขึ้นอยู่กับความไว้ใจ
เริ่มวัด API Score ของกลุ่มเป้าหมาย — ก่อนที่จะปล่อย AI feature ใหม่
สร้าง AI Transparency Report — บอกคนว่า AI ตัดสินใจยังไง
ออกแบบ "Human Override" — ให้คนรู้สึกว่าควบคุมได้เสมอ
เพราะแบรนด์ที่เข้าใจความกลัวนี้ก่อน จะเป็นแบรนด์ที่คนเลือกใช้ในยุคที่ทุกคนใช้ AI
"ในโลกที่ AI ฉลาดเหมือนกัน คนจะเลือกแบรนด์ที่ทำให้รู้สึกปลอดภัยที่สุด"
คำถามสุดท้าย: วันนี้คุณจะทำอะไรเพื่อให้คนไว้ใจ AI ของคุณมากขึ้น?
เพราะในโลกที่เต็มไปด้วย AI ความไว้ใจคือสกุลเงินที่หาซื้อไม่ได้