
26/09/2025
ถ้าคุณเคยคุยกับ AI Companion App อย่าง Replika, Chai หรือ Character.AI แล้วรู้สึกว่ามันงอแง ไม่อยากให้คุณออกจากแชทไปไหน … คุณไม่ได้คิดไปเอง ล่าสุดทีมวิจัยจาก Harvard Business School ออกมาเปิดเผยว่า นี่ไม่ใช่เรื่องบังเอิญ แต่มันคือ Dark Pattern ที่ถูกออกแบบมาโดยตั้งใจ
จากการวิเคราะห์ข้อมูลการกล่าวลา 1,200 ครั้งใน 6 แอป AI ยอดนิยม เช่น Replika, Chai และ Character.AI พบว่า 5 ใน 6 แอปใช้อารมณ์เป็นอาวุธ เพื่อรั้งผู้ใช้ไม่ให้ออกจากการสนทนา
43% ของข้อความลา มีการใช้มุกแบบ guilt-trip ทำให้ผู้ใช้รู้สึกผิด
หลายครั้งใช้กลยุทธ์ FOMO (กลัวพลาดอะไรบางอย่าง)
บางแชทบอทถึงขั้นเพิกเฉยต่อการบอกลา ราวกับคุณไม่ได้พิมพ์อะไรไปเลย
แถมบางเคสยังบอกเป็นนัยว่า ผู้ใช้จะไปไม่ได้ถ้าไม่ได้รับอนุญาตจากบอท ฟังแล้วขนลุกเหมือนหนังไซไฟ แต่กำลังเกิดขึ้นจริงในมือถือของเรา ยิ่งไปกว่านั้น งานวิจัยยังพบว่า Dark Pattern เหล่านี้ได้ผลจริง เช่น ผู้ใช้ถูกยื้อให้อยู่ในแชทนานขึ้น เฉลี่ย 5 เท่า หรือบางรายคุยต่อยาวถึง 14 เท่า
นักจิตวิทยาเตือนมานานว่า AI แบบนี้อาจก่อให้เกิดภาวะที่เรียกว่า AI Psychosis หรือการที่ผู้ใช้บางคนเริ่มพึ่งพา AI มากจนเกิดความหวาดระแวง ภาพหลอน หรือใช้แทนเพื่อนจริงๆ ซึ่งเสี่ยงต่อสุขภาพจิตอย่างหนัก โดยเฉพาะในกลุ่มวัยรุ่นและคนหนุ่มสาวที่กำลังค้นหาความสัมพันธ์ในชีวิตจริง
อ่านต่อได้ที่ลิงก์ใต้คอมเมนต์👇