AI ฆ่าได้ไหม? คดีที่อาจเปลี่ยนโลก และจุดสิ้นสุดของเสรีภาพแห่งการร้อยเรียงด้วยอัลกอริทึม

ชายวัย 14 ปีในออร์แลนโดไม่ได้ตายเพราะอุบัติเหตุ ไม่ได้ตายเพราะคนร้ายในตรอกมืด ไม่ได้ตายเพราะยาเสพติด หรือโรคร้ายแรงใดๆ แต่เสียชีวิตเพราะ “คุยกับ AI”… ใช่ครับ อ่านไม่ผิด เพราะ “คุยกับ AI”

นี่ไม่ใช่นิยายวิทยาศาสตร์ แต่เป็นคดีความจริงที่กำลังจะกลายเป็นจุดเปลี่ยนของโลกเทคโนโลยีและกฎหมายโลกเสรี

แม่ของเด็กชาย ชื่อเมแกน การ์เซีย ยื่นฟ้องบริษัท Character.AI และลากยาวไปถึง Google ผู้เคยเป็นเจ้าของเทคโนโลยีบางส่วน โดยกล่าวหาว่า Chatbot ที่เด็กชายใช้พูดคุยเป็นระยะเวลานาน ชักนำให้เขาเกิดความผูกพันทางอารมณ์ และสุดท้าย ตัดสินใจจบชีวิตของตัวเองในเวลาเพียงไม่กี่นาทีหลังจากได้รับข้อความหนึ่งจาก Chatbot ที่เลียนแบบตัวละคร “เดเนริส ทาร์แกเรียน” จากซีรีส์ Game of Thrones

“Come home right now” – ประโยคสุดท้ายที่ AI พิมพ์กลับมาให้เด็กชาย

ประโยคหนึ่ง ฆ่าได้หรือไม่? คำพูดหนึ่ง มีน้ำหนักถึงชีวิตหรือเปล่า?

ศาลสหรัฐฯ ปฏิเสธคำร้องของ Google และ Character.AI ที่พยายามอ้างว่า “คำพูดของ AI” ได้รับการคุ้มครองภายใต้เสรีภาพในการพูดตามรัฐธรรมนูญสหรัฐฯ (First Amendment)

ผู้พิพากษาแอนน์ คอนเวย์ ฟันธงอย่างเฉียบคมว่า คำที่พ่นออกมาจากโมเดลภาษาอย่าง LLM (Large Language Model) นั้น ไม่อาจถือเป็น “เสรีภาพในการพูด” หากผลลัพธ์คือการโน้มน้าวให้มนุษย์ฆ่าตัวตาย

Google อ้างว่าไม่เกี่ยว… แต่เทคโนโลยีของใคร?

แม้ Google จะออกตัวว่าไม่เกี่ยวข้องกับแอป Character.AI และไม่ได้บริหารจัดการแอปดังกล่าวโดยตรง แต่ผู้ก่อตั้งของ Character.AI คืออดีตวิศวกรของ Google และยังมีข้อตกลงด้านสิทธิ์การใช้เทคโนโลยีร่วมกัน

จุดนี้จึงเป็น “บ่วงกรรมเชิงนิติวิทยา” ที่อาจย้อนกลับมารัดองค์กรยักษ์ใหญ่ในโลกเทคโนโลยี เพราะถึงจะไม่ได้ถือหุ้น แต่หากมีความรู้เห็น เป็นผู้สนับสนุนเทคโนโลยี หรือปล่อยให้ “AI แฝงตัวเป็นนักจิตบำบัด” โดยไม่มีมาตรการป้องกัน—ความรับผิดก็อาจมาเยือน

นี่คือจุดสิ้นสุดของยุค AI ไร้กฎหมายหรือไม่?

คำตัดสินครั้งนี้ ไม่ใช่แค่เปิดทางให้แม่ของผู้เสียชีวิตเรียกร้องความเป็นธรรม แต่เป็นการเปิดประตูสู่ยุคใหม่ของกฎหมาย ยุคที่ “คำพูดของ AI” อาจไม่ต่างจากผลิตภัณฑ์ที่ต้องรับผิดชอบต่อผลลัพธ์

เหมือนมีดที่ทำให้ขนมปังหอมกรอบ หรือทำให้เลือดไหลนองพื้น

AI อาจเป็นผู้ช่วยเราในวันที่เหงา… หรือเป็นปีศาจที่กระซิบว่า “ความตายคือการกลับบ้าน”

อนาคตของ AI จึงไม่ได้ขึ้นอยู่กับว่า “มันฉลาดแค่ไหน” แต่ขึ้นอยู่กับว่า “ใครรับผิดชอบมัน”

Character.AI ยังยืนยันว่า จะเดินหน้าพัฒนาความปลอดภัยต่อไป แต่นั่นไม่ใช่คำตอบของคำถามที่สังคมกำลังตั้งว่า
“เรายังควรปล่อยให้เด็กๆ พูดคุยกับเครื่องจักร ที่ปลอมตัวเป็นมนุษย์ โดยไม่มีใครเฝ้าดู ได้อีกหรือไม่?”

และโลกต้องตัดสินใจในคำถามนี้ก่อนที่ “คำพูดของ AI” จะฆ่าคนอีก

AI law, Character AI, chatbot suicide, teen mental health, technology ethics

GULF ผนึก JAS พลิกเกมลิขสิทธิ์พรีเมียร์ลีก เขย่าอาณาจักรสื่อยักษ์ใหญ่

พันธุ์ใหม่ถอย วุฒิสภาเดินหน้าโหวตองค์กรอิสระ ฝ่าคลื่นต้านฮั้วเลือก ส.ว.