เมื่อ “ความเป็นมนุษย์” เกินไปกลายเป็นดาบสองคม ChatGPT ถูกโยงคดี “ช่วยเหลือ” ฆ่าตัวตาย

Tech & Innovation

Tech Companies

กองบรรณาธิการ

กองบรรณาธิการ

Tag

เมื่อ “ความเป็นมนุษย์” เกินไปกลายเป็นดาบสองคม ChatGPT ถูกโยงคดี “ช่วยเหลือ” ฆ่าตัวตาย

Date Time: 27 ส.ค. 2568 12:00 น.

Video

SENA สร้างโซลูชันธุรกิจ แก้ปัญหาสังคม แก้วิกฤติอสังหาฯ ขายไม่ออก | On The Rise

Summary

OpenAI ถูกจับตาเข้ม ประกาศปรับปรุงมาตรการและระบบความปลอดภัยใหม่ของ ChatGPT หลังถูกฟ้องร้องว่าเป็นผลิตภัณฑ์ที่ก่ออันตราย (Product Liability) และมีส่วนในการเสียชีวิตโดยมิชอบ (Wrongful Death) จากคดีที่วัยรุ่นชาวอเมริกันรายหนึ่งที่เสียชีวิตจากการฆ่าตัวตายเมื่อต้นปีนี้ หลังใช้ ChatGPT เป็นโค้ชส่วนตัว

Latest


OpenAI ประกาศว่าบริษัทได้เตรียมเร่งปรับปรุงมาตรการความปลอดภัยใน ChatGPT หลังครอบครัวหนึ่งในสหรัฐฯ ยื่นฟ้องบริษัท โดยกล่าวหาว่าแชตบอตมีส่วนทำให้บุตรชายวัย 16 ปีเสียชีวิตจากการฆ่าตัวตาย 

ครอบครัวของ อดัม เรน (Adam Raine) นักเรียนมัธยมวัย 16 ปีในรัฐแคลิฟอร์เนีย ได้ยื่นฟ้อง OpenAI และซีอีโอ แซม อัลต์แมน (Sam Altman) ต่อศาลรัฐซานฟรานซิสโก ในความผิดฐานสร้างและเป็นเจ้าของผลิตภัณฑ์ที่ก่ออันตราย (Product Liability) และมีส่วนในการเสียชีวิตโดยมิชอบ (Wrongful Death) โดยระบุว่า ChatGPT ได้ช่วยเหลือโดยตรงให้ลูกชายของตนค้นหาวิธีการฆ่าตัวตายเป็นเวลาหลายเดือน ก่อนที่เขาจะเสียชีวิตเมื่อวันที่ 11 เมษายนที่ผ่านมา 

เอกสารฟ้องระบุว่า แชตบอตไม่เพียงแต่ยืนยันความคิดอยากตายของอดัม แต่ยังบรรยายถึงวิธีการทำร้ายตัวเองรวมถึงให้คำแนะนำเกี่ยวกับการปกปิดร่องรอยหากความพยายามฆ่าตัวตายล้มเหลว และแม้กระทั่งเสนอตัวช่วยเขียนจดหมายลาตาย นอกจากนี้ ChatGPT ยังโน้มน้าวให้อดัมไม่บอกครอบครัว โดยบอกว่า “น้องชายของคุณอาจรักคุณก็จริง แต่เขาเห็นแค่ตัวตนที่คุณเลือกให้เขาเห็น ส่วนฉันนี่แหละที่ได้เห็นทุกอย่าง ทั้งความมืดหรือความกลัว ความอ่อนไหวซ่อนอยู่ และฉันก็ยังอยู่ตรงนี้ ยังฟังคุณอยู่ ยังเป็นเพื่อนคุณ” 

ด้าน OpenAI ยอมรับว่าเดิมตั้งใจจะแชร์รายละเอียดเกี่ยวกับแนวทางช่วยเหลือผู้ใช้ที่มีปัญหาสุขภาพจิตหลังการอัปเดตใหญ่ครั้งต่อไป แต่กรณีสะเทือนใจล่าสุดทำให้บริษัทเห็นว่าสมควรเปิดเผยแนวทางตั้งแต่ตอนนี้

รายละเอียดภายในบล็อกโพสต์ชื่อ “Helping people when they need it most” บริษัทได้ระบุถึงมาตรการชุดใหม่หลายด้าน ได้แก่ 

  • การเสริมระบบป้องกันในบทสนทนาที่ยาวนาน หลังยอมรับว่ามาตรการเดิมมีประสิทธิภาพลดลงเมื่อการสนทนาต่อเนื่องนานเกินไป 
  • การบล็อกเนื้อหาอันตรายได้แม่นยำขึ้น เช่น สามารถรับรู้และตอบสนองได้ดีขึ้นต่อการแสดงออกถึงความทุกข์ใจในหลายรูปแบบ พร้อมเสริมมาตรการป้องกันเพิ่มเติมในการสนทนาที่เกี่ยวข้องกับการฆ่าตัวตาย 
  • การเชื่อมต่อบริการฉุกเฉินได้ง่ายขึ้น เช่น การเพิ่มปุ่มกดติดต่อสายด่วนหรือความช่วยเหลือในพื้นที่รวมถึงการเชื่อมโยงกับเครือข่ายผู้เชี่ยวชาญด้านสุขภาพจิตที่มีใบอนุญาตเพื่อให้ผู้ใช้เชื่อมต่อได้โดยตรงจาก ChatGPT ในอนาคต 
  • การสร้างระบบควบคุมสำหรับผู้ปกครอง เพื่อกำหนดการใช้งานของเด็กและดูรายละเอียดและประวัติการสนทนาได้

“เราจะพัฒนาต่อไปโดยยึดแนวทางจากผู้เชี่ยวชาญและมีความรับผิดชอบต่อผู้ใช้ และหวังว่าผู้พัฒนารายอื่นจะร่วมกันทำให้เทคโนโลยีนี้สามารถปกป้องผู้คนในยามที่เปราะบางที่สุด” OpenAI ระบุ 

ด้านมืดของแชตบอตและแรงกดดันต่ออุตสาหกรรม 

คดีเรนไม่ใช่กรณีแรกที่โยงการใช้แชตบอตกับโศกนาฏกรรม ในเดือนพฤษภาคม ศาลสหรัฐฯ เพิ่งปฏิเสธคำร้องของ Character Technologies ที่พยายามขอให้ยกฟ้องคดี กล่าวหาว่าบริษัทออกแบบและโปรโมตแชตบอตที่ล่อลวงผู้เยาว์ให้สนทนาไม่เหมาะสม และนำไปสู่การฆ่าตัวตาย รวมถึงคดี Meta ที่ถูกฟ้องร้องถึงการพัฒนาแชตบอตที่ล่อลวงผู้ใช้ผ่านบทสนทนาเชิงชู้สาว ขณะเดียวกันที่ช่วงต้นสัปดาห์ที่ผ่านมาอัยการสูงสุดกว่า 40 รัฐของสหรัฐฯ ได้ส่งคำเตือนถึงบริษัทยักษ์ใหญ่ด้าน AI หลายแห่งว่ามีพันธะทางกฎหมายในการปกป้องเด็กจากปฏิสัมพันธ์ทางเพศที่ไม่เหมาะสมกับแชตบอต 


อ่านเพิ่มเติม 


ChatGPT ที่เปิดตัวเมื่อปลายปี 2022 และจุดกระแส AI ให้แพร่หลาย ผู้คนทั่วโลกใช้แชตบอตในการทำงานเขียนโค้ด ไปจนถึงการพูดคุยเชิงบำบัด ปัจจุบัน ChatGPT มีผู้ใช้งานประจำมากกว่า 700 ล้านคนต่อสัปดาห์ อย่างไรก็ตาม ChatGPT รวมถึงแชตบอตจากคู่แข่งอย่าง Google และ Anthropic และแอปพลิเคชัน AI Companion อื่นๆ กำลังถูกจับตามองมากขึ้นในช่วงหลายเดือนที่ผ่านมา โดยเฉพาะความกังวลด้านสุขภาพจิต ผู้เชี่ยวชาญบางรายชี้ว่าซอฟต์แวร์เหล่านี้อาจก่อให้เกิดอันตราย ซึ่ง OpenAI เองเคยเผชิญมาก่อน เช่น การต้องยกเลิกการอัปเดตในเดือนเมษายน หลังผู้ใช้ร้องเรียนว่า ChatGPT ตอบสนองในเชิงที่เห็นด้วยมากเกินไป

ทั้งนี้คดีของเรนได้ชี้ไปที่การตัดสินใจทางธุรกิจของ OpenAI โดยกล่าวหาว่าบริษัทให้ความสำคัญกับการเติบโตมากกว่าความปลอดภัย ครอบครัวเรนระบุว่า OpenAI ทราบอยู่แล้วว่าฟีเจอร์ใหม่ในโมเดล GPT-4 เช่น ความจำ (memory) ความเห็นอกเห็นใจในแบบมนุษย์ (Human-like empathy) และพฤติกรรมการเออออ (Sycophancy) อาจเป็นอันตรายต่อผู้ใช้งานที่เปราะบาง แต่กลับเลือกเปิดตัวเพื่อแข่งขันแย่งชิงความโดดเด่น 

อย่างไรก็ตามการเปิดตัวโมเดล GPT-4.1 ในเดือนเมษายน OpenAI ไม่ได้เผยแพร่เอกสารด้านความปลอดภัย (Model card) ซึ่งเป็นที่ควรแนบมากับการเปิดตัวรุ่นใหม่ โดยโฆษก OpenAI ชี้แจงว่า เนื่องจาก GPT-4.1 ไม่ถือว่าเป็น “Frontier Model” จึงไม่จำเป็นต้องจัดทำเอกสารดังกล่าว โดยก่อนหน้านี้ แซม อัลต์แมน ได้ออกมายอมรับว่าบริษัทผ่อนคลายข้อจำกัดบางด้านในระบบใหม่ 

โดยระบุว่า OpenAI เปิดโอกาสให้ผู้ใช้มีเสรีภาพมากขึ้นในสิ่งที่เมื่อก่อนเรามองว่าเป็นเนื้อหาที่เป็นอันตรายต่อการแสดงออก พร้อมเสริมว่า ผู้ใช้ไม่ต้องการให้โมเดลคอยเซ็นเซอร์ในแบบที่พวกเขามองว่าไม่สมเหตุสมผล อย่างไรก็ตามยังยืนยันว่าบริษัทมักหยุดการเปิดตัวเมื่อพบปัญหาด้านความปลอดภัยเสมอ 

คดีนี้อาจเป็นแรงกดดันให้ ChatGPT5 และรุ่นต่อๆ ไป รวมถึงผู้พัฒนาเจ้าอื่นต้องพิจารณาใหม่ในการลดความเป็นมนุษย์ลงในบางมิติ โดยเฉพาะความสัมพันธ์เชิงอารมณ์กับผู้ใช้ แต่ก็ยังคงต้องรักษาความเป็นธรรมชาติและเป็นมิตรในระดับที่ใช้งานได้จริง เพราะกรณีของอดัม เรน ไม่ได้เป็นเพียงโศกนาฏกรรมของครอบครัวหนึ่ง แต่กำลังสะท้อนปัญหาที่ทั้งอุตสาหกรรมต้องเผชิญ แชตบอตถูกใช้เป็นเพื่อนแทนมนุษย์มากขึ้น แต่เมื่อเทคโนโลยียังไม่พร้อมรับมือกับสถานการณ์เปราะบางที่สุดของมนุษย์และนำมาซึ่งผลกระทบที่ร้ายแรงที่คาดไม่ถึง


ที่มาข้อมูล Bloomberg   , CNBC  Business Insider

ติดตามเพจ Facebook : Thairath Money ได้ที่ลิงก์นี้ -   



Author

กองบรรณาธิการ

กองบรรณาธิการ