เตือนผู้ใช้ ChatGPT อย่าแชร์เรื่องส่วนตัวมากเกินไป เพราะไม่มี ‘สิทธิความลับตามกฎหมาย’ คุ้มครอง

Tech & Innovation

Tech Companies

กองบรรณาธิการ

กองบรรณาธิการ

Tag

เตือนผู้ใช้ ChatGPT อย่าแชร์เรื่องส่วนตัวมากเกินไป เพราะไม่มี ‘สิทธิความลับตามกฎหมาย’ คุ้มครอง

Date Time: 29 ก.ค. 2568 16:42 น.

Video

SENA สร้างโซลูชันธุรกิจ แก้ปัญหาสังคม แก้วิกฤติอสังหาฯ ขายไม่ออก | On The Rise

Summary

Sam Altman ซีอีโอ OpenAI เตือนชัด ChatGPT ไม่ใช่นักบำบัด ไม่มีสิทธิความลับตามกฎหมาย หากเกิดคดีความ ศาลอาจสั่งให้เปิดแชตของคุณได้ ข้อมูลส่วนตัวที่เคยพิมพ์อาจย้อนกลับมาเป็นหลักฐาน

Latest


Sam Altman ซีอีโอของ OpenAI เปิดใจในบทสัมภาษณ์ล่าสุดกับ Theo Von ผ่านรายการพอดแคสต์ “This Past Weekend with Theo Von” ถึงความคืบหน้าของ AI ที่รวดเร็วราวกับพายุ แนวคิดเกี่ยวกับการผสานรวมระหว่างมนุษย์และเครื่องจักร ซึ่งชี้ให้เห็นประเด็นน่าเป็นห่วงอย่างเรื่อง “ความเป็นส่วนตัว” ของบทสนทนาเมื่อผู้ใช้หลายคนหันมาใช้ AI แทนการคุยกับนักจิตบำบัดตัวจริง ไปจนถึงผลกระทบต่อแรงงานและมนุษยธรรมที่กำลังสั่นคลอน 

บทสนทนายาวกว่า 90 นาทีพาผู้ฟังดำดิ่งสู่คำถามใหญ่ที่กระทบต่อมนุษยชาติ ตั้งแต่การแข่งขันในเชิงธุรกิจไปจนถึงความหวัง ความกลัว และความวิตกส่วนตัวของ Altman ต่อทิศทางที่เทคโนโลยีกำลังพาเราไป 

“ถ้า OpenAI ไม่เร่งเดินหน้าก็จะมีคนอื่นทำแทน เรากำลังแข่งกันเพื่อกำหนดคุณค่าของอนาคต” 

Altman ยอมรับว่าการพัฒนา AI ทุกวันนี้เปรียบเหมือนการแข่งขันที่รุนแรงและถ้า OpenAI ไม่เร่งเดินหน้าก็จะมีคนอื่นทำแทน ซึ่งอาจทำให้คุณค่าทางสังคมที่ควรอยู่ในแกนกลางของ AI หลุดมือไปอยู่ในกำมือของกลุ่มที่ไม่ได้ใส่ใจประเด็นเหล่านี้ 

โดย Von เปิดประเด็นว่า “คุณคิดว่าเราควรชะลอเรื่องพวกนี้ลงหน่อยไหม” และเสริมว่าที่เขาไม่กล้าใช้ AI มากนักก็เพราะ “ไม่รู้ว่าข้อมูลส่วนตัวจะไปอยู่ที่ไหน” ด้าน Altman ตอบอย่างตรงไปตรงมาว่า เขาเข้าใจความกลัวนั้นดีและเชื่อว่าตอนนี้ยังไม่มีใครรู้จริงๆ ว่าความเปลี่ยนแปลงนี้จะไปจบตรงไหน 

แม้หลายฝ่ายจะเตือนว่า AI อาจลดทอนบทบาทของมนุษย์ลงเป็นแค่ตัวประกอบในโลกที่เทคโนโลยีกำหนดทุกอย่าง แต่ Altman ยังคงมองโลกในแง่ดีว่า มนุษย์จะยังคง “เป็นตัวละครหลักในความหมายที่สำคัญ” อย่างไรก็ตามเขายอมรับว่าความเปลี่ยนแปลงนี้จะสะเทือนหลายชีวิต โดยเฉพาะในระยะสั้นที่คนต้องปรับตัวรับการเปลี่ยนแปลงของอาชีพอย่างหนัก แต่เขาก็เชื่อว่าเมื่อทุกคนสามารถเข้าถึงความรู้และความเชี่ยวชาญผ่าน AI ได้ทันที มนุษย์จะสามารถนิยามการมีส่วนร่วมต่อสังคมในแบบใหม่ได้ 


ChatGPT ไม่ใช่นักบำบัด และไม่มี “สิทธิความลับตามกฎหมาย” 

นอกจากนี้ในอีกหนึ่งประเด็นที่ได้กลายเป็นที่ถกเถียง โดย Altman ได้เตือนผู้ใช้งานว่าการใช้ ChatGPT เป็น “นักบำบัดทางใจ” หรือ “ที่ปรึกษาชีวิต” อาจเสี่ยงต่อความเป็นส่วนตัว เพราะบทสนทนาเหล่านั้นกับ ChatGPT ไม่ถือว่าเป็นความลับทางกฎหมายเหมือนการคุยกับนักบำบัด แพทย์ หรือทนายความ อีกทั้งแม้ผู้ใช้จะลบแชตแล้ว แต่ข้อมูลเหล่านั้นก็อาจถูกเรียกคืนได้ หากมีเหตุผลด้านกฎหมายหรือความมั่นคงเข้ามาเกี่ยวข้อง 

“ผู้คนพูดถึงเรื่องส่วนตัวของตัวเองกับ ChatGPT โดยเฉพาะคนรุ่นใหม่ที่ใช้มันเป็นเหมือนนักบำบัดหรือโค้ชชีวิต ถามเรื่องปัญหาความสัมพันธ์ บอกเล่าเรื่องในใจว่า ‘ฉันควรทำยังไงดี?’ แต่ตอนนี้ ถ้าคุณพูดเรื่องพวกนี้กับหมอหรือนักบำบัด มันมี ‘สิทธิความลับตามกฎหมาย’ คุ้มครองอยู่ แต่กับ AI เรายังหาทางออกเรื่องนี้ไม่ได้เลย” 

Altman ยอมรับว่านี่เป็นประเด็นใหม่ที่เพิ่งเกิดขึ้นไม่นานนี้ และเป็นปัญหาใหญ่ที่ต้องหาทางจัดการในเชิงกฎหมายโดยเร็ว เพราะปัญหานี้อาจกลายเป็นประเด็นด้านความเป็นส่วนตัวที่สำคัญ โดยเฉพาะในกรณีที่มีการฟ้องร้อง เขาเตือนว่าหากมีการฟ้องร้องในอนาคต OpenAI อาจถูกศาลสั่งให้เปิดเผยข้อมูลการสนทนาเหล่านี้ได้ตามกฎหมาย ซึ่งเป็นสิ่งที่บริษัทมองว่า “ไม่ควรเกิดขึ้น” และกำลังพยายามต่อสู้เพื่อปกป้องความเป็นส่วนตัวของผู้ใช้ให้มากขึ้น OpenAI ตระหนักดีว่า 

ความไม่ชัดเจนเรื่องความเป็นส่วนตัวอาจกลายเป็นอุปสรรคสำคัญต่อการใช้งานในวงกว้าง โดยเฉพาะเมื่อ AI ต้องอาศัยข้อมูลจากผู้ใช้มหาศาลในการฝึกโมเดล และขณะเดียวกันก็อาจถูกบังคับให้เปิดเผยข้อมูลนั้นตามคำสั่งศาล ยกตัวอย่าง ในกรณีข้อพิพาทกับ The New York Times ที่ศาลมีคำสั่งให้ OpenAI ต้องเก็บบทสนทนาของผู้ใช้ ChatGPT ทั่วโลกไว้ ซึ่ง OpenAI ได้ยื่นอุทธรณ์คำสั่งศาลดังกล่าว โดยระบุในแถลงการณ์ว่า เป็น “การใช้อำนาจเกินขอบเขต” และหากศาลสามารถบังคับให้บริษัทเปิดเผยข้อมูลผู้ใช้ได้อาจเปิดช่องให้เกิดการเรียกร้องข้อมูลเพื่อการสอบสวนทางกฎหมายหรือแม้แต่การดำเนินคดีในอนาคต 

ข้อเตือนใจถึงผู้ใช้งาน AI อย่าลืมว่านี่ไม่ใช่ “นักบำบัดตัวจริง” 

กรณีนี้ตอกย้ำความจำเป็นในการเร่งพัฒนากฎหมายและนโยบายที่รองรับการใช้ AI ในชีวิตประจำวัน โดยเฉพาะเมื่อลักษณะการใช้งานเริ่มเข้าไปแตะเรื่องส่วนตัวและอ่อนไหวมากขึ้นเรื่อยๆ นอกจากประเด็นด้านกฎหมายแล้ว ล่าสุดมีงานวิจัยจากมหาวิทยาลัยสแตนฟอร์ดที่ระบุว่า AI ยังไม่พร้อมรับบทบาทเป็นนักบำบัด เพราะมีแนวโน้มจะส่งเสริมอคติและสร้างความเข้าใจผิดเกี่ยวกับสุขภาพจิต 

โดยงานวิจัยระบุว่า แชตบ็อตหลายตัวตอบสนองต่อผู้ใช้งานที่มีภาวะสุขภาพจิตในทางที่ไม่เหมาะสม เช่น สนับสนุนความคิดหลงผิดหรือไม่สามารถแยกแยะภาวะวิกฤตได้อย่างถูกต้อง นอกจากนี้ยังแสดงท่าทีลำเอียงและตีตราโรคบางชนิด เช่น โรคจิตเภท หรือการติดสุรา ในขณะที่ตอบสนองต่อภาวะซึมเศร้าอย่างสุภาพกว่าอย่างชัดเจน 

แม้ ChatGPT จะช่วยให้เรารู้สึกว่ามีคนรับฟังอยู่ตลอดเวลา แต่ AI ยังไม่มีความสามารถในการเข้าใจมนุษย์ในเชิงลึกแบบที่นักบำบัดที่ผ่านการฝึกอบรมสามารถทำได้ อีกทั้งบทสนทนาที่คุณแชร์กับ AI ยังไม่อยู่ภายใต้การคุ้มครองทางกฎหมายด้านความลับส่วนบุคคล แบบที่จะได้รับเมื่อพูดคุยกับแพทย์หรือนักจิตวิทยาจริง ผู้ใช้งานควรระมัดระวังอย่างมากหากกำลังพึ่งพา AI ในการตัดสินใจหรือจัดการเรื่องอารมณ์ส่วนตัว 

หากกำลังเผชิญปัญหาทางอารมณ์หรือภาวะเครียด การพูดคุยกับผู้เชี่ยวชาญที่เป็นมนุษย์จริงๆ ยังเป็นทางเลือกที่ปลอดภัยและเหมาะสมที่สุดในตอนนี้



ที่มาข้อมูล Techcrunch 

ติดตามเพจ Facebook : Thairath Money ได้ที่ลิงก์นี้ -   

 



Author

กองบรรณาธิการ

กองบรรณาธิการ