Sam Altman ซีอีโอ OpenAI เตือนชัด ChatGPT ไม่ใช่นักบำบัด ไม่มีสิทธิความลับตามกฎหมาย หากเกิดคดีความ ศาลอาจสั่งให้เปิดแชตของคุณได้ ข้อมูลส่วนตัวที่เคยพิมพ์อาจย้อนกลับมาเป็นหลักฐาน
Sam Altman ซีอีโอของ OpenAI เปิดใจในบทสัมภาษณ์ล่าสุดกับ Theo Von ผ่านรายการพอดแคสต์ “This Past Weekend with Theo Von” ถึงความคืบหน้าของ AI ที่รวดเร็วราวกับพายุ แนวคิดเกี่ยวกับการผสานรวมระหว่างมนุษย์และเครื่องจักร ซึ่งชี้ให้เห็นประเด็นน่าเป็นห่วงอย่างเรื่อง “ความเป็นส่วนตัว” ของบทสนทนาเมื่อผู้ใช้หลายคนหันมาใช้ AI แทนการคุยกับนักจิตบำบัดตัวจริง ไปจนถึงผลกระทบต่อแรงงานและมนุษยธรรมที่กำลังสั่นคลอน
บทสนทนายาวกว่า 90 นาทีพาผู้ฟังดำดิ่งสู่คำถามใหญ่ที่กระทบต่อมนุษยชาติ ตั้งแต่การแข่งขันในเชิงธุรกิจไปจนถึงความหวัง ความกลัว และความวิตกส่วนตัวของ Altman ต่อทิศทางที่เทคโนโลยีกำลังพาเราไป
Altman ยอมรับว่าการพัฒนา AI ทุกวันนี้เปรียบเหมือนการแข่งขันที่รุนแรงและถ้า OpenAI ไม่เร่งเดินหน้าก็จะมีคนอื่นทำแทน ซึ่งอาจทำให้คุณค่าทางสังคมที่ควรอยู่ในแกนกลางของ AI หลุดมือไปอยู่ในกำมือของกลุ่มที่ไม่ได้ใส่ใจประเด็นเหล่านี้
โดย Von เปิดประเด็นว่า “คุณคิดว่าเราควรชะลอเรื่องพวกนี้ลงหน่อยไหม” และเสริมว่าที่เขาไม่กล้าใช้ AI มากนักก็เพราะ “ไม่รู้ว่าข้อมูลส่วนตัวจะไปอยู่ที่ไหน” ด้าน Altman ตอบอย่างตรงไปตรงมาว่า เขาเข้าใจความกลัวนั้นดีและเชื่อว่าตอนนี้ยังไม่มีใครรู้จริงๆ ว่าความเปลี่ยนแปลงนี้จะไปจบตรงไหน
แม้หลายฝ่ายจะเตือนว่า AI อาจลดทอนบทบาทของมนุษย์ลงเป็นแค่ตัวประกอบในโลกที่เทคโนโลยีกำหนดทุกอย่าง แต่ Altman ยังคงมองโลกในแง่ดีว่า มนุษย์จะยังคง “เป็นตัวละครหลักในความหมายที่สำคัญ” อย่างไรก็ตามเขายอมรับว่าความเปลี่ยนแปลงนี้จะสะเทือนหลายชีวิต โดยเฉพาะในระยะสั้นที่คนต้องปรับตัวรับการเปลี่ยนแปลงของอาชีพอย่างหนัก แต่เขาก็เชื่อว่าเมื่อทุกคนสามารถเข้าถึงความรู้และความเชี่ยวชาญผ่าน AI ได้ทันที มนุษย์จะสามารถนิยามการมีส่วนร่วมต่อสังคมในแบบใหม่ได้
นอกจากนี้ในอีกหนึ่งประเด็นที่ได้กลายเป็นที่ถกเถียง โดย Altman ได้เตือนผู้ใช้งานว่าการใช้ ChatGPT เป็น “นักบำบัดทางใจ” หรือ “ที่ปรึกษาชีวิต” อาจเสี่ยงต่อความเป็นส่วนตัว เพราะบทสนทนาเหล่านั้นกับ ChatGPT ไม่ถือว่าเป็นความลับทางกฎหมายเหมือนการคุยกับนักบำบัด แพทย์ หรือทนายความ อีกทั้งแม้ผู้ใช้จะลบแชตแล้ว แต่ข้อมูลเหล่านั้นก็อาจถูกเรียกคืนได้ หากมีเหตุผลด้านกฎหมายหรือความมั่นคงเข้ามาเกี่ยวข้อง
“ผู้คนพูดถึงเรื่องส่วนตัวของตัวเองกับ ChatGPT โดยเฉพาะคนรุ่นใหม่ที่ใช้มันเป็นเหมือนนักบำบัดหรือโค้ชชีวิต ถามเรื่องปัญหาความสัมพันธ์ บอกเล่าเรื่องในใจว่า ‘ฉันควรทำยังไงดี?’ แต่ตอนนี้ ถ้าคุณพูดเรื่องพวกนี้กับหมอหรือนักบำบัด มันมี ‘สิทธิความลับตามกฎหมาย’ คุ้มครองอยู่ แต่กับ AI เรายังหาทางออกเรื่องนี้ไม่ได้เลย”
Altman ยอมรับว่านี่เป็นประเด็นใหม่ที่เพิ่งเกิดขึ้นไม่นานนี้ และเป็นปัญหาใหญ่ที่ต้องหาทางจัดการในเชิงกฎหมายโดยเร็ว เพราะปัญหานี้อาจกลายเป็นประเด็นด้านความเป็นส่วนตัวที่สำคัญ โดยเฉพาะในกรณีที่มีการฟ้องร้อง เขาเตือนว่าหากมีการฟ้องร้องในอนาคต OpenAI อาจถูกศาลสั่งให้เปิดเผยข้อมูลการสนทนาเหล่านี้ได้ตามกฎหมาย ซึ่งเป็นสิ่งที่บริษัทมองว่า “ไม่ควรเกิดขึ้น” และกำลังพยายามต่อสู้เพื่อปกป้องความเป็นส่วนตัวของผู้ใช้ให้มากขึ้น OpenAI ตระหนักดีว่า
ความไม่ชัดเจนเรื่องความเป็นส่วนตัวอาจกลายเป็นอุปสรรคสำคัญต่อการใช้งานในวงกว้าง โดยเฉพาะเมื่อ AI ต้องอาศัยข้อมูลจากผู้ใช้มหาศาลในการฝึกโมเดล และขณะเดียวกันก็อาจถูกบังคับให้เปิดเผยข้อมูลนั้นตามคำสั่งศาล ยกตัวอย่าง ในกรณีข้อพิพาทกับ The New York Times ที่ศาลมีคำสั่งให้ OpenAI ต้องเก็บบทสนทนาของผู้ใช้ ChatGPT ทั่วโลกไว้ ซึ่ง OpenAI ได้ยื่นอุทธรณ์คำสั่งศาลดังกล่าว โดยระบุในแถลงการณ์ว่า เป็น “การใช้อำนาจเกินขอบเขต” และหากศาลสามารถบังคับให้บริษัทเปิดเผยข้อมูลผู้ใช้ได้อาจเปิดช่องให้เกิดการเรียกร้องข้อมูลเพื่อการสอบสวนทางกฎหมายหรือแม้แต่การดำเนินคดีในอนาคต
กรณีนี้ตอกย้ำความจำเป็นในการเร่งพัฒนากฎหมายและนโยบายที่รองรับการใช้ AI ในชีวิตประจำวัน โดยเฉพาะเมื่อลักษณะการใช้งานเริ่มเข้าไปแตะเรื่องส่วนตัวและอ่อนไหวมากขึ้นเรื่อยๆ นอกจากประเด็นด้านกฎหมายแล้ว ล่าสุดมีงานวิจัยจากมหาวิทยาลัยสแตนฟอร์ดที่ระบุว่า AI ยังไม่พร้อมรับบทบาทเป็นนักบำบัด เพราะมีแนวโน้มจะส่งเสริมอคติและสร้างความเข้าใจผิดเกี่ยวกับสุขภาพจิต
โดยงานวิจัยระบุว่า แชตบ็อตหลายตัวตอบสนองต่อผู้ใช้งานที่มีภาวะสุขภาพจิตในทางที่ไม่เหมาะสม เช่น สนับสนุนความคิดหลงผิดหรือไม่สามารถแยกแยะภาวะวิกฤตได้อย่างถูกต้อง นอกจากนี้ยังแสดงท่าทีลำเอียงและตีตราโรคบางชนิด เช่น โรคจิตเภท หรือการติดสุรา ในขณะที่ตอบสนองต่อภาวะซึมเศร้าอย่างสุภาพกว่าอย่างชัดเจน
แม้ ChatGPT จะช่วยให้เรารู้สึกว่ามีคนรับฟังอยู่ตลอดเวลา แต่ AI ยังไม่มีความสามารถในการเข้าใจมนุษย์ในเชิงลึกแบบที่นักบำบัดที่ผ่านการฝึกอบรมสามารถทำได้ อีกทั้งบทสนทนาที่คุณแชร์กับ AI ยังไม่อยู่ภายใต้การคุ้มครองทางกฎหมายด้านความลับส่วนบุคคล แบบที่จะได้รับเมื่อพูดคุยกับแพทย์หรือนักจิตวิทยาจริง ผู้ใช้งานควรระมัดระวังอย่างมากหากกำลังพึ่งพา AI ในการตัดสินใจหรือจัดการเรื่องอารมณ์ส่วนตัว
หากกำลังเผชิญปัญหาทางอารมณ์หรือภาวะเครียด การพูดคุยกับผู้เชี่ยวชาญที่เป็นมนุษย์จริงๆ ยังเป็นทางเลือกที่ปลอดภัยและเหมาะสมที่สุดในตอนนี้
ที่มาข้อมูล Techcrunch
ติดตามเพจ Facebook : Thairath Money ได้ที่ลิงก์นี้ -