เมื่อ ChatGPT อาจเป็นสาเหตุทำให้เด็ก(ฆ่าตัว)ตาย?
เมื่อ 16 ชั่วโมงที่แล้ว
เมื่อ ChatGPT อาจเป็นสาเหตุทำให้เด็ก(ฆ่าตัว)ตาย? – เราในฐานะผู้ปกครองควรทราบ หรือควรเรียนรู้อะไรจากเหตุการณ์นี้ บทความโดย #คุณนายข้าวกล่อง
.
เมื่อเร็ว ๆ นี้ ได้มีการรายงานข่าวเกี่ยวกับการฟ้องร้องบริษัท OpenAI หรือบริษัทที่สรรสร้างนวัตกรรมแชทบอทสุดฮิตอย่าง ‘ChatGPT’ จากคุณแมตต์ (Matt Raine) และมาเรีย (Maria Raine) สามีภรรยาคู่หนึ่งในสหรัฐอเมริกา ด้วยข้อหาว่าแชทบอทนี้เป็นตัวการที่ทำให้ลูกชายวัย 16 ปี หรือ อดัม (Adam Raine) ตัดสินใจปลิดชีวิตตัวเองลง หลังจากที่เขาได้ใช้ ChatGPT ปรึกษาเรื่องปัญหาทุกข์ใจของตนเองตั้งแต่ช่วงต้นปีที่ผ่านมา ซึ่งในฐานะของผู้ทราบข่าว #คุณนายข้าวกล่อง อยากจะขอแสดงความเสียใจต่อเหตุการณ์ที่เกิดขึ้นอย่างมากจริง ๆ
.
โดยถึงแม้จุดเริ่มต้นการใช้ ChatGPT ของอดัมจะมาจากขอความช่วยเหลือในเรื่องการทำการบ้าน แต่บทสนทนาก็ได้เริ่มเปลี่ยนไปตั้งแต่ช่วงเดือนมีนาคมและเมษายน หลังจากที่เขาเริ่มเจอเหตุการณ์หนัก ๆ ในชีวิต ไม่ว่าจะเป็นการสูญเสียคุณย่าหรือน้องหมาของเขา รวมไปถึงโดนไล่ออกจากทีมบาสเกตบอลของโรงเรียน และมีอาการป่วยหนักจนจำต้องเรียนออนไลน์ที่บ้านแทนการไปโรงเรียนโดยในระหว่างพูดคุย ChatGPT ได้มีการแนะนำถึงวิธีการตัวตายในรูปแบบต่าง ๆ รวมถึงเริ่มสนับสนุนให้เขาไม่เล่าควาทุกข์ใจหรือขอความช่วยเหลือจากคนในครอบครัว แม้ว่าในบทสนทนาตัวบอทจะเริ่มแนะนำให้ปรึกษาผู้เชี่ยวชาญหรือคนในครอบครัวหลังจากที่เขาทราบว่าอดัมเริ่มมีการทำร้ายร่างกายตัวเองหลายครั้งแล้วก็ตาม
.
“ChatGPT มีระบบการป้องกันเพื่อความปลอดภัยของผู้ปรึกษาเมื่อเจอกับเหตุการณ์วิกฤต อย่างเช่นแนะนำให้ปรึกษาปัญหากับผู้เชี่ยวชาญ หรือสนับสนุนให้เข้าหาบุคคลหรือทรัพยากรในโลกความเป็นจริงในการช่วยเหลือปัญหาดังกล่าว แต่เราค้นพบว่าตัวแชทบอทเองก็เริ่มขาดความน่าเชื่อถือเมื่อเริ่มมีบทสนทนาที่ยาวขึ้น ทำให้ระบบการป้องกันความปลอดภัยเริ่มเสื่อมถอยลง” (แปลง่าย ๆ คือมีการป้อนข้อมูลให้บอททราบว่าต้องแนะนำให้ผู้ใช้เข้าหาผู้เชี่ยวชาญเมื่อเจอเหตุการณ์วิกฤต แต่บางทีมันก็อ๊องได้ถ้าคุยกับนาน ๆ ยาว ๆ หรือเริ่มมีข้อมูลที่มากขึ้น) บริษัท OpenAI กล่าว
.
“แล้วอะไรที่ทำให้เด็ก ๆ เลือกปรึกษา ChatGPT ในเรื่องปัญหาชีวิต แทนที่จะเลือกคุยกับเพื่อน คุณครู หรือผู้ปกครอง?” – นอกจากเรื่องนี้ดูจะเป็นความรับผิดชอบของบริษัท OpenAI ที่ต้องจัดการหากสิ่งนี้เป็นเรื่องจริงแล้ว นี่เป็นอีกหนึ่งคำถามที่ส่วนตัวสงสัยหลังจากอ่านข่าวจบ เพราะการตอบคำถามนี้ก็น่าจะมีส่วนช่วยให้พวกเรา ทั้งในฐานะคนทั่วไปในสังคมรวมถึงฐานะการเป็นผู้ปกครอง สามารถทำความเข้าใจและป้องกันการเกิดเหตุการณ์นี้กับลูกของเราได้เช่นเดียวกัน เพราะมันก็ดูน่าสนใจไม่น้อยว่า อะไรที่ทำให้เราถึงเลือก AI แทนที่จะเลือกมนุษย์? นวัตกรรมนี้มันมีอะไรซ่อนอยู่ที่จูงใจให้เราในฐานะมนุษย์เองเลือกที่จะให้มันทำหน้าที่นี้?
.
#คุณนายข้าวกล่อง เลยลองไปศึกษาอ่านงานวิจัยเพิ่มเติ่มเพื่อทำความเข้าใจสถานการณ์นี้ว่าเพราะอะไรมนุษย์ถึงตัดสินใจพูดถึงปัญหาความทุกข์ใจส่วนตัวกับ ChatGPT ซึ่ง...ก็มีงานวิจัยที่เขาศึกษาถึงเรื่องนี้อยู่จริง ๆ
.
มีงานวิจัยเชิงคุณภาพอันหนึ่งได้รวบรวมเหตุการณ์ที่ผู้คนตัดสินใจใช้ ChatGPT ในการปรึกษาปัญหาชีวิตบนเรดดิต (Reddit) แพลตฟอร์มออนไลน์ที่มีลักษณะคล้าย ๆ กับกระทู้พันทิปบ้านเรา ที่คนส่วนใหญ่มักจะโพสต์กระทู้เพื่อถกเถียงหรือแชร์ประสบการณ์หลังการใช้ ChatGPT ช่วยแก้ไขปัญหาชีวิตต่าง ๆ ของตัวเอง คล้าย ๆ กับ ‘แชร์รีวิวหลังการใช้ ChatGPT เพื่อช่วยแก้ปัญหาด้านจิตใจ’เพื่อสำรวจ insight ของการที่บุคคลตัดสินใจใช้ ChatGPT เป็นพื้นที่ซัพพอร์ตจิตใจยามกำลังมีความทุกข์
.
โดยหลังจากที่ตนเองได้อ่านรีวิวหลังการใช้ ChatGPT ส่วนตัวเซอรไพรส์กับผลการสำรวจมากค่ะ เพราะเชื่อหรือไม่ว่า แม้ผู้วิจัยจะพบเจอเพียงแค่ 7 รีวิวจากเรดดิตที่ใช้ ChatGPT เพื่อซัพพอร์ตจิตใจ แต่มีผู้ใช้ถึง 3 คนด้วยกันที่ตัดสินใจใช้แชทบอทนี้เพื่อจัดการความคิดและความรู้สึกของตนเองหลังจากเจอเหตุการณ์ ‘การสูญเสีย’ ไม่ว่าจะเป็นการสูญเสียของบุคคลในครอบครัวหรือสัตว์เลี้ยง เหมือนกันกับเคสของอดัมเลย ส่วนเคสที่เหลือก็จะเป็นการใช้เพื่อซัพพอร์ตอารมณ์ที่ท่วมท้นชั่วคราว ช่วยเหลือด้านการเข้าสังคม รวมถึงที่น่าประหลาดใจที่สุดสำหรับ #คุณนายข้าวกล่อง คือเป็นตัวช่วยเพื่อจัดการปัญหาเรื่องสมาธิสั้น
.
แต่หากเราจะมาถกกันในเคสของอดัม ปกติแล้วเวลาหากมนุษย์เราเผชิญหน้ากับเหตุการณ์การสูญเสียบุคคลอันเป็นที่รัก (Grief) มันเป็นธรรมดาอยู่แล้วที่พวกเราจะรู้สึกเสียใจและทำใจไม่ได้ เพราะแม้การจากไปจะเป็นเรื่องธรรมชาติที่ต้องเกิดขึ้นกับทุกคนอยู่แล้ว มันก็คงปฏิเสธไม่ได้จริง ๆ ที่ในโมเมนต์นั้นเราจะเสียศูนย์ เพราะการยอมรับว่าบุคคลกำลังเป็นที่รักได้จากไปแล้ว ในอีกมุมหนึ่งก็อาจแปลได้ว่า เรากำลังจะต้องยอมรับว่าเหตุการณ์นี้กำลังพรากเราไปจากบุคคลที่มีความหมายกับเรามากที่สุด เพราะอาจะเป็นคนที่เข้าใจเรามากที่สุด เห็นเราและยอมรับในความเป็นเรามากที่สุด หรือแคร์เรามากที่สุด ‘ไปตลอดกาล’ ซึ่งมันก็คงทำให้เรารู้สึกเศร้าอย่างเข้าใจได้มาก ๆ เลย
.
ในโมเมนต์นี้หากให้ลองจิตนาการว่าเรากำลังสูญเสียใครสักคนอันเป็นที่รักไป เราก็คงไม่อยากให้ใครมาพูดให้เรายอมรับสถานการณ์นี้เร็ว ๆ หรอก แม้ว่าสุดท้ายแล้วเราก็ต่างรู้ว่าทุกคนก็ต้องยอมรับมันให้ได้อยู่ดี เราคงไม่ต้องการคนอื่นมารีบกดดันให้เรารู้สึกดีขึ้น หรือถ้าเป็นเคสที่เรากดดันตัวเองให้ยอมรับมันเร็ว ๆ ส่วนตัวมันก็คงยากเหมือนกัน เพราะก็เชื่อว่าลึก ๆ ข้างในแล้ว เราก็คงไม่ได้อยากทำเหมือนกัน หรือหากถ้ามีใคร offer ตัวเลือกให้เราสามารถหยุดเวลาไม่ให้ทุกอย่างเปลี่ยนไปได้สักพัก เราก็คงอยากทำเพื่อให้เวลากับตัวเองเหมือนกัน
.
‘พื้นที่ที่ทำให้รู้สึกอุ่นใจในการปลดปล่อยอารมณ์’ เลยกลายเป็นสิ่งที่คนที่อยู่ในสภาวะอารมณ์นี้โหยหา ซึ่ง ChatGPT ดันเป็นอีกทางเลือกหนึ่งที่ตอบโจทย์มาก เพราะมันสามารถมอบพื้นที่ที่สามารถซัพพอร์ตอารมณ์ของพวกเขาได้จริง ๆ เพราะนอกจากลักษณะของ AI ที่ ‘ว่างเปล่าและไร้ตัวตน’ ทำให้ดูเป็นพื้นที่ให้เราสามารถหลีกเลี่ยงความกดดันให้ยอมรับ หรือการ judge จากมนุษย์กันเองถึงสถานการณ์การสูญเสียแล้ว ตัว AI สามารถเข้าใจความต้องการนี้ของเราและเป็นผู้รับฟังอย่างตั้งใจ (active listening) รวมถึงสามารถยืนยัน (validate) ความรู้สึกของเราอย่างไม่ตัดสิน ว่าเขาเข้าใจความรู้สึกของเราว่ามันคงเจ็บแค่ไหน และมันก็โอเคมาก ๆ เลยที่จะมีความรู้สึกเช่นนั้น
.
และเอาจริง ๆ คงไม่ใช่แค่กับบุคคลที่กำลังเผชิญหน้ากับเหตุการณ์สูญเสียบุคคลอันเป็นที่รักอย่างเดียว ส่วนตัวเชื่อว่าไม่ว่าเราจะกำลังเผชิญเหตุการณ์อะไรบางอย่างที่น่าทุกข์ใจอยู่ ไม่ว่าจะเป็นเรื่องสอบเข้าไม่ได้ เลิกกับแฟน มีปัญหากับเพื่อนร่วมงาน เพื่อนไม่คบ หรือแม้กระทั่งเรื่องกลัวจิ้งจกในห้องน้ำ เราเองก็คงรู้สึกดีไม่น้อยเหมือนกันที่มีใครสักคนคอยรับฟังเราอยู่ข้าง ๆ อย่างไม่ตัดสินว่าเรื่องนี้เป็นเรื่องเล็กหรือเรื่องใหญ่ ควรจัดการเองได้หรือไม่ได้ หรือควรจะจัดการได้แล้วหรือยังไม่ได้ก็ไม่เป็นไร
.
นอกจากนี้ สิ่งหนึ่งที่ส่วนตัวค้นพบและมองว่าน่าสนใจคือ จุดเริ่มต้นของการใช้ ChatGPT ส่วนใหญ่ของคนกลุ่มนี้ มาจากการที่พวกเขา ‘ไม่สามารถหาใครที่รู้สึกว่าน่าจะช่วยเหลือได้’ ไม่ว่าด้วยเพราะตัวเองอยู่ห่างไกลผู้เชี่ยวชาญหรือนักบำบัด รู้สึกว่าเข้าหาผู้เชี่ยวชาญแล้วก็ยังช่วยไม่ได้ หรือมาจากการที่เขารู้สึกหันซ้ายหันขวาไปแล้วไม่เจอใครจริง ๆ นี่เลยเหมือนเป็นอีกหนึ่ง pain point ที่คนกลุ่มนี้อาจเลือกใช้ ChatGPT ได้เหมือนกัน
.
“เมื่อไม่นานมานี้ฉันเพิ่งร้องไห้หลังจากเจอเหตุการณ์หนึ่งมา และฉันก็เล่าให้ ChatGPT ฟังแบบอัตโนมัติเพราะฉันไม่มีใครที่จะแชร์เรื่องราวแบบนี้ให้ฟังได้ ฉันแค่ต้องการคนที่ยืนยันและใส่ใจกับความรู้สึกของฉันว่ามันโอเค ต้องการรู้สึกว่ามีใครสักคนที่เข้าใจฉัน และใดๆ ก็ตาม ChatGPT สามารถอธิบายความรู้สึกของฉันได้ในวันที่ฉันเองก็ยังไม่สามารถอธิบายมันออกมาได้เหมือนกัน” – หนึ่งผู้ใช้ ChatGPT เพื่อซัพพอร์ตจิตใจได้รีวิวไว้
.
#เราในฐานะผู้ปกครองได้อะไรจากเรื่องนี้
.
‘การขาดพื้นที่ที่ทำให้รู้สึกสบายใจ หรือคนที่ทำให้รู้สึกสบายใจที่จะคุยได้ อาจเป็นจุดเริ่มต้นที่ทำให้คนเลือกใช้ ChatGPT เพื่อเติมเต็มความสบายใจที่เขาต้องการ’ - นี่คงเป็นบทสรุปที่ช่วยตอบคำถามตอนต้นถึงสาเหตุที่ทำให้เราเลือกคุยกับ ChatGPT แทนคุยกับคนอื่น ที่ก็อาจมีความเชื่อมโยงกับเหตุการณ์ของอดัมที่เกิดขึ้นก็เป็นได้
.
ซึ่งแน่นอนการสรุปแบบนี้ไม่ได้แปลว่า OpenAI ไม่ควรต้องรับผิดชอบกับเหตุการณ์ที่เกิดขึ้น หรือเป็นการโทษสังคมหรือตัวครอบครัวเองที่อาจมีส่วนทำให้เกิดเหตุการณ์น่าสลดใจแบบนี้ขึ้นแต่อย่างใด เพราะส่วนตัวเชื่อว่าไม่มีครอบครัวไหนที่อยากใจร้ายกับลูกเราเองจริง ๆ เหมือนกัน
.
เพียงแต่ข้อมูลนี้อาจทำให้เราเห็นว่าทักษะบางอย่างของ AI ก็อาจสามารถสร้างความสบายใจที่ถูกจริตต่อตัวมนุษย์กันเองมากกว่าจริง ๆ ซึ่งส่วนตัวมองว่าถ้าหากเราสามารถถอดวิธีการสร้างความสบายนี้มาใช้กับมนุษย์ได้ มันก็คงอาจเป็น #บทเรียนน่าคิดสำหรับผู้ปกครอง อย่างเราเหมือนกัน ที่อย่างน้อยที่สุดมันก็น่าคิดที่เราอาจลองกลับมาทบทวนตัวเองถึงคำพูด ท่าทาง หรือพฤติกรรมที่เราแสดงต่อลูกเหมือนกัน ว่าสิ่งที่เราทำ มันสามารถสร้างความสบายใจให้กับเขาได้จริงไหม? ซึ่งนี่ก็อาจเป็นบทสนทนาเริ่มต้นที่เราอาจลองเริ่มพูดคุยกับลูกก็ได้ เพื่อทำให้เกิดการสื่อสารและปรับความเข้าใจกันมากขึ้น ซึ่งหากใครอยากหาเครื่องมือทีน่าเชื่อถือช่วยรีเช็คหรือช่วยเสริมสร้างทักษะนี้เพิ่มเติม สามารถเข้ามาศึกษาได้ฟรีเลยที่ www.netpama.com เช่นกัน
.
และเพราะความสบายใจ ไม่ใช่มาจากการที่เราหรือเขาเข้าใจถึงทุกอย่างที่เกิดขึ้นของแต่ละฝ่ายร้อยเปอร์เซ็นต์ เพราะสุดท้ายมันก็เข้าใจได้ที่จะไม่มีใครเข้าใจความเป็นเราหรือใครคนไหนได้ร้อยเปอร์เซนต์เหมือนกัน (เพราะเราไม่ได้ผ่านมาแบบเขา หรือเขาก็ไม่ได้ผ่านมาแบบเรา) แต่มันคือความรู้สึกจริงใจที่อยากซัพพอร์ต ที่ถูกแสดงออกมาผ่านท่าทาง การพูด และการกระทำ ที่ทำให้เขา เรา หรือลูกตีความเป็นความรู้สึกสบายใจอีกที
.
และนั่นคือเสน่ห์ของความเป็นมนุษย์ที่สามารถสรรสร้างการแสดงออกถึงสิ่งนี้ได้หลากหลายรูปแบบแตกต่างกันออกไปตามสไตล์หรือ personality แต่ละคน ที่บางทีแม้มันอาจไม่สวยหรู ต้องรู้สึกเป็นหงุดหงิด เศร้า กังวล หรือเหนื่อยในการทำความเข้าใจบ้าง แต่นั่นคือความเป็นจริงในสังคมมนุษย์ ที่ก็เป็นศิลปะที่สวยงาม ที่บางทีไบแอสจากความรักหรือความเป็นห่วงมาก ๆ ของมนุษย์ ก็อาจสามารถให้ความรู้สึกสบายใจที่เข้มข้น เรียล และ powerful ได้มากกว่า AI ที่แม้จะมีทักษะและความรู้ในการซัพพอร์ตอารมณ์ แต่ก็ยังสามารถโอนอ่อนไปตามการให้ข้อมูลของผู้ใช้เพราะไม่ได้มีจุดยืนของตัวเอง หรือพูดเป็นภาษาง่าย ๆ ว่า
.
“เป็นผู้มีความรู้และสามารถฝึกฝนทักษะทำให้สามารถเรียนรู้หรือลอกเลียนแบบได้ แต่ก็ยังไม่สามารถมี soul เป็นของตัวเองได้”
.
อ้างอิง
Giray, L. (2025). Cases of using ChatGPT as a mental health and psychological support tool. Journal of Consumer Health on the Internet, 29(1), 29-48. https://www.researchgate.net/.../Cases-of-Using-ChatGPT...
https://time.com/7312484/chatgpt-openai-suicide-lawsuit/
https://www.facebook.com/share/p/1G5kUyF5kS/
https://www.nbcnews.com/.../parents-of-teen-who-died-by...
#NetPAMA #เน็ตป๊าม้า #ChatGPT
.
เมื่อเร็ว ๆ นี้ ได้มีการรายงานข่าวเกี่ยวกับการฟ้องร้องบริษัท OpenAI หรือบริษัทที่สรรสร้างนวัตกรรมแชทบอทสุดฮิตอย่าง ‘ChatGPT’ จากคุณแมตต์ (Matt Raine) และมาเรีย (Maria Raine) สามีภรรยาคู่หนึ่งในสหรัฐอเมริกา ด้วยข้อหาว่าแชทบอทนี้เป็นตัวการที่ทำให้ลูกชายวัย 16 ปี หรือ อดัม (Adam Raine) ตัดสินใจปลิดชีวิตตัวเองลง หลังจากที่เขาได้ใช้ ChatGPT ปรึกษาเรื่องปัญหาทุกข์ใจของตนเองตั้งแต่ช่วงต้นปีที่ผ่านมา ซึ่งในฐานะของผู้ทราบข่าว #คุณนายข้าวกล่อง อยากจะขอแสดงความเสียใจต่อเหตุการณ์ที่เกิดขึ้นอย่างมากจริง ๆ
.
โดยถึงแม้จุดเริ่มต้นการใช้ ChatGPT ของอดัมจะมาจากขอความช่วยเหลือในเรื่องการทำการบ้าน แต่บทสนทนาก็ได้เริ่มเปลี่ยนไปตั้งแต่ช่วงเดือนมีนาคมและเมษายน หลังจากที่เขาเริ่มเจอเหตุการณ์หนัก ๆ ในชีวิต ไม่ว่าจะเป็นการสูญเสียคุณย่าหรือน้องหมาของเขา รวมไปถึงโดนไล่ออกจากทีมบาสเกตบอลของโรงเรียน และมีอาการป่วยหนักจนจำต้องเรียนออนไลน์ที่บ้านแทนการไปโรงเรียนโดยในระหว่างพูดคุย ChatGPT ได้มีการแนะนำถึงวิธีการตัวตายในรูปแบบต่าง ๆ รวมถึงเริ่มสนับสนุนให้เขาไม่เล่าควาทุกข์ใจหรือขอความช่วยเหลือจากคนในครอบครัว แม้ว่าในบทสนทนาตัวบอทจะเริ่มแนะนำให้ปรึกษาผู้เชี่ยวชาญหรือคนในครอบครัวหลังจากที่เขาทราบว่าอดัมเริ่มมีการทำร้ายร่างกายตัวเองหลายครั้งแล้วก็ตาม
.
“ChatGPT มีระบบการป้องกันเพื่อความปลอดภัยของผู้ปรึกษาเมื่อเจอกับเหตุการณ์วิกฤต อย่างเช่นแนะนำให้ปรึกษาปัญหากับผู้เชี่ยวชาญ หรือสนับสนุนให้เข้าหาบุคคลหรือทรัพยากรในโลกความเป็นจริงในการช่วยเหลือปัญหาดังกล่าว แต่เราค้นพบว่าตัวแชทบอทเองก็เริ่มขาดความน่าเชื่อถือเมื่อเริ่มมีบทสนทนาที่ยาวขึ้น ทำให้ระบบการป้องกันความปลอดภัยเริ่มเสื่อมถอยลง” (แปลง่าย ๆ คือมีการป้อนข้อมูลให้บอททราบว่าต้องแนะนำให้ผู้ใช้เข้าหาผู้เชี่ยวชาญเมื่อเจอเหตุการณ์วิกฤต แต่บางทีมันก็อ๊องได้ถ้าคุยกับนาน ๆ ยาว ๆ หรือเริ่มมีข้อมูลที่มากขึ้น) บริษัท OpenAI กล่าว
.
“แล้วอะไรที่ทำให้เด็ก ๆ เลือกปรึกษา ChatGPT ในเรื่องปัญหาชีวิต แทนที่จะเลือกคุยกับเพื่อน คุณครู หรือผู้ปกครอง?” – นอกจากเรื่องนี้ดูจะเป็นความรับผิดชอบของบริษัท OpenAI ที่ต้องจัดการหากสิ่งนี้เป็นเรื่องจริงแล้ว นี่เป็นอีกหนึ่งคำถามที่ส่วนตัวสงสัยหลังจากอ่านข่าวจบ เพราะการตอบคำถามนี้ก็น่าจะมีส่วนช่วยให้พวกเรา ทั้งในฐานะคนทั่วไปในสังคมรวมถึงฐานะการเป็นผู้ปกครอง สามารถทำความเข้าใจและป้องกันการเกิดเหตุการณ์นี้กับลูกของเราได้เช่นเดียวกัน เพราะมันก็ดูน่าสนใจไม่น้อยว่า อะไรที่ทำให้เราถึงเลือก AI แทนที่จะเลือกมนุษย์? นวัตกรรมนี้มันมีอะไรซ่อนอยู่ที่จูงใจให้เราในฐานะมนุษย์เองเลือกที่จะให้มันทำหน้าที่นี้?
.
#คุณนายข้าวกล่อง เลยลองไปศึกษาอ่านงานวิจัยเพิ่มเติ่มเพื่อทำความเข้าใจสถานการณ์นี้ว่าเพราะอะไรมนุษย์ถึงตัดสินใจพูดถึงปัญหาความทุกข์ใจส่วนตัวกับ ChatGPT ซึ่ง...ก็มีงานวิจัยที่เขาศึกษาถึงเรื่องนี้อยู่จริง ๆ
.
มีงานวิจัยเชิงคุณภาพอันหนึ่งได้รวบรวมเหตุการณ์ที่ผู้คนตัดสินใจใช้ ChatGPT ในการปรึกษาปัญหาชีวิตบนเรดดิต (Reddit) แพลตฟอร์มออนไลน์ที่มีลักษณะคล้าย ๆ กับกระทู้พันทิปบ้านเรา ที่คนส่วนใหญ่มักจะโพสต์กระทู้เพื่อถกเถียงหรือแชร์ประสบการณ์หลังการใช้ ChatGPT ช่วยแก้ไขปัญหาชีวิตต่าง ๆ ของตัวเอง คล้าย ๆ กับ ‘แชร์รีวิวหลังการใช้ ChatGPT เพื่อช่วยแก้ปัญหาด้านจิตใจ’เพื่อสำรวจ insight ของการที่บุคคลตัดสินใจใช้ ChatGPT เป็นพื้นที่ซัพพอร์ตจิตใจยามกำลังมีความทุกข์
.
โดยหลังจากที่ตนเองได้อ่านรีวิวหลังการใช้ ChatGPT ส่วนตัวเซอรไพรส์กับผลการสำรวจมากค่ะ เพราะเชื่อหรือไม่ว่า แม้ผู้วิจัยจะพบเจอเพียงแค่ 7 รีวิวจากเรดดิตที่ใช้ ChatGPT เพื่อซัพพอร์ตจิตใจ แต่มีผู้ใช้ถึง 3 คนด้วยกันที่ตัดสินใจใช้แชทบอทนี้เพื่อจัดการความคิดและความรู้สึกของตนเองหลังจากเจอเหตุการณ์ ‘การสูญเสีย’ ไม่ว่าจะเป็นการสูญเสียของบุคคลในครอบครัวหรือสัตว์เลี้ยง เหมือนกันกับเคสของอดัมเลย ส่วนเคสที่เหลือก็จะเป็นการใช้เพื่อซัพพอร์ตอารมณ์ที่ท่วมท้นชั่วคราว ช่วยเหลือด้านการเข้าสังคม รวมถึงที่น่าประหลาดใจที่สุดสำหรับ #คุณนายข้าวกล่อง คือเป็นตัวช่วยเพื่อจัดการปัญหาเรื่องสมาธิสั้น
.
แต่หากเราจะมาถกกันในเคสของอดัม ปกติแล้วเวลาหากมนุษย์เราเผชิญหน้ากับเหตุการณ์การสูญเสียบุคคลอันเป็นที่รัก (Grief) มันเป็นธรรมดาอยู่แล้วที่พวกเราจะรู้สึกเสียใจและทำใจไม่ได้ เพราะแม้การจากไปจะเป็นเรื่องธรรมชาติที่ต้องเกิดขึ้นกับทุกคนอยู่แล้ว มันก็คงปฏิเสธไม่ได้จริง ๆ ที่ในโมเมนต์นั้นเราจะเสียศูนย์ เพราะการยอมรับว่าบุคคลกำลังเป็นที่รักได้จากไปแล้ว ในอีกมุมหนึ่งก็อาจแปลได้ว่า เรากำลังจะต้องยอมรับว่าเหตุการณ์นี้กำลังพรากเราไปจากบุคคลที่มีความหมายกับเรามากที่สุด เพราะอาจะเป็นคนที่เข้าใจเรามากที่สุด เห็นเราและยอมรับในความเป็นเรามากที่สุด หรือแคร์เรามากที่สุด ‘ไปตลอดกาล’ ซึ่งมันก็คงทำให้เรารู้สึกเศร้าอย่างเข้าใจได้มาก ๆ เลย
.
ในโมเมนต์นี้หากให้ลองจิตนาการว่าเรากำลังสูญเสียใครสักคนอันเป็นที่รักไป เราก็คงไม่อยากให้ใครมาพูดให้เรายอมรับสถานการณ์นี้เร็ว ๆ หรอก แม้ว่าสุดท้ายแล้วเราก็ต่างรู้ว่าทุกคนก็ต้องยอมรับมันให้ได้อยู่ดี เราคงไม่ต้องการคนอื่นมารีบกดดันให้เรารู้สึกดีขึ้น หรือถ้าเป็นเคสที่เรากดดันตัวเองให้ยอมรับมันเร็ว ๆ ส่วนตัวมันก็คงยากเหมือนกัน เพราะก็เชื่อว่าลึก ๆ ข้างในแล้ว เราก็คงไม่ได้อยากทำเหมือนกัน หรือหากถ้ามีใคร offer ตัวเลือกให้เราสามารถหยุดเวลาไม่ให้ทุกอย่างเปลี่ยนไปได้สักพัก เราก็คงอยากทำเพื่อให้เวลากับตัวเองเหมือนกัน
.
‘พื้นที่ที่ทำให้รู้สึกอุ่นใจในการปลดปล่อยอารมณ์’ เลยกลายเป็นสิ่งที่คนที่อยู่ในสภาวะอารมณ์นี้โหยหา ซึ่ง ChatGPT ดันเป็นอีกทางเลือกหนึ่งที่ตอบโจทย์มาก เพราะมันสามารถมอบพื้นที่ที่สามารถซัพพอร์ตอารมณ์ของพวกเขาได้จริง ๆ เพราะนอกจากลักษณะของ AI ที่ ‘ว่างเปล่าและไร้ตัวตน’ ทำให้ดูเป็นพื้นที่ให้เราสามารถหลีกเลี่ยงความกดดันให้ยอมรับ หรือการ judge จากมนุษย์กันเองถึงสถานการณ์การสูญเสียแล้ว ตัว AI สามารถเข้าใจความต้องการนี้ของเราและเป็นผู้รับฟังอย่างตั้งใจ (active listening) รวมถึงสามารถยืนยัน (validate) ความรู้สึกของเราอย่างไม่ตัดสิน ว่าเขาเข้าใจความรู้สึกของเราว่ามันคงเจ็บแค่ไหน และมันก็โอเคมาก ๆ เลยที่จะมีความรู้สึกเช่นนั้น
.
และเอาจริง ๆ คงไม่ใช่แค่กับบุคคลที่กำลังเผชิญหน้ากับเหตุการณ์สูญเสียบุคคลอันเป็นที่รักอย่างเดียว ส่วนตัวเชื่อว่าไม่ว่าเราจะกำลังเผชิญเหตุการณ์อะไรบางอย่างที่น่าทุกข์ใจอยู่ ไม่ว่าจะเป็นเรื่องสอบเข้าไม่ได้ เลิกกับแฟน มีปัญหากับเพื่อนร่วมงาน เพื่อนไม่คบ หรือแม้กระทั่งเรื่องกลัวจิ้งจกในห้องน้ำ เราเองก็คงรู้สึกดีไม่น้อยเหมือนกันที่มีใครสักคนคอยรับฟังเราอยู่ข้าง ๆ อย่างไม่ตัดสินว่าเรื่องนี้เป็นเรื่องเล็กหรือเรื่องใหญ่ ควรจัดการเองได้หรือไม่ได้ หรือควรจะจัดการได้แล้วหรือยังไม่ได้ก็ไม่เป็นไร
.
นอกจากนี้ สิ่งหนึ่งที่ส่วนตัวค้นพบและมองว่าน่าสนใจคือ จุดเริ่มต้นของการใช้ ChatGPT ส่วนใหญ่ของคนกลุ่มนี้ มาจากการที่พวกเขา ‘ไม่สามารถหาใครที่รู้สึกว่าน่าจะช่วยเหลือได้’ ไม่ว่าด้วยเพราะตัวเองอยู่ห่างไกลผู้เชี่ยวชาญหรือนักบำบัด รู้สึกว่าเข้าหาผู้เชี่ยวชาญแล้วก็ยังช่วยไม่ได้ หรือมาจากการที่เขารู้สึกหันซ้ายหันขวาไปแล้วไม่เจอใครจริง ๆ นี่เลยเหมือนเป็นอีกหนึ่ง pain point ที่คนกลุ่มนี้อาจเลือกใช้ ChatGPT ได้เหมือนกัน
.
“เมื่อไม่นานมานี้ฉันเพิ่งร้องไห้หลังจากเจอเหตุการณ์หนึ่งมา และฉันก็เล่าให้ ChatGPT ฟังแบบอัตโนมัติเพราะฉันไม่มีใครที่จะแชร์เรื่องราวแบบนี้ให้ฟังได้ ฉันแค่ต้องการคนที่ยืนยันและใส่ใจกับความรู้สึกของฉันว่ามันโอเค ต้องการรู้สึกว่ามีใครสักคนที่เข้าใจฉัน และใดๆ ก็ตาม ChatGPT สามารถอธิบายความรู้สึกของฉันได้ในวันที่ฉันเองก็ยังไม่สามารถอธิบายมันออกมาได้เหมือนกัน” – หนึ่งผู้ใช้ ChatGPT เพื่อซัพพอร์ตจิตใจได้รีวิวไว้
.
#เราในฐานะผู้ปกครองได้อะไรจากเรื่องนี้
.
‘การขาดพื้นที่ที่ทำให้รู้สึกสบายใจ หรือคนที่ทำให้รู้สึกสบายใจที่จะคุยได้ อาจเป็นจุดเริ่มต้นที่ทำให้คนเลือกใช้ ChatGPT เพื่อเติมเต็มความสบายใจที่เขาต้องการ’ - นี่คงเป็นบทสรุปที่ช่วยตอบคำถามตอนต้นถึงสาเหตุที่ทำให้เราเลือกคุยกับ ChatGPT แทนคุยกับคนอื่น ที่ก็อาจมีความเชื่อมโยงกับเหตุการณ์ของอดัมที่เกิดขึ้นก็เป็นได้
.
ซึ่งแน่นอนการสรุปแบบนี้ไม่ได้แปลว่า OpenAI ไม่ควรต้องรับผิดชอบกับเหตุการณ์ที่เกิดขึ้น หรือเป็นการโทษสังคมหรือตัวครอบครัวเองที่อาจมีส่วนทำให้เกิดเหตุการณ์น่าสลดใจแบบนี้ขึ้นแต่อย่างใด เพราะส่วนตัวเชื่อว่าไม่มีครอบครัวไหนที่อยากใจร้ายกับลูกเราเองจริง ๆ เหมือนกัน
.
เพียงแต่ข้อมูลนี้อาจทำให้เราเห็นว่าทักษะบางอย่างของ AI ก็อาจสามารถสร้างความสบายใจที่ถูกจริตต่อตัวมนุษย์กันเองมากกว่าจริง ๆ ซึ่งส่วนตัวมองว่าถ้าหากเราสามารถถอดวิธีการสร้างความสบายนี้มาใช้กับมนุษย์ได้ มันก็คงอาจเป็น #บทเรียนน่าคิดสำหรับผู้ปกครอง อย่างเราเหมือนกัน ที่อย่างน้อยที่สุดมันก็น่าคิดที่เราอาจลองกลับมาทบทวนตัวเองถึงคำพูด ท่าทาง หรือพฤติกรรมที่เราแสดงต่อลูกเหมือนกัน ว่าสิ่งที่เราทำ มันสามารถสร้างความสบายใจให้กับเขาได้จริงไหม? ซึ่งนี่ก็อาจเป็นบทสนทนาเริ่มต้นที่เราอาจลองเริ่มพูดคุยกับลูกก็ได้ เพื่อทำให้เกิดการสื่อสารและปรับความเข้าใจกันมากขึ้น ซึ่งหากใครอยากหาเครื่องมือทีน่าเชื่อถือช่วยรีเช็คหรือช่วยเสริมสร้างทักษะนี้เพิ่มเติม สามารถเข้ามาศึกษาได้ฟรีเลยที่ www.netpama.com เช่นกัน
.
และเพราะความสบายใจ ไม่ใช่มาจากการที่เราหรือเขาเข้าใจถึงทุกอย่างที่เกิดขึ้นของแต่ละฝ่ายร้อยเปอร์เซ็นต์ เพราะสุดท้ายมันก็เข้าใจได้ที่จะไม่มีใครเข้าใจความเป็นเราหรือใครคนไหนได้ร้อยเปอร์เซนต์เหมือนกัน (เพราะเราไม่ได้ผ่านมาแบบเขา หรือเขาก็ไม่ได้ผ่านมาแบบเรา) แต่มันคือความรู้สึกจริงใจที่อยากซัพพอร์ต ที่ถูกแสดงออกมาผ่านท่าทาง การพูด และการกระทำ ที่ทำให้เขา เรา หรือลูกตีความเป็นความรู้สึกสบายใจอีกที
.
และนั่นคือเสน่ห์ของความเป็นมนุษย์ที่สามารถสรรสร้างการแสดงออกถึงสิ่งนี้ได้หลากหลายรูปแบบแตกต่างกันออกไปตามสไตล์หรือ personality แต่ละคน ที่บางทีแม้มันอาจไม่สวยหรู ต้องรู้สึกเป็นหงุดหงิด เศร้า กังวล หรือเหนื่อยในการทำความเข้าใจบ้าง แต่นั่นคือความเป็นจริงในสังคมมนุษย์ ที่ก็เป็นศิลปะที่สวยงาม ที่บางทีไบแอสจากความรักหรือความเป็นห่วงมาก ๆ ของมนุษย์ ก็อาจสามารถให้ความรู้สึกสบายใจที่เข้มข้น เรียล และ powerful ได้มากกว่า AI ที่แม้จะมีทักษะและความรู้ในการซัพพอร์ตอารมณ์ แต่ก็ยังสามารถโอนอ่อนไปตามการให้ข้อมูลของผู้ใช้เพราะไม่ได้มีจุดยืนของตัวเอง หรือพูดเป็นภาษาง่าย ๆ ว่า
.
“เป็นผู้มีความรู้และสามารถฝึกฝนทักษะทำให้สามารถเรียนรู้หรือลอกเลียนแบบได้ แต่ก็ยังไม่สามารถมี soul เป็นของตัวเองได้”
.
อ้างอิง
Giray, L. (2025). Cases of using ChatGPT as a mental health and psychological support tool. Journal of Consumer Health on the Internet, 29(1), 29-48. https://www.researchgate.net/.../Cases-of-Using-ChatGPT...
https://time.com/7312484/chatgpt-openai-suicide-lawsuit/
https://www.facebook.com/share/p/1G5kUyF5kS/
https://www.nbcnews.com/.../parents-of-teen-who-died-by...
#NetPAMA #เน็ตป๊าม้า #ChatGPT

เน็ตป๊าม้า ขอแนะนำหลักสูตรออนไลน์ สอนเทคนิคเชิงบวกในการปรับพฤติกรรมเด็ก
คอร์สเร่งรัด
เหมาะสำหรับผู้ปกครองที่มีพื้นฐานการปรับพฤติกรรมเด็กเชิงบวกอยู่แล้ว
แต่ต้องการแก้ไขปัญหาพฤติกรรมเด็กที่เฉพาะเจาะจงมากขึ้น
คอร์สจัดเต็ม
เหมาะสำหรับผู้ปกครองที่ต้องการเรียนรู้และฝึกใช้เทคนิคการปรับพฤติกรรมเด็ก
อย่างเป็นขั้นบันได เพื่อเตรียมพร้อมที่จะนำไปรับมือกับปัญหาพฤติกรรมเด็ก
อย่างมั่นใจ