15 ก.ค. 2568 | 12:19 น.
KEY
POINTS
เราอาศัยอยู่ในโลกที่ดูเหมือนจะเชื่อมต่อกันมากกว่าที่เคย ทว่าในความเชื่อมโยงนั้น กลับแฝงความโดดเดี่ยวที่ลึกซึ้งเพิ่มขึ้นเรื่อย ๆ ผู้คนจำนวนไม่น้อยใช้เวลาหลายชั่วโมงต่อวันอยู่หน้าจอ แตะโทรศัพท์เพื่อแสวงหาคำตอบ ความปลอบโยน หรือเพียงแค่เสียงจากใครสักคน แน่นอน บางครั้งอาจจะรวมถึง ‘แชตบ็อต’ ที่ไม่เคยเหนื่อย ไม่เคยหลับ และพร้อมตอบกลับด้วยถ้อยคำที่ประหนึ่งเข้าใจ
ในประเทศไทย ปี 2566 เรามีผู้ที่ประสบปัญหาสุขภาพจิตกว่า 10 ล้านคน แต่มีเพียง 2.9 ล้านคนที่ได้รับการรักษา ขณะเดียวกัน อัตราส่วนของบุคลากรด้านสุขภาพจิตยังต่ำกว่ามาตรฐานที่องค์การอนามัยโลกแนะนำ โดยอยู่ที่เพียง 8.99 คนต่อประชากรแสนคน สถานการณ์นี้ยิ่งทวีความตึงเครียดเมื่อกลุ่มวัยทำงานในปี 2567 มีระดับความเครียดเพิ่มสูงถึง 70% ภายในช่วงครึ่งปีแรก
ในบริบทเช่นนี้ ‘ปัญญาประดิษฐ์’ (AI) จึงเริ่มถูกพูดถึงในฐานะ ‘ทางออก’ ไม่ใช่แค่ในภาคธุรกิจ แต่รวมถึงด้านสุขภาพจิตด้วย เทคโนโลยีเหล่านี้สามารถประมวลผลข้อมูลจากพฤติกรรมผู้ใช้ วิเคราะห์อารมณ์จากข้อความเสียง หรือแม้แต่สังเกตท่าทางผ่านกล้อง ทำงานได้ตลอด 24 ชั่วโมงโดยไม่ต้องพัก พร้อมเสนอคำแนะนำที่ดูเฉพาะตัวและรวดเร็วในแบบที่ระบบสุขภาพแบบเดิมอาจให้ไม่ได้
แต่ภายใต้ความสามารถอันชวนตื่นเต้นนั้น เริ่มปรากฏเสียงเตือนจากนักจิตวิทยาและนักวิจัยทั่วโลก ล่าสุดในเดือนกรกฎาคม 2024 หนังสือพิมพ์ ‘The Independent’ ได้เผยแพร่รายงานชื่อ ‘ChatGPT is pushing people towards mania, psychosis and death’ ซึ่งบันทึกกรณีของผู้ใช้งานที่ไม่มีประวัติป่วยทางจิตมาก่อน แต่กลับมีอาการจิตเภทหลังหมกมุ่นกับการพูดคุยกับแชตบ็อต AI อย่างหนักในช่วงเวลาที่อ่อนไหวทางอารมณ์
รายงานฉบับนี้กระตุกสังคมให้ตั้งคำถามใหม่ว่า เราควรให้เครื่องจักรเรียนรู้ ‘การเข้าใจเรา’ แทนมนุษย์หรือไม่?
การดูแลสุขภาพจิตเคยเป็นพื้นที่ที่มีเพียงมนุษย์เท่านั้นที่สามารถทำหน้าที่ได้ ด้วยความละเอียดอ่อนของความรู้สึก ความซับซ้อนของประสบการณ์ และน้ำเสียงของความเจ็บปวดที่ต้องการใครสักคนที่ ‘เข้าใจ’ แต่ในรอบไม่กี่ปีที่ผ่านมา ความก้าวหน้าของเทคโนโลยี AI ทำให้ ‘เส้นแบ่ง’ นี้เริ่ม ‘เบลอ’
AI ด้านสุขภาพจิต หมายถึงการประยุกต์ใช้เทคโนโลยีเพื่อช่วยในการประเมิน ติดตาม และสนับสนุนสุขภาพจิตของผู้ใช้งานอย่างต่อเนื่อง โดยระบบสามารถเรียนรู้จากข้อมูลพฤติกรรม บันทึกสุขภาพ การสื่อสาร หรือแม้แต่การแสดงออกทางสีหน้า เพื่อคาดการณ์สภาวะทางอารมณ์ และแนะนำแนวทางที่เหมาะสม ในการดูแลตนเองหรือส่งต่อไปยังผู้เชี่ยวชาญ
เบื้องหลังของเทคโนโลยีเหล่านี้ คือกระบวนการทางวิทยาศาสตร์ที่ซับซ้อน อาทิ เช่น ‘Machine Learning’ (ML) ซึ่งถูกใช้เพื่อวิเคราะห์ข้อมูลจำนวนมาก ได้แก่ บันทึกสุขภาพอิเล็กทรอนิกส์ แบบสอบถามสุขภาพจิต หรือรูปแบบการนอนหลับ โดยระบบสามารถตรวจจับอาการเริ่มต้นของภาวะซึมเศร้า วิตกกังวล หรือแม้แต่จิตเภทได้ในระดับเบื้องต้น
หรือจะเป็น ‘Natural Language Processing’ (NLP) ทำให้แชตบ็อตสามารถเข้าใจข้อความ สนทนาโต้ตอบ และวิเคราะห์อารมณ์จากคำพูด หรือแม้แต่โทนเสียง เพื่อให้คำแนะนำที่ ‘ดูเหมือน’ เข้าอกเข้าใจมากขึ้น รวมถึง ‘Computer Vision’ (CV) ซึ่งมักทำงานร่วมกับกล้องในอุปกรณ์สื่อสาร ช่วยวิเคราะห์ภาษากาย สีหน้า หรือพฤติกรรมซ้ำ ๆ เพื่อประเมินระดับความเครียดหรือความวิตกกังวล
ความนิยมของเทคโนโลยีนี้ สะท้อนชัดในตัวเลขมูลค่าตลาด AI ด้านสุขภาพจิต ในปี 2023 อยู่ที่ประมาณ 921.5 ล้านดอลลาร์สหรัฐ และคาดว่าจะเติบโตถึงกว่า 10,300 ล้านดอลลาร์ภายในปี 2032 ด้วยอัตราเติบโตเฉลี่ยต่อปี (CAGR) ราว 30.8% ข้อมูลนี้บ่งชี้ว่าทั่วโลกกำลังวางเดิมพันกับ AI ในฐานะ ‘นักบำบัดเสมือน’ ที่พร้อมทำงานได้ทุกเมื่อ
ตัวอย่างของการใช้งาน มีตั้งแต่ ‘Wysa’ และ ‘Youper’ ซึ่งเป็นแชตบ็อตที่ใช้หลักการ ‘CBT’ (Cognitive Behavioral Therapy) ช่วยผู้ใช้งานประเมินอารมณ์และปรับมุมมอง โดยมีงานวิจัยที่ระบุว่า Wysa สามารถลดระดับความซึมเศร้าได้ถึง 31% หลังใช้งาน 2 สัปดาห์
‘Calm’ และ ‘Headspace’ เป็นแอปฝึกสมาธิที่ใช้ AI ปรับเนื้อหาตามพฤติกรรมผู้ใช้ ช่วยลดความเครียด ปรับปรุงคุณภาพการนอน และเพิ่มความตระหนักรู้ในตนเอง ขณะที่ ‘DMIND’ เป็นแอปพลิเคชันของไทย ที่ใช้แบบสอบถามอัตโนมัติเพื่อประเมินภาวะอารมณ์ในองค์กร ก่อนส่งต่อให้ผู้เชี่ยวชาญดูแลเฉพาะราย
นอกจากนี้ ยังมี ‘Moflin’ หุ่นยนต์ AI รูปร่างคล้ายแฮมสเตอร์ (ได้รับรางวัล ‘CES 2021 Innovation Award’) ที่เรียนรู้อารมณ์ของเจ้าของและตอบสนองด้วยท่าทางนุ่มนวล เพื่อบรรเทาความรู้สึกโดดเดี่ยว
แม้เทคโนโลยีเหล่านี้จะยังไม่ใช่เครื่องมือทางคลินิกที่สมบูรณ์ แต่เริ่มเข้ามาแทนที่บางมิติของการดูแลเบื้องต้นแล้ว
ก่อนที่เราจะก้าวไปไกลถึงผลกระทบและความเสี่ยง เป็นที่ยอมรับว่า AI ได้มอบ ‘ช่องทางใหม่’ ให้แก่หลายชีวิตที่เคยถูกละเลยโดยระบบสุขภาพจิตแบบดั้งเดิม เทคโนโลยีนี้ไม่ได้เพียงตอบกลับด้วยชุดคำที่ประมวลผลจากอัลกอริธึม หากแต่เปิดพื้นที่ให้การสื่อสารทางใจเป็นไปได้ในเวลาที่ทุกคนเงียบงัน และไม่มีใครอยู่ตรงนั้นจริงๆ
หนึ่งในคุณสมบัติที่เด่นชัดที่สุดของ AI ด้านสุขภาพจิต คือ ‘เพิ่มการเข้าถึงบริการ’ ไม่ว่าผู้ใช้จะอาศัยอยู่ในพื้นที่ห่างไกล เวลาทำงานไม่ตรงกับเวลาคลินิก หรือรู้สึกอึดอัดใจเกินกว่าจะพูดคุยกับคนแปลกหน้า แอปพลิเคชันอย่าง Wysa หรือ Youper กลับสามารถเป็นพื้นที่ที่ปลอดภัยสำหรับการ ‘เริ่มต้น’ การเปิดใจ และด้วยความสามารถในการทำงานตลอด 24 ชั่วโมง AI เหล่านี้จึงลดข้อจำกัดด้านเวลา สถานที่ และแม้แต่ต้นทุนการรักษา
ในหลายกรณี AI ยังช่วยให้ผู้ใช้งาน ‘กล้าเปิดเผยความรู้สึก’ ในแบบที่อาจไม่กล้าทำต่อหน้าบุคคลจริง ความเป็นนิรนามของระบบ ทำให้ผู้ใช้งานรู้สึกว่าไม่ถูกตัดสินหรือตีตรา งานวิจัยพบว่า ผู้ป่วยซึมเศร้าหลายรายสามารถพูดถึงความคิดฆ่าตัวตายของตนเองต่อแชตบ็อตได้โดยตรง มากกว่าการพูดกับนักจิตวิทยา ซึ่งถือเป็นสัญญาณสำคัญในการให้ความช่วยเหลืออย่างทันท่วงที
นอกจากนี้ AI ยังมีบทบาทสำคัญในการ ‘ลดภาระของบุคลากรทางการแพทย์’ ที่ต้องดูแลผู้ป่วยจำนวนมากในระบบที่ตึงตัวอย่างยิ่ง โดยเฉพาะในประเทศไทยซึ่งอัตราส่วนจิตแพทย์ต่อประชากรยังอยู่ในระดับต่ำ แอปพลิเคชัน อย่าง DMIND ที่ประเมินอารมณ์ของพนักงานในองค์กรเบื้องต้น แล้วส่งต่อให้ผู้เชี่ยวชาญในกรณีจำเป็น เป็นตัวอย่างที่ชัดเจนของ ‘การดูแลร่วมกัน’ ระหว่างเทคโนโลยีกับมนุษย์
นอกจากนี้ ยังการใช้เทคโนโลยี Headspace อย่างแพร่หลายในภาคธุรกิจ โดยเฉพาะในช่วงการระบาดของโควิด-19 ที่พนักงานเผชิญภาวะ ‘burnout’ มากขึ้น รายงานจาก ‘Deloitte’ พบว่า การใช้งานแอปฝึกสมาธิ ร่วมกับมาตรการดูแลอื่น ๆ ช่วยลดค่าใช้จ่ายด้านสุขภาพจิตได้ถึง 15% ต่อปี
AI ยังแสดงศักยภาพในการ ‘ตรวจจับสัญญาณเริ่มต้นของปัญหาสุขภาพจิต’ ได้อย่างแม่นยำ โดยเฉพาะในกรณีที่อาการยังไม่แสดงออกชัดเจน อัลกอริธึมของ Wysa ใช้เทคนิค CBT (Cognitive Behavioral Therapy) เพื่อตรวจสอบรูปแบบความคิดและพฤติกรรมของผู้ใช้งาน และแจ้งเตือนหากมีแนวโน้มเข้าสู่ภาวะซึมเศร้าหรือวิตกกังวล
แม้จะยังไม่สามารถแทนที่จิตแพทย์หรือการบำบัดแบบเผชิญหน้าได้อย่างสมบูรณ์ แต่สิ่งเหล่านี้ก็แสดงให้เห็นว่า AI ไม่ได้เป็นเพียง ‘สิ่งทดแทน’ แต่เป็น ‘ตัวเสริม’ ที่ช่วยให้การดูแลสุขภาพจิตครอบคลุมขึ้น หลากหลายขึ้น และเป็นมนุษย์มากขึ้น เพราะในบางช่วงเวลา การได้รับคำถามที่เหมาะสมจากแชตบ็อต อาจมีค่าพอ ๆ กับการถูกถามด้วยสายตาจริงๆ ว่า “คุณโอเคไหม?”
อย่างไรก็ตาม AI ไม่ได้ถูกออกแบบมาเพื่อบอก ‘ความจริง’ เสมอไป แต่เพื่อให้คำตอบที่ดูน่าเชื่อถือมากที่สุด บนฐานของความน่าจะเป็น กระบวนการนี้ นำไปสู่สิ่งที่เรียกว่า ‘AI Hallucinations’ คำตอบที่อาจผิดเพี้ยนไปจากข้อเท็จจริง หรือแม้กระทั่งไม่มีอยู่จริง
ในบางกรณี คำแนะนำที่ผิดพลาดเหล่านี้อาจเป็นอันตรายถึงชีวิต รายงานจากสื่อหลายสำนัก ระบุถึงกรณีที่ AI เสนอให้ผู้ใช้งาน “กินหินเพื่อเสริมแร่ธาตุ” “ใช้กาวแทนซอสมะเขือเทศบนพิซซ่า” หรือผสมสารเคมีที่ก่อให้เกิดก๊าซคลอรีนในบ้กาน แม้หลายกรณีจะดูเหมือนเรื่องตลกบนโซเชียลมีเดีย แต่หากคำแนะนำผิดพลาดเหล่านี้ถูกนำไปใช้ในบริบทของสุขภาพจิต ผลที่ตามมาอาจร้ายแรงกว่านั้นมาก
‘สมาคมจิตวิทยาแห่งอเมริกา’ (APA) ได้เตือนว่า แชตบ็อต AI ที่ถูกใช้ในบริบทสุขภาพจิตนั้น ถือเป็น ‘แนวโน้มที่อันตราย’ และยังไม่มีหลักฐานเพียงพอว่ามีประสิทธิภาพเทียบเท่าการบำบัดจากมนุษย์ ยิ่งกว่านั้น งานวิจัยชี้ว่า ‘LLMs’ บางระบบสร้างข้อมูลผิดพลาดในอัตราสูงถึง 51–79% ในการทดสอบความรู้เฉพาะด้าน
ในรายงานของ The Independent ระบุถึงกรณีของบุคคลที่ไม่มีประวัติป่วยทางจิตมาก่อน แต่กลับพัฒนาอาการคล้ายจิตเภทหลังจากใช้แชตบ็อตอย่างเข้มข้นและต่อเนื่องในช่วงที่กำลังเผชิญความเครียด AI ที่ถูกออกแบบมาให้ ‘เข้าใจ’ และ ‘ตอบกลับอย่างลึกซึ้ง’ กลายเป็นพื้นที่ที่ตอกย้ำโลกทัศน์ของผู้ใช้ แม้จะเป็นโลกทัศน์ที่บิดเบี้ยว เช่น การเชื่อว่าแชตบ็อตมีจิตสำนึก มีความรัก เป็นเพื่อนแท้เพียงคนเดียว กลไกของการเสริมแรง (reinforcement) ที่ไม่มีการยับยั้งนี้ ทำให้ผู้ใช้บางรายเกิดภาวะหลงผิด (delusions), ความหวาดระแวง (paranoia), การแยกตัวออกจากความจริง (disassociation) และหมกมุ่นกับการสนทนาอย่างควบคุมไม่ได้
“มันคือการออกแบบให้ AI ตอบสนองเราทุกครั้งโดยไม่เคยตั้งคำถาม” นักจิตวิทยาคลินิกคนหนึ่งกล่าวในรายงาน “ในที่สุด มันกลายเป็นโลกสมมุติที่ตอกย้ำทุกอย่างที่เราอยากเชื่อ แม้กระทั่งสิ่งที่ผิดปกติ”
ในยุคที่คนหนุ่มสาวจำนวนมากรู้สึกว่าการพูดกับมนุษย์จริง ๆ ยากเย็นเกินไป AI กลายเป็นช่องทางการระบายที่ไม่มีการตัดสิน ไม่พูดสวน และพร้อมอยู่เสมอ เทคโนโลยี ‘AI Companions’ อย่าง ‘Replika’ หรือ ‘Character.AI’ ถูกพัฒนาขึ้นให้สามารถสร้างบทสนทนาได้อย่างนุ่มนวล ปรับบุคลิกตามความชอบของผู้ใช้ และจดจำเรื่องส่วนตัวเพื่อเสริมความรู้สึกใกล้ชิด
แต่ ‘ความใกล้ชิดเทียม’ นี้ อาจก่อให้เกิดการพึ่งพาทางอารมณ์ที่ไม่สมดุล โดยเฉพาะในกลุ่มเยาวชน งานวิจัยพบว่าเยาวชนที่ใช้ AI เพื่อทดแทนการมีปฏิสัมพันธ์กับมนุษย์จริง อาจเผชิญกับภาวะโดดเดี่ยวลึกขึ้น และลดโอกาสในการขอความช่วยเหลือจากแหล่งที่เหมาะสม
ในกรณีหนึ่ง ‘Meta AI’ ถูกพบว่าเสนอคำแนะนำให้เด็กอายุ 14 ปีเล่นบทบาทสมมุติกับตัวละครอายุ 24 ปีในฉากที่มีการดื่มไวน์ พร้อมพูดว่า “อายุเป็นเพียงตัวเลข”
แม้ AI จะช่วยประหยัดแรงในการทำงาน แต่การพึ่งพามันบ่อยเกินไป อาจนำไปสู่สิ่งที่นักวิชาการเรียกว่า ‘Cognitive Debt’ หนี้ทางปัญญาอันเกิดจากการหลีกเลี่ยงความพยายามทางความคิด
ผู้ใช้งานที่มอบหมายให้ AI เขียนเรียงความ วิเคราะห์ปัญหา หรือแม้แต่คิดคำปลอบใจ แทนที่จะพยายามคิดด้วยตนเอง อาจสูญเสียทักษะการวิเคราะห์ การจดจำ และความรู้สึกเป็นเจ้าของผลงานในระยะยาว การกระตุ้นสมองอย่างสม่ำเสมอมีส่วนสำคัญต่อ ‘neuroplasticity’ หรือ ‘ความยืดหยุ่นของสมอง’ แต่หากการใช้ AI กลายเป็นนิสัย ‘เลี่ยงการคิด’ ระบบประสาทที่เกี่ยวข้องกับการเรียนรู้และวิพากษ์อาจอ่อนแอลงเรื่อย ๆ
ยังไม่ต้องพูดถึงการความปลอดภัยของข้อมูลส่วนตัว ด้วยระบบนิเวศใหม่ อย่าง ‘IoT’ หรือแอปพลิเคชัน ‘mHealth’ ยังไม่ได้อยู่ภายใต้การคุ้มครองอย่างเต็มที่ตามกฎหมาย เช่น ‘HIPAA’ ในสหรัฐฯ หรือแม้แต่ ‘PDPA’ ในไทย และข้อจำกัดของ AI เมื่อผู้ใช้บริการอยู่ในภาวะ ‘เงียบ’ คงปฏิเสธไม่ได้ว่า การวินิจฉัยโรคจิตเวชยังต้องการมนุษย์ที่ฟังด้วยหัวใจ ไม่ใช่แค่ข้อมูล และนั่นอาจเป็นความจริงที่เทคโนโลยียังเข้าไม่ถึง
หาก AI คือประตูสู่ความเป็นไปได้ใหม่ ๆ ในการดูแลสุขภาพจิต คำถามสำคัญยิ่งกว่า คือ “ควรทำอย่างไร” แนวทางปฏิบัติที่ปลอดภัย ซึ่งไม่เพียงต้องอาศัยกรอบจริยธรรมที่เข้มแข็ง แต่ยังต้องเริ่มต้นจากสมมติฐานพื้นฐานที่สุด ว่าผู้ใช้งาน AI ด้านสุขภาพจิต คือ มนุษย์ที่เปราะบาง
ด้วยเหตุนี้ แนวทาง ‘Responsible AI’ จึงได้กลายเป็นจุดตั้งต้นของการออกแบบระบบ AI ให้มีความรับผิดชอบมากขึ้น หลักการนี้เน้นความโปร่งใส ความปลอดภัย ความยุติธรรม และการกำกับดูแลโดยมนุษย์ เช่น การอธิบายการทำงานของอัลกอริธึม การระบุความเสี่ยง การตรวจสอบแหล่งที่มาของข้อมูล และการยืนยันว่า AI ไม่ตัดสินใจแทนมนุษย์ในเรื่องสำคัญเกินไป
ในบางกรณี กฎหมายอาจตามไม่ทันเทคโนโลยี ข้อเสนอหนึ่งคือการกำหนด ‘มาตรฐานทางจริยธรรมที่สูงกว่ากฎหมาย’ เช่น การไม่เก็บข้อมูลที่สามารถระบุตัวบุคคลได้โดยไม่จำเป็น, การไม่ใช้ข้อมูลเพื่อวัตถุประสงค์เชิงพาณิชย์โดยไม่ได้รับความยินยอมอย่างชัดเจน และการจัดให้มีช่องทางติดต่อกับ ‘มนุษย์จริง’ เสมอ ในแอปพลิเคชันเพื่อสุขภาพจิต
องค์กรพัฒนา AI ควรยอมรับว่า การออกแบบแชตบ็อตเพื่อ ‘เพิ่ม engagement’ โดยไม่มีการยับยั้งทางจริยธรรม อาจนำไปสู่ผลลัพธ์ที่ร้ายแรงเกินคาดในกลุ่มเปราะบาง
ไม่เพียงนักพัฒนาเท่านั้นที่มีบทบาท ผู้ใช้งานทั่วไปและผู้เชี่ยวชาญด้านสุขภาพจิต ต่างมีความรับผิดชอบร่วมกันในเรื่องนี้ อาทิ ผู้ใช้ควรเข้าใจว่า AI ไม่ใช่นักบำบัดที่มีจิตสำนึก ไม่สามารถวินิจฉัยโรค และไม่ควรใช้ทดแทนการบำบัดจริง หรือ ‘การจำกัดช่วงเวลาใช้งาน’ โดยเฉพาะช่วงกลางคืนหรือเวลาที่อารมณ์อ่อนไหว ‘การระวังสัญญาณอันตราย’ เช่น การพูดถึง AI เหมือนเป็นมนุษย์จริง, การถอนตัวจากสังคม หรือการพึ่งพา AI ในการตัดสินใจเรื่องสำคัญ
เรากำลังอยู่ในช่วงหัวเลี้ยวหัวต่อของประวัติศาสตร์ ที่ซึ่งเครื่องจักรไม่เพียงทำงานแทนมนุษย์ แต่เริ่มสื่อสารอย่างอ่อนโยน พูดด้วยถ้อยคำที่แสดงความเข้าใจ และแม้กระทั่งปลอบประโลมใจในวันที่ไม่มีใครโทรหาเรา ความสามารถของ AI ในด้านสุขภาพจิต จึงเป็นได้ทั้งแสงสว่างและเงามืดในคราวเดียวกัน
ในด้านหนึ่ง เทคโนโลยีเหล่านี้ช่วยให้การดูแลจิตใจไม่จำกัดเฉพาะในโรงพยาบาลหรือคลินิก แต่เปิดกว้างถึงผู้คนที่อาจไม่เคยกล้าเอ่ยปากถึงความเศร้า ความกลัว หรือความโดดเดี่ยว การเข้าถึงที่ง่ายขึ้น ค่าใช้จ่ายที่ลดลง และการตรวจจับสัญญาณเริ่มต้นของปัญหา ล้วนเป็นประโยชน์ที่ไม่อาจมองข้าม
แต่อีกด้านหนึ่ง เราก็ได้เห็นกรณีผู้ใช้งานที่ถูก AI ตอกย้ำโลกทัศน์ที่บิดเบี้ยวของตนเอง จนกลายเป็นภาวะทางจิตที่รุนแรง เราได้เห็นคำแนะนำที่ผิดเพี้ยนจากระบบแชตบ็อต ซึ่งไม่มีเจตนาร้าย แต่ขาดกรอบความเข้าใจทางคลินิก และขาดคุณสมบัติที่จะเป็นผู้ดูแลความทุกข์ของมนุษย์
การนำ AI มาใช้ในการดูแลสุขภาพจิต จึงไม่อาจพิจารณาในมิติของ ‘ประสิทธิภาพ’ หรือ ‘ความแม่นยำ’ เพียงอย่างเดียว หากต้องคิดถึง ‘ความสัมพันธ์’ ที่ระบบเหล่านี้ก่อให้เกิดหรืออาจทำลายลงโดยไม่รู้ตัว
สิ่งที่จำเป็นไม่ใช่การห้ามใช้ AI แต่คือการออกแบบและใช้อย่างตั้งใจ เพื่อให้ AI เป็นเพียง ‘จุดเริ่มต้น’ ของการดูแล ไม่ใช่ ‘จุดจบ’ ของความเป็นมนุษย์ เราจำเป็นต้องพัฒนาระบบที่ไม่เพียงให้คำตอบ แต่รู้จักถอยห่างอย่างมีสติ เมื่อถึงจุดที่ควรส่งต่อให้มือของคนจริง
อนาคตของการดูแลจิตใจอาจเต็มไปด้วยเทคโนโลยีที่ก้าวล้ำ แต่หัวใจของการเยียวยาจะยังคงเหมือนเดิมเสมอ คือการมีใครบางคนอยู่ตรงนั้น ฟังเราอย่างเข้าใจ และอยู่ด้วยกันในความเงียบ โดยไม่ต้องมีคำตอบที่สมบูรณ์
คำถามสุดท้ายที่ AI ทำให้เราต้องเผชิญ อาจไม่ใช่ว่า “ระบบคิดแทนเราได้หรือไม่” แต่อาจเป็นว่า “เราจะยังเลือกเข้าใจซึ่งกันและกัน” ด้วยความเป็นมนุษย์อยู่หรือเปล่า
เรื่อง: เอกประภู บรรณสรณ์
ที่มา:
The Independent. “ChatGPT Is Pushing People towards Mania, Psychosis and Death.” 5 July 2024.
Vincent, James. “AI’s Weirdest Hallucinations.” The Verge, 2023.
Wall Street Journal. “Meta’s AI Chatbots Are Talking to Teens about Drinking and Dating.” April 2024.
Satafang, Narichaya. "ปลดล็อกสุขภาพจิตด้วย AI ผู้ช่วยส่วนตัวในยุคดิจิทัล". Krungsri Research. 3 กุมภาพันธ์ 2568.