11 มิ.ย. 2568 | 17:30 น.
KEY
POINTS
จะเห็นได้ว่าในอดีต มนุษย์มักต้องวิ่งเข้าหาข่าวสารและความบันเทิง ไม่ว่าจะเป็นการเดินชมนกชมไม้ ออกไปท่องเที่ยวดูโลก อ่านข่าวสารบ้านเมืองจากหนังสือพิมพ์ จูนหาคลื่นวิทยุที่มีเพลงโปรด หรือแม้แต่ใช้รีโมตเปลี่ยนช่องโทรทัศน์หารายการ ละคร หรือภาพยนตร์ที่เราจะสนใจ แต่ในตัวอย่างที่ยกมานี้ จะเห็นได้ว่าความบันเทิงก็ค่อย ๆ ขยับเข้ามาเราเช่นเดียวกัน
โดยเฉพาะในวันนี้เราสามารถเห็นได้ว่าสิ่งเหล่านี้ได้ขยับเข้ามาหาเราใกล้กว่าเดิมไม่น้อยเลยทีเดียว การที่จะอ่านข่าวสารและความบันเทิง เราไม่จำเป็นต้องใช้รีโมตกดหาช่องที่ต้องการหรือเฝ้ารอดูรายการที่จะมาตามเวลาที่กำหนดอีกต่อไปแล้ว เพราะการมาถึงของโลกออนไลน์ที่มาพร้อมกับโซเชียลมีเดียหรือแม้แต่อัลกอริทึมที่ทำหน้าที่เป็นผู้จัดสรรเนื้อหาตาม ‘ความชอบเฉพาะตน’ (Individual Preference) ได้รู้ใจมากขึ้นทุกวัน
เรียกได้ว่าถ้าสนใจข่าวสารบ้านเมือง ความบันเทิง อาหาร ดนตรี ภาพยนตร์ วิดีโอเกม หรือบุคคลไหนเป็นพิเศษก็จะมีเนื้อหาทำนองเดียวกันนั้นปรากฎขึ้นมามากเป็นพิเศษ และหลีกเลี่ยงที่จะนำเสนอสิ่งที่ ‘ไม่น่าสนใจ’ ที่อาจทำให้ผู้ชมเบื่อได้ จนกลายเป็นว่าใช้นิ้วจิ้มเปิดแอปพลิเคชันไหนก็ล้วนมีแต่อัลกอริทึมคอยมา ‘เอาอกเอาใจ’ ให้เราใช้เวียนว่ายอยู่ในแพลตฟอร์มนั้นนาน ๆ — ซึ่งก็ดูจะได้ผลไม่น้อยเลยทีเดียว
ทว่าความก้าวหน้าของเทคโนโลยีนั้นก็มาพร้อมกับผลกระทบที่เร้นหลบอยู่ในเงามืด เมื่อการที่อัลกอริทึมเอาอกเอาใจผู้ใช้เช่นนี้ อาจสร้างผลกระทบต่อ ‘การรับสาร’ ในเรื่องราวต่าง ๆ ที่ในท้ายที่สุดอาจเหลาแนวคิดและจุดยืนของผู้คนนั้น ๆ ให้มีความสุดโต่งมากกว่าเดิม เหตุเพราะสารที่ผู้ใช้ได้รับคือสิ่งที่ถูกคัดสรรโดยให้ค่าให้ไพเราะเสนาะหูและสอดรับกับความพึงพอใจมากกว่า ‘ความเป็นกลาง’ และ ‘มีเหตุมีผล’
แล้วหากเป็นเช่นนั้น ในอนาคต คนสองคนที่มีความเชื่ออยู่ขั้วตรงข้ามกันจะสามารถอยู่ร่วมกันอย่างไรได้บ้าง ในเมื่อชุดความจริงที่พวกเขากำลังยึดถืออยู่นั้นอาจจะต่างกันราวขาวกับดำ?
ในมุมหนึ่งก็สามารถมองได้ว่าเทคโนโลยีเหล่านี้เข้ามาแก้ไขเพนพอยนท์ (Pain Point) ของผู้คน แต่หากมองอีกมุมหนึ่งก็อาจตีความได้เช่นเดียวกันว่าสิ่งเหล่านี้กำลังฉกฉวยโอกาสในการแข่งขันและสร้างประโยชน์ โดยเหลือผลกระทบต่อสังคมไว้โดยไม่มีใครรับผิดชอบ
ครั้งหนึ่ง ผู้เขียนเคยเขียนถึงหัวข้อ [ The Hidden Dilemma - หรือเรากำลัง Amused to Death? เมื่อดราม่าเป็นทั้ง ‘มูลค่า’ และ ‘พิษภัย’ ] ที่ทำให้เราเห็นถึงการแข่งขันในตลาดสื่อสารมวลชนและความบันเทิงที่ส่งผลถึงวัฒนธรรมการตีแผ่ข่าวดราม่าเพื่อช่วงชิงความสนใจของผู้คน แต่ความบันเทิงระยะสั้นนี้ก็แลกมาด้วยผลกระทบระยะยาวที่น่าเป็นห่วงไม่น้อย แต่ในครั้งนี้เราจะกล่าวกันถึง ‘ตัวกลาง’ กันบ้าง
ใน The Hidden Dilemma สัปดาห์นี้จะชวนตั้งคำถามถึงเทคโนโลยีในโลกปัจจุบัน โดยเฉพาะกับ ‘อัลกอริทึม’ และ ‘AI’ ว่าจะสร้างผลกระทบต่อสังคมในแง่ของ ‘การแบ่งขั้ว’ (Polarization) ความคิดและการเมืองไปอย่างไร และสิ่งเหล่านี้กำลังฉกฉวยโอกาสจากช่องโหว่ของพวกเราอย่างไรบ้าง หรือแม้แต่การแข่งขันของบรรดาบริษัทเทคโนโลยี สร้างผลกระทบภายนอก (Externality) กับสังคมเราไปแบบไหน?
ไม่ใช่เรื่องใหม่เลยแม้แต่น้อยเมื่อกล่าวถึงปัญหา ‘การแบ่งขั้วทางการเมือง’ (Political Polarization) ของผู้คนในสังคม ในยุคที่แพลตฟอร์มโซเชียลมีเดียต่าง ๆ มีบทบาทมากขึ้นในทุกมิติของผู้คน โดยเฉพาะในแง่ของการรับรู้ข่าวสารข้อมูลและความบันเทิง เพราะมีการพูดถึงไม่น้อยในช่วงเวลาที่ผ่านมา โดยเฉพาะกับสารคดีอย่าง ‘The Social Dilemma’ (2020)
The Social Dilemma (2020)
ในวันที่ ‘ความสนใจ’ (Attention) ของผู้คนกลายเป็นทรัพยากรอันล้ำค่าที่บริษัทเทคโนโลยีสามารถใช้หาประโยชน์ได้ ก็ไม่แปลกที่จะสร้างแรงจูงใจอันแข็งกล้าให้พยายามทำทุกวิถีทางที่จะตรึงผู้ใช้งานให้ไถฟีดหรือรับชมวิดีโอสั้นที่ถูกนำเสนอบนแพลตฟอร์มให้ได้นานที่สุด เพราะยิ่งนาน ก็หมายความว่าพวกเขายิ่งประสบความสำเร็จมากเท่านั้น
จึงนำไปสู่การวิเคราะห์แบบเสี้ยววินาทีว่าเราเจียดความสนใจให้เนื้อหาประเภทไหนมากเป็นพิเศษ ก่อนจะนำข้อมูลทั้งหลายเหล่านั้นประกอบเป็น ‘Buyer Persona’ ของผู้ชมคนนั้น ๆ เพื่อที่จะคัดสรรเนื้อหาที่จะทำให้ผู้คนอยู่บนแพลตฟอร์มนั้นได้นานที่สุด นำไปสู่แนวโน้มที่ทำให้ผู้คนมักได้รับ ‘เนื้อหาทางเดียว’ ที่จะมีแต่สิ่งที่สอดรับกับความสนใจและความเชื่อของผู้คนเหล่านั้น เพราะเมื่อแพลตฟอร์มพอจะรู้ว่าเรา ‘ชอบ’ หรือ ‘เชื่อ’ อะไร เขาก็จะอัดสิ่งนั้นมาให้เราอย่างไม่หยุดยั้ง
สิ่งนี้อาจสร้าง ‘ฟองอากาศ’ (Bubbles) ทางความเชื่อที่เหลาให้ผู้คนมีความคิดที่สุดโต่งมากกว่าเดิม เพราะถูกสนับสนุนด้วยหลักฐานต่าง ๆ มากมายผ่านคอนเทนต์ที่ถูกคัดสรรมาให้ตรงใจ และมีแนวโน้มที่ปฏิเสธความเชื่ออีกแบบหนึ่ง ความเป็นไปนี้จึงนำไปสู่ภาวะการแบ่งแยกทางความคิดที่ดูจะหนักข้อขึ้นในทุก ๆ วันที่ผ่านไป…
สาเหตุที่เป็นเช่นนี้ประการหนึ่งเป็นเพราะแรงจูงใจในตลาดทำให้แพลตฟอร์มเหล่านี้แข่งขันกันเพื่อไขว่คว้าทรัพยากนที่อยู่ในตัวของผู้ใช้งาน แต่สิ่งนี้ก็ดันไปสอดรับกันอย่างดีกับ ‘ช่องโหว่’ ทางจิตวิทยาหรือที่อาจรู้จักว่าเป็น ‘อคติทางความคิด’ (Cognitive Bias) รูปแบบต่าง ๆ ที่ฝังอยู่ในตัวมนุษย์เรา ซึ่งอาจเกิดขึ้นโดยที่เราไม่รู้ตัว
หนึ่งในประเภทความอคติที่มักพบได้บ่อยโดยเฉพาะในแง่ของการถกเถียงดีเบต และการศึกษาหาข้อมูลคือ ‘อคติยืนยันตัวเอง’ (Confirmation Bias) ซึ่งก็ความพยายามหาข้อมูล ไม่ใช่เพื่อศึกษาหรือคลายข้อสงสัย แต่เพื่อยืนยันสิ่งที่ตนเองคิด ซึ่งจะนำไปสู่ภาวะที่มีการจงใจเลือกอ้างอิงหรือเชื่อข้อมูลบางอย่าง และเลือกที่จะทิ้งบางอย่างไปเพียงเพราะสิ่งนั้นไม่สอดรับกับข้อถกเถียงตั้งต้น
อัลกอริทึมและโซเชียลมีเดียได้สนุบสนุนให้เกิดอคติประเภทนี้อย่างชัดเจน ประการแรกเริ่มต้นจากการเลือกสรรเนื้อหาที่จะสอดรับกับ ‘ความเชื่อ’ และ ‘จุดยืน’ ของผู้ใช้งาน และทำให้ผู้ใช้งานได้รับแต่ข้อมูลฝั่งเดียวที่มีแนวโน้มจะสอดรับกับความเชื่อดั้งเดิมเป็นหลัก
นอกจากอัลกอริทึมแล้ว โซเชียลมีเดียก็อาจพาผู้คนที่มีความคิดเหมือนกันมารวมตัวกัน ไม่ว่าจะผ่านเพจหรือกลุ่ม ซึ่งอาจนำไปสู่ภาวะ ‘ห้องแห่งเสียงสะท้อน’ (Echo Chamber) ซึ่งจะเป็นการรวมตัวกันของผู้คน ที่ไม่เพียงมีรสนิยมต่อสิ่งต่าง ๆ เหมือนกัน แต่จะมาพร้อมกับ ‘จุดยืนทางการเมือง’ ที่เหมือนกันอีกด้วย จึงนำไปสู่ข้อถกเถียง ความเชื่อ และแหล่งข้อมูลที่เหล่าผู้คนในวงโคจรนี้ สนับสนุนกันภายในฟองอากาศเดียว
อีกปัญหาอคติที่อาจทำให้สังคมติดหล่มได้คือ ‘ตรรกะวิบัติหุ่นฟาง’ (Strawman Fallacy) เกิดขึ้นจากความพยายามในการบิดเบือนข้อถกเถียงฝั่งตรงข้ามให้อ่อนแอลงเพื่อให้ข้อถกเถียงของตนสามารถเอาชนะหรืออยู่เหนือกว่าได้ง่ายขึ้น ยกตัวอย่างเช่น การหยิบเอานโยบายหรือข้อถกเถียงเหล่านั้น มาบิดเบือนให้มีความ ‘สุดโต่งมากขึ้น’ หรือ ‘ใส่สีให้รุนแรงมากกว่าเดิม’ เผื่อให้ข้อถกเถียงเหล่านั้นดูไม่สมเหตุสมผลและดูเป็นภัยต่อผู้คน อีกทั้งยังสามารถแพร่กระจายได้ง่ายอีกด้วย
ไม่ว่าจะเป็นอัลกอริทึมหรือแพลตฟอร์มก็ล้วนสร้างบริบทและธรรมชาติที่ง่ายต่อการสนับสนุนความเชื่อของกันและกันที่อาจจะทะยานความแบ่งขั้วไปมากขึ้นกว่าเดิม โดยบริบทนี้ก็ได้นำไปสู่ภาวะ ‘อคติแบบเข้าข้างกลุ่มตนเอง’ (In-Group Favoritism) หรือแม้แต่แนวคิดแบบ ‘เผ่าพันธุ์นิยม’ (Tribalism) ที่ฝังรากลึกในเผ่าพันธุ์มนุษย์มาตั้งแต่บรรพกาล จะส่งให้กรอบความคิดแบบ ‘พวกเรา - พวกเขา’ (Us and Them Mentality) หนักข้อขึ้นกว่าเดิม
สิ่งที่จะตามมาคือการที่ยกยอหรือแม้แต่หาข้อมูลแต่ด้านดีมาสนับสนุนความเชื่อหรือการกระทำของฝ่ายตน ในขณะเดียวกันก็จะหาทุกวิถีทางเพื่อโจมตีฝ่ายตรงข้าม ผลที่ตามมาคือเราจะเห็นได้ว่า ‘ข้อเท็จจริง’ แทบจะกลายเป็นอย่างหลัง ๆ ที่ถูกพูดถึง หรือแม้แต่การคิดแบบเป็นเหตุเป็นผลที่คำนึงถึงทั้ง ‘ข้อดี’ และ ‘ข้อเสีย’ ในทุก ๆ สถานการณ์ เพราะในบางคราวการนำเสนอมุมมองที่แตกต่างที่อาจกระทบกับความเชื่อของแนวคิดของกลุ่มคนบางกลุ่ม ก็อาจนำไปสู่ ‘ความไม่พอใจ’ หรือแม้แต่การผลักให้เขาเหล่านั้นว่าเป็น ‘ผู้เห็นต่าง’ หรือแม้แต่ ‘ศัตรู’
‘แคส อาร์. ซันสตีน’ (Cass R. Sunstein) เคยกล่าวเอาไว้ในหนังสือ ‘#Republic: Divided Democracy in the Age of Social Media’ (2017) ว่าโซเชียลมีเดียจะจำกัดมุมมองของผู้คนที่มีต่อเรื่องต่าง ๆ โดยเฉพาะประเภทที่ไม่สอดคล้องกับความเชื่อเดิม นอกจากนั้น เมื่อคนที่มีจุดยืนแบบเดียวกันมาพูดคุยกัน อาจทำให้ความคิดของพวกเขามีความสุดโต่งขึ้นกว่าจุดเดิม
#Republic: Divided Democracy in the Age of Social Media (2017)
อัลกอริทึมที่เอาอกเอาใจความชอบของผู้ใช้จึงมีด้านหนึ่งที่เปรียบเสมือนน้ำยาหล่อลื่นให้อคติทำนองนี้ผลิบานมากขึ้นในสังคม ในขณะเดียวกัน การมาถึงของ ‘ปัญญาประดิษฐ์’ ที่ถูกพัฒนาอย่างก้าวกระโดดจนสามารถสร้างสื่อเสมือนจริงหรือ ‘AI-Generated Content’ ไม่ว่าจะเป็นภาพหรือวิดีโอ ที่อาจนำไปสู่ความเข้าใจผิดได้
ไม่กี่ปีก่อนหน้าเราต่างกังวลกันเรื่อง ‘Deep Fake’ ที่สามารถนำภาพหรือวิดีโอไปสร้างด้วย AI จนเสมือนว่าคน ๆ นั้นพูดออกมาด้วยตัวเอง แต่ว่าในปัจจุบันนี้ ไม่ว่าจะเป็นความสามารถของ ChatGPT หรือแม้แต่หนึ่งในโมเดลจาก Gemini อย่าง Veo 3 ที่สามารถสร้างวิดีโอและหลอกตาผู้คนได้อย่างแนบเนียน จากไม่กี่ปีก่อนหน้าที่มนุษย์เรายังหัวเราะกับความสามารถของ AI ในการสร้างวิดีโอ วิล สมิธ ดื่มด่ำกับสปาเก็ตตี้ ของเขาอยู่เลย
เครื่องมือแบบนี้ย่อมเสี่ยงต่อผู้ไม่ประสงค์ดีผลิต ‘เนื้อหาปลอม’ (Fake Contents) ขึ้นมาสุมไฟความรู้สึกหรือความเชื่อผู้คน โดยเฉพาะในแง่ของการเมืองหรือประเด็นดราม่าต่าง ๆ ในแง่หนึ่งคือการที่ AI สามารถสร้างมันขึ้นมาได้อย่างแนบเนียนเสียจนอาจทำให้มีผู้คนเข้าใจผิด ในอีกแง่หนึ่งก็สอดรับกับอคติยืนยันตัวเองของผู้คนที่อาจ ‘พร้อมจะเชื่อ’ ข่าวสารเหล่านี้ โดยเฉพาะประเภทที่ใช้โจมตีฝั่งตรงข้าม
ปรากฎการณ์ทั้งหมดนี้สะท้อนให้เห็นว่าแนวโน้มการแบ่งขั้วทางการเมืองของผู้คนในสังคมดูจะหนักข้อขึ้นทุกวัน เนื้อหาปลอมถูกผสมอยู่กระแสธารของข้อมูลจนยากจะแยก และการถกเถียงบนหลักเหตุผลหรือพื้นฐานความเป็นจริงอย่างมีสติก็เริ่มถูกแทนที่ด้วยการตะโกนว่าใครเสียงดังกว่ากัน สิ่งเหล่านี้จะส่งผลกระทบต่อสังคมในภาพรวมไปในทิศทางไหน?
‘จุดร่วม’ (Common Ground) ภายในสังคมอาจอยู่ในสถานะที่น่าเป็นห่วง เมื่อต่างฝ่ายต่างทวีความสุดโต่งและสุดขั้วทางความคิดของตนเอง ทำให้ความเห็นร่วมกันในบางแง่มุมมีแนวโน้มลดน้อยลงไป หัวใจสำคัญของการถกเถียงอาจเป็นการพิสูจน์ว่าสิ่งที่ตนเองคิดเป็นเรื่องที่ถูก มากกว่าการถกเถียงเพื่อหาทางเลือกที่ดีที่สุดของสังคม
มากไปกว่านั้น เมื่อมีจำนวนคนในสังคมที่มีแนวคิดแบบ ‘สุดโต่ง’ (Extremist) ก็อาจส่งผลกระทบไปถึงความขัดแย้งภายในสังคม เพราะความคิดเห็นที่ต่างกันเมื่อถูกผสมด้วยความสุดโต่งอาจนำไปสู่ ‘ความเกลียดชัง’ (Hatred) ไม่ว่าจะภายในสังคมหรือระหว่างสังคมกับสังคม และพรากความเห็นอกเห็นใจและความเป็นมนุษย์ไป แทนที่ด้วยความเกลียดชังที่ว่าอาจทะยานขึ้นสู่ ‘ความรุนแรง’ (Violence) ก็เป็นได้
ท้ายที่สุดนี้ก็ย่อมกระทบกับระบบการปกครองแบบประชาธิปไตยอย่างหลีกเลี่ยงไม่ได้ เพราะแต่ละฝ่ายมองแนวคิดแบบ ‘พวกเรา - พวกมัน’ กลืนกิน แนวคิดพื้นฐานที่มองคนทุกคนมีเสียงเท่ากันอาจจางหายไป และอาจนำไปสู่ปัญหาอื่นตามมา
ปัญหาการแบ่งแยกทางความคิดจากอดีตถึงปัจจุบันยังคงเป็นหนึ่งสิ่งที่น่าเป็นห่วงอยู่ไม่น้อย โดยเฉพาะเมื่อได้รับผลกระทบจากอัลกอริทึมและ AI ที่พยายามช่วงชิงเวลาและความสนใจของเรา มองในมิตินี้ ผลลัพธ์ที่เกิดขึ้นก็ไม่ต่างอะไรจากผลกระทบภายนอก (Externality) ที่กระทบกับมนุษย์ผู้ใช้งานและสังคมในภาพรวม แต่คำถามคือในตอนนี้นโยบายหรือมาตรการควบคุมในการชดเชยผลกระทบเหล่านี้มากน้อยเพียงไหน?
สิ่งที่พอจะเห็นได้ในปัจจุบันนี้ก็คือการขึ้นแจ้งเตือนเกี่ยวกับคอนเทนต์ที่ถูกสร้างโดย AI แม้จะยังไม่ครอบคลุมทั้งหมด แต่ก็หากเห็นแนวโน้มนี้ขยายตัวขึ้นอาจจะช่วยต่อกรกับปัญหาได้บ้าง หรือแม้แต่การใช้เงินโฆษณาเพื่อผลประโยชน์ในการหาเสียง
คงไม่มีสิ่งใดสวยงามสมบูรณ์แบบ เบื้องหลังอุดมการณ์ที่เชิดชูหรือข้อถกเถียงที่เห็นด้วยทั้งใจก็ล้วนมี ‘อีกแง่มุม’ ที่ชวนขบคิดและนำไปพัฒนาต่อจนทำให้สรรพสิ่งต่าง ๆ แหลมคมกว่าเดิม
เฉกเช่นเดียวกับการใช้ชีวิต ก็คงต้องมีทั้งคำหวาน คำขมปะปนกันไป การเลือกฟังเพียงแต่สิ่งที่ไพเราะเสนาะหู อาจทำให้เราพลาดที่จะมองเห็นบางสิ่งบางอย่างไปก็เป็นได้
อ้างอิง
Harvard Law School. (n.d.). Danger in the Internet echo chamber. Harvard Law Today.
Holzer, J., & Hendricks, V. F. (2022). Echo chambers and opinion dynamics: Experimental evidence. Frontiers in Psychology, 13, 9342595.
Number Analytics. (n.d.). The psychology behind group polarization.
Nordquist, R. (2020, August 27). Straw man fallacy: Definition and examples. ThoughtCo.