การถกเถียงในสังคมกับวิกฤต Political Polarization ในยุคที่ Algorithm และ AI เถลิงอำนาจ

การถกเถียงในสังคมกับวิกฤต Political Polarization ในยุคที่ Algorithm และ AI เถลิงอำนาจ

คอลัมน์ The Hidden Dilemma ชวนสำรวจวิกฤต Political Polarization ในยุคที่ Algorithm และ AI เถลิงอำนาจในโลกปัจจุบัน ที่อาจทำให้ผู้คนที่เห็นต่างกันในสังคมแบ่งขั้วกันสาหัสขึ้นกว่าเดิม

KEY

POINTS

  • The Hidden Dilemma ชวนตั้งคำถามถึงวิกฤต ‘การแบ่งขั้ว’ (Polarization) ความคิดและการเมือง ในโลกที่อัลกอริทึมกับ AI กำลังก้าวขึ้นมามีบทบาทในทุกมิติของชีวิต
  • สิ่งนี้อาจสร้าง ‘ฟองอากาศ’ (Bubbles) ทางความเชื่อที่เหลาให้ผู้คนมีความคิดที่สุดโต่งมากกว่าเดิม เพราะถูกสนับสนุนด้วยหลักฐานต่าง ๆ มากมายผ่านคอนเทนต์ที่ถูกคัดสรรมาให้ตรงใจ และมีแนวโน้มที่ปฏิเสธความเชื่ออีกแบบหนึ่ง ความเป็นไปนี้จึงนำไปสู่ภาวะการแบ่งแยกทางความคิดที่ดูจะหนักข้อขึ้นในทุก ๆ วันที่ผ่านไป
  • จุดร่วม’ (Common Ground) ภายในสังคมอาจอยู่ในสถานะที่น่าเป็นห่วง เมื่อต่างฝ่ายต่างทวีความสุดโต่งและสุดขั้วทางความคิดของตนเอง ทำให้ความเห็นร่วมกันในบางแง่มุมมีแนวโน้มลดน้อยลงไป หัวใจสำคัญของการถกเถียงอาจเป็นการพิสูจน์ว่าสิ่งที่ตนเองคิดเป็นเรื่องที่ถูก มากกว่าการถกเถียงเพื่อหาทางเลือกที่ดีที่สุดของสังคม

จะเห็นได้ว่าในอดีต มนุษย์มักต้องวิ่งเข้าหาข่าวสารและความบันเทิง ไม่ว่าจะเป็นการเดินชมนกชมไม้ ออกไปท่องเที่ยวดูโลก อ่านข่าวสารบ้านเมืองจากหนังสือพิมพ์ จูนหาคลื่นวิทยุที่มีเพลงโปรด หรือแม้แต่ใช้รีโมตเปลี่ยนช่องโทรทัศน์หารายการ ละคร หรือภาพยนตร์ที่เราจะสนใจ แต่ในตัวอย่างที่ยกมานี้ จะเห็นได้ว่าความบันเทิงก็ค่อย ๆ ขยับเข้ามาเราเช่นเดียวกัน

โดยเฉพาะในวันนี้เราสามารถเห็นได้ว่าสิ่งเหล่านี้ได้ขยับเข้ามาหาเราใกล้กว่าเดิมไม่น้อยเลยทีเดียว การที่จะอ่านข่าวสารและความบันเทิง เราไม่จำเป็นต้องใช้รีโมตกดหาช่องที่ต้องการหรือเฝ้ารอดูรายการที่จะมาตามเวลาที่กำหนดอีกต่อไปแล้ว เพราะการมาถึงของโลกออนไลน์ที่มาพร้อมกับโซเชียลมีเดียหรือแม้แต่อัลกอริทึมที่ทำหน้าที่เป็นผู้จัดสรรเนื้อหาตาม ‘ความชอบเฉพาะตน’ (Individual Preference) ได้รู้ใจมากขึ้นทุกวัน

เรียกได้ว่าถ้าสนใจข่าวสารบ้านเมือง ความบันเทิง อาหาร ดนตรี ภาพยนตร์ วิดีโอเกม หรือบุคคลไหนเป็นพิเศษก็จะมีเนื้อหาทำนองเดียวกันนั้นปรากฎขึ้นมามากเป็นพิเศษ และหลีกเลี่ยงที่จะนำเสนอสิ่งที่ ‘ไม่น่าสนใจ’ ที่อาจทำให้ผู้ชมเบื่อได้ จนกลายเป็นว่าใช้นิ้วจิ้มเปิดแอปพลิเคชันไหนก็ล้วนมีแต่อัลกอริทึมคอยมา ‘เอาอกเอาใจ’ ให้เราใช้เวียนว่ายอยู่ในแพลตฟอร์มนั้นนาน ๆ — ซึ่งก็ดูจะได้ผลไม่น้อยเลยทีเดียว

ทว่าความก้าวหน้าของเทคโนโลยีนั้นก็มาพร้อมกับผลกระทบที่เร้นหลบอยู่ในเงามืด เมื่อการที่อัลกอริทึมเอาอกเอาใจผู้ใช้เช่นนี้ อาจสร้างผลกระทบต่อ ‘การรับสาร’ ในเรื่องราวต่าง ๆ ที่ในท้ายที่สุดอาจเหลาแนวคิดและจุดยืนของผู้คนนั้น ๆ ให้มีความสุดโต่งมากกว่าเดิม เหตุเพราะสารที่ผู้ใช้ได้รับคือสิ่งที่ถูกคัดสรรโดยให้ค่าให้ไพเราะเสนาะหูและสอดรับกับความพึงพอใจมากกว่า ‘ความเป็นกลาง’ และ ‘มีเหตุมีผล

แล้วหากเป็นเช่นนั้น ในอนาคต คนสองคนที่มีความเชื่ออยู่ขั้วตรงข้ามกันจะสามารถอยู่ร่วมกันอย่างไรได้บ้าง ในเมื่อชุดความจริงที่พวกเขากำลังยึดถืออยู่นั้นอาจจะต่างกันราวขาวกับดำ?

ในมุมหนึ่งก็สามารถมองได้ว่าเทคโนโลยีเหล่านี้เข้ามาแก้ไขเพนพอยนท์ (Pain Point) ของผู้คน แต่หากมองอีกมุมหนึ่งก็อาจตีความได้เช่นเดียวกันว่าสิ่งเหล่านี้กำลังฉกฉวยโอกาสในการแข่งขันและสร้างประโยชน์ โดยเหลือผลกระทบต่อสังคมไว้โดยไม่มีใครรับผิดชอบ

ครั้งหนึ่ง ผู้เขียนเคยเขียนถึงหัวข้อ [ The Hidden Dilemma - หรือเรากำลัง Amused to Death? เมื่อดราม่าเป็นทั้ง ‘มูลค่า’ และ ‘พิษภัย’ ] ที่ทำให้เราเห็นถึงการแข่งขันในตลาดสื่อสารมวลชนและความบันเทิงที่ส่งผลถึงวัฒนธรรมการตีแผ่ข่าวดราม่าเพื่อช่วงชิงความสนใจของผู้คน แต่ความบันเทิงระยะสั้นนี้ก็แลกมาด้วยผลกระทบระยะยาวที่น่าเป็นห่วงไม่น้อย แต่ในครั้งนี้เราจะกล่าวกันถึง ‘ตัวกลาง’ กันบ้าง

ใน The Hidden Dilemma สัปดาห์นี้จะชวนตั้งคำถามถึงเทคโนโลยีในโลกปัจจุบัน โดยเฉพาะกับ ‘อัลกอริทึม’ และ ‘AI’ ว่าจะสร้างผลกระทบต่อสังคมในแง่ของ ‘การแบ่งขั้ว’ (Polarization) ความคิดและการเมืองไปอย่างไร และสิ่งเหล่านี้กำลังฉกฉวยโอกาสจากช่องโหว่ของพวกเราอย่างไรบ้าง หรือแม้แต่การแข่งขันของบรรดาบริษัทเทคโนโลยี สร้างผลกระทบภายนอก (Externality) กับสังคมเราไปแบบไหน?

ไม่ใช่เรื่องใหม่เลยแม้แต่น้อยเมื่อกล่าวถึงปัญหา ‘การแบ่งขั้วทางการเมือง’ (Political Polarization) ของผู้คนในสังคม ในยุคที่แพลตฟอร์มโซเชียลมีเดียต่าง ๆ มีบทบาทมากขึ้นในทุกมิติของผู้คน โดยเฉพาะในแง่ของการรับรู้ข่าวสารข้อมูลและความบันเทิง เพราะมีการพูดถึงไม่น้อยในช่วงเวลาที่ผ่านมา โดยเฉพาะกับสารคดีอย่าง ‘The Social Dilemma’ (2020)

 

การถกเถียงในสังคมกับวิกฤต Political Polarization ในยุคที่ Algorithm และ AI เถลิงอำนาจ

The Social Dilemma (2020)

 

ในวันที่ ‘ความสนใจ’ (Attention) ของผู้คนกลายเป็นทรัพยากรอันล้ำค่าที่บริษัทเทคโนโลยีสามารถใช้หาประโยชน์ได้ ก็ไม่แปลกที่จะสร้างแรงจูงใจอันแข็งกล้าให้พยายามทำทุกวิถีทางที่จะตรึงผู้ใช้งานให้ไถฟีดหรือรับชมวิดีโอสั้นที่ถูกนำเสนอบนแพลตฟอร์มให้ได้นานที่สุด เพราะยิ่งนาน ก็หมายความว่าพวกเขายิ่งประสบความสำเร็จมากเท่านั้น

จึงนำไปสู่การวิเคราะห์แบบเสี้ยววินาทีว่าเราเจียดความสนใจให้เนื้อหาประเภทไหนมากเป็นพิเศษ ก่อนจะนำข้อมูลทั้งหลายเหล่านั้นประกอบเป็น ‘Buyer Persona’ ของผู้ชมคนนั้น ๆ เพื่อที่จะคัดสรรเนื้อหาที่จะทำให้ผู้คนอยู่บนแพลตฟอร์มนั้นได้นานที่สุด นำไปสู่แนวโน้มที่ทำให้ผู้คนมักได้รับ ‘เนื้อหาทางเดียว’ ที่จะมีแต่สิ่งที่สอดรับกับความสนใจและความเชื่อของผู้คนเหล่านั้น เพราะเมื่อแพลตฟอร์มพอจะรู้ว่าเรา ‘ชอบ’ หรือ ‘เชื่อ’ อะไร เขาก็จะอัดสิ่งนั้นมาให้เราอย่างไม่หยุดยั้ง

สิ่งนี้อาจสร้าง ‘ฟองอากาศ’ (Bubbles) ทางความเชื่อที่เหลาให้ผู้คนมีความคิดที่สุดโต่งมากกว่าเดิม เพราะถูกสนับสนุนด้วยหลักฐานต่าง ๆ มากมายผ่านคอนเทนต์ที่ถูกคัดสรรมาให้ตรงใจ และมีแนวโน้มที่ปฏิเสธความเชื่ออีกแบบหนึ่ง ความเป็นไปนี้จึงนำไปสู่ภาวะการแบ่งแยกทางความคิดที่ดูจะหนักข้อขึ้นในทุก ๆ วันที่ผ่านไป…

สาเหตุที่เป็นเช่นนี้ประการหนึ่งเป็นเพราะแรงจูงใจในตลาดทำให้แพลตฟอร์มเหล่านี้แข่งขันกันเพื่อไขว่คว้าทรัพยากนที่อยู่ในตัวของผู้ใช้งาน แต่สิ่งนี้ก็ดันไปสอดรับกันอย่างดีกับ ‘ช่องโหว่’ ทางจิตวิทยาหรือที่อาจรู้จักว่าเป็น ‘อคติทางความคิด’ (Cognitive Bias) รูปแบบต่าง ๆ ที่ฝังอยู่ในตัวมนุษย์เรา ซึ่งอาจเกิดขึ้นโดยที่เราไม่รู้ตัว

หนึ่งในประเภทความอคติที่มักพบได้บ่อยโดยเฉพาะในแง่ของการถกเถียงดีเบต และการศึกษาหาข้อมูลคือ ‘อคติยืนยันตัวเอง’ (Confirmation Bias) ซึ่งก็ความพยายามหาข้อมูล ไม่ใช่เพื่อศึกษาหรือคลายข้อสงสัย แต่เพื่อยืนยันสิ่งที่ตนเองคิด ซึ่งจะนำไปสู่ภาวะที่มีการจงใจเลือกอ้างอิงหรือเชื่อข้อมูลบางอย่าง และเลือกที่จะทิ้งบางอย่างไปเพียงเพราะสิ่งนั้นไม่สอดรับกับข้อถกเถียงตั้งต้น

อัลกอริทึมและโซเชียลมีเดียได้สนุบสนุนให้เกิดอคติประเภทนี้อย่างชัดเจน ประการแรกเริ่มต้นจากการเลือกสรรเนื้อหาที่จะสอดรับกับ ‘ความเชื่อ’ และ ‘จุดยืน’ ของผู้ใช้งาน และทำให้ผู้ใช้งานได้รับแต่ข้อมูลฝั่งเดียวที่มีแนวโน้มจะสอดรับกับความเชื่อดั้งเดิมเป็นหลัก 

นอกจากอัลกอริทึมแล้ว โซเชียลมีเดียก็อาจพาผู้คนที่มีความคิดเหมือนกันมารวมตัวกัน ไม่ว่าจะผ่านเพจหรือกลุ่ม ซึ่งอาจนำไปสู่ภาวะ ‘ห้องแห่งเสียงสะท้อน’ (Echo Chamber) ซึ่งจะเป็นการรวมตัวกันของผู้คน ที่ไม่เพียงมีรสนิยมต่อสิ่งต่าง ๆ เหมือนกัน แต่จะมาพร้อมกับ ‘จุดยืนทางการเมือง’ ที่เหมือนกันอีกด้วย จึงนำไปสู่ข้อถกเถียง ความเชื่อ และแหล่งข้อมูลที่เหล่าผู้คนในวงโคจรนี้ สนับสนุนกันภายในฟองอากาศเดียว 

อีกปัญหาอคติที่อาจทำให้สังคมติดหล่มได้คือ ‘ตรรกะวิบัติหุ่นฟาง’ (Strawman Fallacy) เกิดขึ้นจากความพยายามในการบิดเบือนข้อถกเถียงฝั่งตรงข้ามให้อ่อนแอลงเพื่อให้ข้อถกเถียงของตนสามารถเอาชนะหรืออยู่เหนือกว่าได้ง่ายขึ้น ยกตัวอย่างเช่น การหยิบเอานโยบายหรือข้อถกเถียงเหล่านั้น มาบิดเบือนให้มีความ ‘สุดโต่งมากขึ้น’ หรือ ‘ใส่สีให้รุนแรงมากกว่าเดิม’ เผื่อให้ข้อถกเถียงเหล่านั้นดูไม่สมเหตุสมผลและดูเป็นภัยต่อผู้คน อีกทั้งยังสามารถแพร่กระจายได้ง่ายอีกด้วย 

ไม่ว่าจะเป็นอัลกอริทึมหรือแพลตฟอร์มก็ล้วนสร้างบริบทและธรรมชาติที่ง่ายต่อการสนับสนุนความเชื่อของกันและกันที่อาจจะทะยานความแบ่งขั้วไปมากขึ้นกว่าเดิม โดยบริบทนี้ก็ได้นำไปสู่ภาวะ ‘อคติแบบเข้าข้างกลุ่มตนเอง’ (In-Group Favoritism) หรือแม้แต่แนวคิดแบบ ‘เผ่าพันธุ์นิยม’ (Tribalism) ที่ฝังรากลึกในเผ่าพันธุ์มนุษย์มาตั้งแต่บรรพกาล จะส่งให้กรอบความคิดแบบ ‘พวกเรา - พวกเขา’ (Us and Them Mentality)  หนักข้อขึ้นกว่าเดิม

สิ่งที่จะตามมาคือการที่ยกยอหรือแม้แต่หาข้อมูลแต่ด้านดีมาสนับสนุนความเชื่อหรือการกระทำของฝ่ายตน ในขณะเดียวกันก็จะหาทุกวิถีทางเพื่อโจมตีฝ่ายตรงข้าม ผลที่ตามมาคือเราจะเห็นได้ว่า ‘ข้อเท็จจริง’ แทบจะกลายเป็นอย่างหลัง ๆ ที่ถูกพูดถึง หรือแม้แต่การคิดแบบเป็นเหตุเป็นผลที่คำนึงถึงทั้ง ‘ข้อดี’ และ ‘ข้อเสีย’ ในทุก ๆ สถานการณ์ เพราะในบางคราวการนำเสนอมุมมองที่แตกต่างที่อาจกระทบกับความเชื่อของแนวคิดของกลุ่มคนบางกลุ่ม ก็อาจนำไปสู่ ‘ความไม่พอใจ’ หรือแม้แต่การผลักให้เขาเหล่านั้นว่าเป็น ‘ผู้เห็นต่าง’ หรือแม้แต่ ‘ศัตรู

แคส อาร์. ซันสตีน’ (Cass R. Sunstein) เคยกล่าวเอาไว้ในหนังสือ ‘#Republic: Divided Democracy in the Age of Social Media’ (2017) ว่าโซเชียลมีเดียจะจำกัดมุมมองของผู้คนที่มีต่อเรื่องต่าง ๆ โดยเฉพาะประเภทที่ไม่สอดคล้องกับความเชื่อเดิม นอกจากนั้น เมื่อคนที่มีจุดยืนแบบเดียวกันมาพูดคุยกัน อาจทำให้ความคิดของพวกเขามีความสุดโต่งขึ้นกว่าจุดเดิม

 

การถกเถียงในสังคมกับวิกฤต Political Polarization ในยุคที่ Algorithm และ AI เถลิงอำนาจ

#Republic: Divided Democracy in the Age of Social Media (2017)

 

อัลกอริทึมที่เอาอกเอาใจความชอบของผู้ใช้จึงมีด้านหนึ่งที่เปรียบเสมือนน้ำยาหล่อลื่นให้อคติทำนองนี้ผลิบานมากขึ้นในสังคม ในขณะเดียวกัน การมาถึงของ ‘ปัญญาประดิษฐ์’ ที่ถูกพัฒนาอย่างก้าวกระโดดจนสามารถสร้างสื่อเสมือนจริงหรือ ‘AI-Generated Content’ ไม่ว่าจะเป็นภาพหรือวิดีโอ ที่อาจนำไปสู่ความเข้าใจผิดได้

ไม่กี่ปีก่อนหน้าเราต่างกังวลกันเรื่อง ‘Deep Fake’ ที่สามารถนำภาพหรือวิดีโอไปสร้างด้วย AI จนเสมือนว่าคน ๆ นั้นพูดออกมาด้วยตัวเอง แต่ว่าในปัจจุบันนี้ ไม่ว่าจะเป็นความสามารถของ ChatGPT หรือแม้แต่หนึ่งในโมเดลจาก Gemini อย่าง Veo 3 ที่สามารถสร้างวิดีโอและหลอกตาผู้คนได้อย่างแนบเนียน จากไม่กี่ปีก่อนหน้าที่มนุษย์เรายังหัวเราะกับความสามารถของ AI ในการสร้างวิดีโอ วิล สมิธ ดื่มด่ำกับสปาเก็ตตี้ ของเขาอยู่เลย

เครื่องมือแบบนี้ย่อมเสี่ยงต่อผู้ไม่ประสงค์ดีผลิต ‘เนื้อหาปลอม’ (Fake Contents) ขึ้นมาสุมไฟความรู้สึกหรือความเชื่อผู้คน โดยเฉพาะในแง่ของการเมืองหรือประเด็นดราม่าต่าง ๆ ในแง่หนึ่งคือการที่ AI สามารถสร้างมันขึ้นมาได้อย่างแนบเนียนเสียจนอาจทำให้มีผู้คนเข้าใจผิด ในอีกแง่หนึ่งก็สอดรับกับอคติยืนยันตัวเองของผู้คนที่อาจ ‘พร้อมจะเชื่อ’ ข่าวสารเหล่านี้ โดยเฉพาะประเภทที่ใช้โจมตีฝั่งตรงข้าม

ปรากฎการณ์ทั้งหมดนี้สะท้อนให้เห็นว่าแนวโน้มการแบ่งขั้วทางการเมืองของผู้คนในสังคมดูจะหนักข้อขึ้นทุกวัน เนื้อหาปลอมถูกผสมอยู่กระแสธารของข้อมูลจนยากจะแยก และการถกเถียงบนหลักเหตุผลหรือพื้นฐานความเป็นจริงอย่างมีสติก็เริ่มถูกแทนที่ด้วยการตะโกนว่าใครเสียงดังกว่ากัน สิ่งเหล่านี้จะส่งผลกระทบต่อสังคมในภาพรวมไปในทิศทางไหน?

จุดร่วม’ (Common Ground) ภายในสังคมอาจอยู่ในสถานะที่น่าเป็นห่วง เมื่อต่างฝ่ายต่างทวีความสุดโต่งและสุดขั้วทางความคิดของตนเอง ทำให้ความเห็นร่วมกันในบางแง่มุมมีแนวโน้มลดน้อยลงไป หัวใจสำคัญของการถกเถียงอาจเป็นการพิสูจน์ว่าสิ่งที่ตนเองคิดเป็นเรื่องที่ถูก มากกว่าการถกเถียงเพื่อหาทางเลือกที่ดีที่สุดของสังคม

มากไปกว่านั้น เมื่อมีจำนวนคนในสังคมที่มีแนวคิดแบบ ‘สุดโต่ง’ (Extremist) ก็อาจส่งผลกระทบไปถึงความขัดแย้งภายในสังคม เพราะความคิดเห็นที่ต่างกันเมื่อถูกผสมด้วยความสุดโต่งอาจนำไปสู่ ‘ความเกลียดชัง’ (Hatred) ไม่ว่าจะภายในสังคมหรือระหว่างสังคมกับสังคม และพรากความเห็นอกเห็นใจและความเป็นมนุษย์ไป แทนที่ด้วยความเกลียดชังที่ว่าอาจทะยานขึ้นสู่ ‘ความรุนแรง’ (Violence) ก็เป็นได้

ท้ายที่สุดนี้ก็ย่อมกระทบกับระบบการปกครองแบบประชาธิปไตยอย่างหลีกเลี่ยงไม่ได้ เพราะแต่ละฝ่ายมองแนวคิดแบบ ‘พวกเรา - พวกมัน’ กลืนกิน แนวคิดพื้นฐานที่มองคนทุกคนมีเสียงเท่ากันอาจจางหายไป และอาจนำไปสู่ปัญหาอื่นตามมา

ปัญหาการแบ่งแยกทางความคิดจากอดีตถึงปัจจุบันยังคงเป็นหนึ่งสิ่งที่น่าเป็นห่วงอยู่ไม่น้อย โดยเฉพาะเมื่อได้รับผลกระทบจากอัลกอริทึมและ AI ที่พยายามช่วงชิงเวลาและความสนใจของเรา มองในมิตินี้ ผลลัพธ์ที่เกิดขึ้นก็ไม่ต่างอะไรจากผลกระทบภายนอก (Externality) ที่กระทบกับมนุษย์ผู้ใช้งานและสังคมในภาพรวม แต่คำถามคือในตอนนี้นโยบายหรือมาตรการควบคุมในการชดเชยผลกระทบเหล่านี้มากน้อยเพียงไหน?

สิ่งที่พอจะเห็นได้ในปัจจุบันนี้ก็คือการขึ้นแจ้งเตือนเกี่ยวกับคอนเทนต์ที่ถูกสร้างโดย AI แม้จะยังไม่ครอบคลุมทั้งหมด แต่ก็หากเห็นแนวโน้มนี้ขยายตัวขึ้นอาจจะช่วยต่อกรกับปัญหาได้บ้าง หรือแม้แต่การใช้เงินโฆษณาเพื่อผลประโยชน์ในการหาเสียง 

คงไม่มีสิ่งใดสวยงามสมบูรณ์แบบ เบื้องหลังอุดมการณ์ที่เชิดชูหรือข้อถกเถียงที่เห็นด้วยทั้งใจก็ล้วนมี ‘อีกแง่มุม’ ที่ชวนขบคิดและนำไปพัฒนาต่อจนทำให้สรรพสิ่งต่าง ๆ แหลมคมกว่าเดิม 

เฉกเช่นเดียวกับการใช้ชีวิต ก็คงต้องมีทั้งคำหวาน คำขมปะปนกันไป การเลือกฟังเพียงแต่สิ่งที่ไพเราะเสนาะหู อาจทำให้เราพลาดที่จะมองเห็นบางสิ่งบางอย่างไปก็เป็นได้

 

อ้างอิง 

Harvard Law School. (n.d.). Danger in the Internet echo chamber. Harvard Law Today.

West, D. M. (2023, September 14). How tech platforms fuel U.S. political polarization—and what government can do about it. Brookings.

Carothers, T., & O’Donohue, A. (2019, October 1). How to understand the global spread of political polarization. Carnegie Endowment for International Peace.

Holzer, J., & Hendricks, V. F. (2022). Echo chambers and opinion dynamics: Experimental evidence. Frontiers in Psychology, 13, 9342595.

Number Analytics. (n.d.). The psychology behind group polarization.

Nordquist, R. (2020, August 27). Straw man fallacy: Definition and examples. ThoughtCo.

Chinmay, B. H. (2023, June 11). Understanding the impact: How AI algorithms influence political and religious polarization. Medium.