El fundador y CEO de Meta, Mark Zuckerberg, anunció grandes cambios en la forma en que la empresa aborda la desinformación en redes sociales como Facebook, Instagram y Threads. En lugar de depender de verificadores de datos independientes de terceros, Meta ahora emulará a X (antes Twitter) de Elon Musk al utilizar “notas comunitarias”. Estas contribuciones de colaboración colectiva permiten a los usuarios marcar el contenido que creen que es cuestionable.
Zuckerberg afirmó que estos cambios promueven la “libertad de expresión”. Pero algunos expertos temen que esté cediendo a la presión política de derecha y que permita efectivamente que se propague un diluvio de discursos de odio y mentiras en las plataformas de Meta.
Las investigaciones sobre la dinámica de grupo de las redes sociales sugieren que esos expertos tienen razón.
A primera vista, las notas comunitarias pueden parecer democráticas, reflejando los valores de la libertad de expresión y las decisiones colectivas. Los sistemas de colaboración colectiva como Wikipedia, Metaculus y PredictIt, aunque imperfectos, a menudo logran aprovechar la sabiduría de las multitudes, donde el juicio colectivo de muchos a veces puede superar incluso a los expertos.
Las investigaciones muestran que los grupos diversos que reúnen juicios y estimaciones independientes pueden ser sorprendentemente eficaces para discernir la verdad. Sin embargo, las multitudes sabias rara vez tienen que lidiar con los algoritmos de las redes sociales.
Muchas personas dependen de plataformas como Facebook para sus noticias, lo que les expone a la exposición a información errónea y fuentes sesgadas. Confiar en los usuarios de las redes sociales para vigilar la precisión de la información podría polarizar aún más las plataformas y amplificar las voces extremistas.
Dos tendencias basadas en grupos (nuestra necesidad psicológica de clasificarnos a nosotros mismos y a los demás en grupos) son de particular preocupación: el sesgo de endogrupo/exogrupo y la acrofilia (el amor por los extremos).
Sesgo de endogrupo/exogrupo
Los humanos tienen sesgos en la forma en que evalúan la información. Las personas son más propensas a confiar y recordar la información de su endogrupo (aquellos que comparten sus identidades) mientras que desconfían de la información de los grupos percibidos como externos. Este sesgo conduce a cámaras de eco, donde las personas con ideas afines refuerzan creencias compartidas, independientemente de la precisión.
Puede parecer racional confiar en la familia, los amigos o los colegas por encima de los extraños. Pero las fuentes del endogrupo a menudo tienen perspectivas y experiencias similares, y ofrecen poca información nueva. Por otra parte, los miembros de grupos externos tienen más probabilidades de ofrecer puntos de vista diversos. Esta diversidad es fundamental para la sabiduría de las masas.
Pero demasiado desacuerdo entre grupos puede impedir que la verificación de datos de la comunidad se produzca. Muchas notas de la comunidad en X (antes Twitter), como las relacionadas con las vacunas contra la COVID, probablemente nunca se mostraron públicamente porque los usuarios no estaban de acuerdo entre sí. El beneficio de la verificación de datos por parte de terceros fue proporcionar una fuente externa objetiva, en lugar de necesitar un acuerdo generalizado de los usuarios de una red.
Peor aún, estos sistemas son vulnerables a la manipulación por parte de grupos bien organizados con agendas políticas. Por ejemplo, se dice que los nacionalistas chinos organizaron una campaña para editar las entradas de Wikipedia relacionadas con las relaciones entre China y Taiwán para que fueran más favorables a China.
Polarización política y acrofilia
De hecho, la política intensifica estas dinámicas. En Estados Unidos, la identidad política domina cada vez más la forma en que las personas definen sus grupos sociales.
Los grupos políticos están motivados para definir “la verdad” de maneras que los benefician y perjudican a sus oponentes políticos. Es fácil ver cómo los esfuerzos organizados para difundir mentiras con motivaciones políticas y desacreditar verdades incómodas podrían corromper la sabiduría de las multitudes en las notas de la comunidad de Meta.
Las redes sociales aceleran este problema a través de un fenómeno llamado acrofilia, o una preferencia por lo extremo. Las investigaciones muestran que las personas tienden a interactuar con publicaciones ligeramente más extremas que sus propias opiniones.
Es más probable que estas publicaciones cada vez más extremas sean negativas que positivas. Los psicólogos saben desde hace décadas que lo malo es más atractivo que lo bueno. Estamos programados para prestar más atención a las experiencias e información negativas que a las positivas.
En las redes sociales, esto significa que las publicaciones negativas (sobre violencia, desastres y crisis) reciben más atención, a menudo a expensas de contenido más neutral o positivo.
Aquellos que expresan estas opiniones extremas y negativas ganan estatus dentro de sus grupos, atraen más seguidores y amplifican su influencia. Con el tiempo, la gente empieza a pensar que estas opiniones negativas ligeramente más extremas son normales, y poco a poco van desplazando sus propias opiniones hacia los polos opuestos.
Un estudio reciente de 2,7 millones de publicaciones en Facebook y Twitter concluyó que los mensajes que contenían palabras como “odio”, “ataque” y “destruir” se compartían y recibían “me gusta” en mayor proporción que casi cualquier otro contenido. Esto sugiere que las redes sociales no solo amplifican las opiniones extremas, sino que también fomentan una cultura de odio hacia el grupo externo que socava la colaboración y la confianza necesarias para que funcione un sistema como las notas comunitarias.
El camino a seguir
La combinación de sesgo de negatividad, sesgo de grupo interno/grupo externo y acrofilia potencia uno de los mayores desafíos de nuestro tiempo: la polarización. A través de la polarización, las opiniones extremas se normalizan, erosionando el potencial de entendimiento compartido a través de las divisiones grupales.
Las mejores soluciones, que analizo en mi próximo libro, The Collective Edge, comienzan por diversificar nuestras fuentes de información. En primer lugar, las personas deben interactuar con diferentes grupos y colaborar entre ellos para derribar las barreras de la desconfianza. En segundo lugar, deben buscar información en múltiples medios de noticias e información confiables, no solo en las redes sociales.
Sin embargo, los algoritmos de las redes sociales suelen actuar en contra de estas soluciones, creando cámaras de eco y atrapando la atención de las personas. Para que las notas comunitarias funcionen, estos algoritmos deberían priorizar fuentes de información diversas y confiables.
Si bien las notas comunitarias podrían, en teoría, aprovechar la sabiduría de las masas, su éxito depende de la superación de estas vulnerabilidades psicológicas. Tal vez una mayor conciencia de estos sesgos pueda ayudarnos a diseñar mejores sistemas, o a empoderar a los usuarios para que utilicen las notas comunitarias para promover el diálogo entre las divisiones. Solo entonces las plataformas podrán acercarse a la solución del problema de la desinformación.
Colin M. Fisher es profesor asociado de Organizaciones e Innovación y autor de “The Collective Edge: Unlocking the Secret Power of Groups” en UCL.
Este artículo se publicó originalmente en The Conversation. Lee el artículo original aquí.