por Daron Acemoglu
- esta publicación es de Daron Acemoglu, Asuman Ozdaglar y James Siderius, Vox eu.org
La información errónea se propaga rápidamente en las plataformas de redes sociales. Esta columna utiliza un modelo de intercambio de contenido en línea para mostrar que una plataforma de redes sociales que desea maximizar la participación del contenido propagará artículos extremos entre sus usuarios más extremistas. Las 'burbujas de filtro' evitan que el contenido se extienda más allá de su grupo demográfico extremista, creando 'cámaras de eco' en las que circula información errónea. La amenaza de censura y la correspondiente pérdida de participación podría presionar a las plataformas para que se verifiquen a sí mismas, mientras que la regulación de sus algoritmos podría mitigar las consecuencias de las burbujas de filtro.
Comparte este artículo - Vaya a la parte superior de la página, en el lado derecho, para ver los botones de redes sociales.
"Virginia está eliminando los cursos avanzados de matemáticas de la escuela secundaria".
"Donald Trump intentó acusar a Mike Pence".
"El presidente Biden está aprobando un proyecto de ley que obliga a todos los estadounidenses a eliminar la carne roja".
Estos titulares estuvieron entre los muchos que circularon en las redes sociales durante los últimos meses. Se encontró que cada uno de los artículos contenía información errónea, es decir, información o argumentos engañosos, a menudo con el objetivo de influir en (un subconjunto de) el público. Los artículos que contienen información errónea también se encuentran entre los contenidos más virales, con "las falsedades que se difunden significativamente más lejos, más rápido, más profundo y más ampliamente que la verdad en todas las categorías de información" (Vosoughi et al. 2018). Existe una creciente preocupación de que la información errónea propagada en las redes sociales polarice aún más al electorado y socave el discurso democrático.
¿Por qué se propaga la desinformación?
¿Qué hace que la desinformación se propague de forma viral en las redes sociales? ¿Qué papel juegan los algoritmos de las plataformas de redes sociales en este proceso? ¿Cómo podemos controlar la desinformación? En un trabajo reciente (Acemoglu et al. 2021), abordamos estas preguntas.
Como Pennycook et al. (2021) muestran de manera experimental que a los usuarios de redes sociales les importa compartir contenido preciso en línea. Compartir información errónea y ser llamado por otros puede darle al usuario una reputación de irresponsabilidad o imprudencia y reducir su estatus en las redes sociales (ver Altay et al. 2020). Al mismo tiempo, los usuarios en línea obtienen valor de la afirmación social, o el 'estímulo de los compañeros', en forma de me gusta o retuits (ver Eckles et al. 2016).
Capturamos estas opciones al permitir que los usuarios decidan si compartir un artículo, eliminarlo (no compartirlo en absoluto) o inspeccionarlo (verificarlo) para averiguar si contiene información errónea. Compartir trae beneficios directos, pero puede resultar costoso si el artículo contiene información errónea descubierta por algunos de sus destinatarios. Esta compensación de opciones tiene dos consideraciones para el usuario. La primera es si es probable que el artículo contenga información errónea. Debido a que el usuario tiene una creencia / ideología preexistente, evaluará la veracidad del artículo dependiendo de la distancia entre su mensaje y su punto de vista, y es más probable que comparta contenido que esté ideológicamente alineado con sus puntos de vista. La segunda es cómo el artículo compartido será percibido por quienes lo reciban en su círculo social. Esto depende, entre otras cosas, de si sus seguidores lo verificarán ellos mismos, lo que a su vez depende del grado de 'homofilia' en su red, es decir, si su círculo social comparte sus puntos de vista. La importancia de los cálculos estratégicos es evidente aquí. Si espera que los destinatarios verifiquen los datos de un artículo, esto la animará a verificarlos primero, ya que es más probable que se descubra información errónea. En nuestro artículo, exploramos estas consideraciones estratégicas y cómo afectan la difusión de información errónea.
La red de intercambio de un usuario, y el grado de homofilia en la misma, está determinado por su red social y el algoritmo de recomendación de la plataforma. Quizás como era de esperar, los usuarios de las redes sociales tienden a involucrar (por ejemplo, 'seguir' o 'amigos') a otros usuarios con creencias ideológicas similares (Bakshy et al. 2015). En otras palabras, los conservadores tienden a interactuar con otros conservadores y los liberales tienden a interactuar con otros liberales. Esto forma un exógeno 'cámara de eco' con un alto grado de homofilia, mediante la cual los usuarios se asocian con otros usuarios de ideas afines que se hacen eco de las opiniones de los demás. Los algoritmos de la plataforma de redes sociales pueden exacerbar la homofilia al vincular a los usuarios de creencias similares y no vincular a los de creencias opuestas. Esto crea una endógeno cámara de eco (o 'burbuja de filtro').
Nuestros hallazgos
Uno de nuestros principales hallazgos es el papel de las cámaras de eco en la difusión de información errónea. Cuando las cámaras de eco y el grado de homofilia son limitados, la desinformación no se extiende mucho. Un fragmento de contenido en línea circulará hasta que se le aparezca a un usuario que no esté de acuerdo con él, quien luego lo verificará y revelará si contiene información errónea. Esta verificación de datos disciplina a otros usuarios, que luego serán inducidos a inspeccionar los artículos antes de compartirlos. Por el contrario, cuando la homofilia es alta y hay amplias cámaras de eco exógenas o endógenas, los usuarios de creencias similares se asocian fuertemente entre sí y, reconociendo esto, verifican los hechos mucho menos. Como resultado, la desinformación se propaga de forma viral.
Otra de las principales conclusiones de nuestro análisis es el papel de las plataformas en la propagación de información errónea. Para las plataformas que desean maximizar la participación del usuario, en forma de clics o acciones en su sitio, las cámaras de eco pueden ser muy ventajosas. Cuando la plataforma recomienda contenido al grupo demográfico con más probabilidades de estar de acuerdo con él, es más probable que el contenido se reciba de manera positiva y menos probable que se verifique y se descarte (cuando contiene información errónea), lo que aumenta la participación. Este efecto de participación puede conducir a cámaras de eco endógenas como lo documenta Levy (2020) para Facebook.
De hecho, nuestros resultados muestran que las cámaras de eco y la propagación viral de información errónea son más probables cuando los artículos contienen contenido extremo. Cuando el contenido no tiene carga política, como fotos de bodas o videos de cocina, la plataforma no tiene un fuerte incentivo para crear burbujas de filtro, e incluso puede decidir inspeccionar la veracidad de un artículo y erradicar la desinformación en sí. Lo mismo ocurre cuando los usuarios de la plataforma tienen creencias ideológicas moderadas. Esto se debe a que la propagación viral es menos probable para contenido moderado o entre usuarios con ideologías moderadas. En contraste, con contenido políticamente divisivo o una fuerte polarización de creencias en la comunidad, la plataforma no solo encontrará beneficioso crear una cámara de resonancia para maximizar el compromiso, sino que lo hará sin verificar la veracidad del artículo. En otras palabras, el algoritmo de plataforma óptimo es recomendar contenido extremo que se alinee con los usuarios más extremistas, mientras se adopta una burbuja de filtro que evita que el contenido se extienda más allá de este grupo demográfico. Aunque son beneficiosas para la plataforma, estas cámaras de eco endógenas para contenido políticamente cargado conducen a la propagación viral de información errónea.
La regulación puede ayudar
La regulación puede ayudar a mitigar los efectos de las cámaras de eco endógenas. Mostramos que tres tipos de políticas pueden ser efectivas: procedencia de artículos, censura y regulación de algoritmos. Primero, si la plataforma debe ser más transparente sobre la procedencia de un artículo, animará a los usuarios a verificar el contenido de fuentes menos confiables con más frecuencia. Sin embargo, también encontramos que una política de este tipo puede ser contraproducente debido a un efecto de "verdad implícita": el contenido que proviene de fuentes conocidas puede llevar a una verificación de datos inferior a la óptima. En segundo lugar, si los reguladores amenazan con censurar un pequeño subconjunto de artículos que contienen mensajes extremos o pueden contener información errónea, la plataforma está incentivada para actuar de manera más responsable. En particular, la amenaza de censura y la correspondiente pérdida de participación es suficiente para empujar a la plataforma hacia la reducción del grado de homofilia y la verificación de hechos en casos que, sin la censura, habrían creado burbujas de filtro. Finalmente, una política que regule directamente los algoritmos de la plataforma puede mitigar las consecuencias de las burbujas de filtro. Un estándar de segregación ideológica, por el cual las cámaras de eco dentro de la red de intercambio son limitadas y el contenido de todo el espectro ideológico se presenta a todos los usuarios, puede conducir tanto a algoritmos de plataforma más responsables como a una mayor verificación de datos por parte de los propios usuarios.
Referencias
- Acemoglu, D, A Ozdaglar y J Siderius (2021), “Desinformación: compartición estratégica, homofilia y cámaras de eco endógenas”, documento de trabajo NBER 28884.
- Altay, S, AS Hacquin y H Mercier (2020), “¿Por qué tan pocas personas comparten noticias falsas? Daña su reputación ”, Nuevos medios y sociedad, 24 de noviembre.
- Bakshy, E, S Messing y LA Adamic (2015), "Exposición a noticias y opiniones ideológicamente diversas en Facebook", Science, 348: 1130-1132.
- Eckles, D, RF Kizilcec y E Bakshy (2016), "Estimación de efectos entre pares en redes con diseños de estímulo entre pares", Actas de la Academia Nacional de Cienciases, 113: 7316 - 7322.
- Levy, R (2020), “Redes sociales, consumo de noticias y polarización: evidencia de un experimento de campo”, documento académico SSRN ID 3653388.
- Pennycook, G, Z Epstein, M Mosleh, AA Arechar, D Eckles y D Rand (2021), "Cambiar la atención a la precisión puede reducir la información errónea en línea", Naturaleza, 592: 590-595.
- Vosoughi, S, D Roy y S Aral (2018), "La difusión de noticias verdaderas y falsas en línea", Science, 359: 1146-1151.
Acerca de los Autores
Daron Acemoğlu es profesor Charles P. Kindleberger de Economía Aplicada en el Departamento de Economía del Instituto de Tecnología de Massachusetts. Recibió una licenciatura en economía en la Universidad de York, 1989, M.Sc. en economía matemática y econometría en la London School of Economics, 1990, y Ph.D. en economía en la London School of Economics en 1992. Es miembro electo de la Academia Estadounidense de Artes y Ciencias, la Sociedad Econométrica, la Asociación Económica Europea y la Sociedad de Economistas Laborales.
Ha recibido numerosos premios y becas, incluido el Premio TW Shultz inaugural de la Universidad de Chicago en 2004, el Premio Sherwin Rosen inaugural por su destacada contribución a la economía laboral en 2004, el Premio a las Ciencias Distinguidas de la Asociación de Ciencias de Turquía en 2006 y el Premio John von Neumann de Rajk College, Budapest en 2007. También fue galardonado con la Medalla John Bates Clark en 2005, otorgada cada dos años al mejor economista de los Estados Unidos menor de 40 años por la Asociación Estadounidense de Economía, y tiene un premio Doctorado Honoris Causa por la Universidad de Utrecht. Sus intereses de investigación incluyen economía política, desarrollo y crecimiento económico, teoría del capital humano, teoría del crecimiento, innovación, teoría de la búsqueda, economía de redes y aprendizaje.
Asu Ozdaglar recibió la licenciatura en ingeniería eléctrica de la Universidad Técnica de Oriente Medio, Ankara, Turquía, en 1996, y el SM y el Ph.D. títulos en ingeniería eléctrica e informática del Instituto de Tecnología de Massachusetts, Cambridge, en 1998 y 2003, respectivamente.
Es profesora de MathWorks de Ingeniería Eléctrica y Ciencias de la Computación en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS) en el Instituto de Tecnología de Massachusetts. Es la jefa de departamento de EECS y vicedecana de estudios académicos en la Facultad de Computación Schwarzman. Su experiencia en investigación incluye teoría de la optimización, con énfasis en programación no lineal y análisis convexo, teoría de juegos, con aplicaciones en redes de comunicación, sociales y económicas, optimización y control distribuido y análisis de redes con especial énfasis en procesos contagiosos, riesgo sistémico y control dinámico. .
El profesor Ozdaglar recibió una beca de Microsoft, el premio MIT Graduate Student Council Teaching Award, el premio NSF Career Award, el premio Donald P. Eckman 2008 del American Automatic Control Council, la Cátedra de Desarrollo de Carrera de la Clase de 1943, la inauguración Steven and Renee Beca de Innovación y el premio a la docencia Spira 2014. Se desempeñó en la Junta de Gobernadores de la Sociedad de Sistemas de Control en 2010 y fue editora asociada de IEEE Transactions on Automatic Control. Fue coeditora del área inaugural del área titulada “Juegos, información y redes” de la revista. La investigación de operaciones. Ella es la coautora del libro titulado Optimización y análisis convexo (Atenea científica, 2003).
James Siderius es un candidato a doctorado de quinto año en MIT LIDS asesorado por Asu Ozdaglar y Daron Acemoglu. Su enfoque de investigación incluye modelos de redes y aprendizaje con aplicaciones específicas a la teoría de juegos, la economía y las finanzas, y un enfoque particular en el riesgo sistémico en las redes financieras endógenas y la difusión de información errónea en las redes sociales.
Este artículo aparecido en Vox eu.org 30 2021 junio.
.