Una extensión de navegador muestra que los algoritmos de redes sociales alteran opiniones políticas
Investigadores en Estados Unidos han desarrollado una nueva herramienta que permite a científicos independientes estudiar cómo los algoritmos de las redes sociales afectan a los usuarios, sin necesidad del permiso de las propias plataformas.
Las conclusiones sugieren que las plataformas podrían reducir la polarización política si dan menos visibilidad al contenido hostil en sus algoritmos.
La herramienta, una extensión de navegador impulsada por inteligencia artificial (IA), analiza las publicaciones en X, antes conocida como Twitter, en busca de temas antidemocráticos y de posiciones partidistas extremadamente negativas, como mensajes que puedan incitar a la violencia o pedir el encarcelamiento de simpatizantes del partido contrario.
Después reordena las publicaciones en el feed de X en cuestión de segundos, según el estudio, de modo que el contenido polarizador queda más cerca del final del feed del usuario.
El equipo de investigadores de la Universidad de Stanford, la Universidad de Washington y la Universidad Northeastern probó la extensión del navegador en los feeds de X de más de 1.200 participantes que consintieron en que se modificaran durante diez días en la recta final de las elecciones presidenciales estadounidenses de 2024.
Parte de los participantes usó la extensión que mostraba más contenido divisivo, y el resto la que lo relegaba a una posición más baja en el feed. Los resultados se publicaron el jueves en la revista 'Science'.
Una nueva forma de reordenar sin colaboración de las plataformas
Los investigadores pidieron a los participantes que valoraran sus sentimientos hacia el partido político contrario en una escala de uno a 100 durante el experimento.
En los participantes que usaron la herramienta del navegador, su actitud hacia el partido contrario mejoró de media en dos puntos, un cambio equivalente al estimado en la opinión pública estadounidense en tres años.
"Estos cambios fueron comparables en magnitud a tres años de variación en la polarización afectiva en Estados Unidos", señalaron los investigadores.
Los resultados fueron bipartidistas, es decir, los efectos se mantuvieron de forma consistente entre personas con visiones liberales y conservadoras.
Tiziano Piccardi, profesor adjunto de informática en la Universidad Johns Hopkins, dijo que la herramienta tiene un impacto claro en la polarización.
"Cuando los participantes estuvieron expuestos a menos de este contenido, se sintieron más cercanos a las personas del partido contrario", dijo en un comunicado. "Cuando estuvieron expuestos a más, se sintieron más fríos".
Los investigadores señalan que esto podría ser una nueva forma de reordenar las publicaciones en redes sociales sin colaboración de las plataformas.
"Estas intervenciones pueden dar lugar a algoritmos que no solo reduzcan la animosidad partidista, sino que también promuevan una mayor confianza social y un discurso democrático más saludable entre distintas sensibilidades", concluye el estudio.
El estudio también analizó las respuestas emocionales y constató que los participantes que redujeron el contenido hostil dijeron sentirse menos enfadados y menos tristes mientras usaban la plataforma, pero esos efectos emocionales no persistieron una vez finalizado el estudio.
Los autores señalaron que su estudio solo era accesible para quienes iniciaron sesión en X desde un navegador, no desde la aplicación, lo que podría limitar los efectos.
Tampoco midieron el impacto a largo plazo que podría tener para los usuarios de X ver menos contenido polarizador.
Este texto fue traducido con la ayuda de inteligencia artificial. Informar de un problema : [feedback-articles-es@euronews.com].
Today