Un estudio muestra un amplio apoyo de ambas partes para el 'etiquetado' en las redes sociales para abordar la desinformación y el discurso problemático

Un estudio muestra un amplio apoyo de ambas partes para el 'etiquetado' en las redes sociales para abordar la desinformación y el discurso problemático

Ilustración fotográfica de aplicaciones de redes sociales. Fuente: Alyssa Stone / Northeast University

Existe un amplio apoyo de ambas partes entre los autoproclamados liberales y conservadores de que las empresas de redes sociales deben agregar etiquetas de advertencia a las publicaciones que contienen información engañosa o pueden conducir a la propagación de desinformación, datos de un nuevo estudio realizado por investigadores del noreste de la Facultad de Artes. , Espectáculos de medios y diseño.

Muchas encuestas de etiquetado de contenido se realizaron en torno a las elecciones presidenciales de EE. UU. Sin embargo, los resultados de una encuesta nacional, publicada el miércoles, podrían revelar nuevas preocupaciones sobre la desinformación durante la pandemia de COVID-19, especialmente alrededor de uso de vacunas y otros protocolos de salud, dice John Wihbey, profesor asociado de periodismo y medios de comunicación innovación en Northeastern y coautor del estudio.

«Estamos en un nuevo momento, en una nueva fase de la pandemia, un momento en el que podemos tener una idea un poco más clara de lo que piensa el público sobre estos temas», dice Wihbey.

En los ultimos años empresas de redes sociales Los gustos de Twitter y Facebook comenzaron a marcar millones de publicaciones como información errónea, incluidas algunas del ex presidente Donald Trump, quien fue suspendido permanentemente de las plataformas luego del ataque del 6 de enero al Capitolio por parte de sus partidarios.

Las afirmaciones de Trump de fraude electoral generalizado durante las elecciones presidenciales del año pasado, que fueron expuestas y surgieron posteriormente, provocaron un feroz debate sobre la responsabilidad de las empresas de tecnología de monitorear qué tipos de información pueden compartir los usuarios, incluida la limitación o eliminación de los llamados. mensajes, difundiendo el odio y contenido que de otro modo se consideraría problemático.

Durante el verano, un equipo de científicos del noreste entrevistó a más de 1.400 personas en los Estados Unidos a través de una plataforma de encuestas académicas llamada Prolific. La mitad de los participantes dijo que usa Twitter ocasionalmente o con más frecuencia, y el 68% dijo que usa Facebook ocasionalmente o con más frecuencia.

La encuesta se publicó conjuntamente con el Instituto de Ética de Northeastern como parte de un esfuerzo más amplio que explora enfoques potencialmente nuevos para el etiquetado de contenido en las plataformas de redes sociales. Garrett Morrow, un estudiante de doctorado en ciencias políticas, es coautor del estudio; Myojung Chung, profesor asistente de periodismo y defensa de los medios; y Mike Peacey, profesor asociado de economía.

La encuesta encontró que el 92,1% de los liberales, el 60,1% de los conservadores y el 78,4% de los moderados «están muy o algo de acuerdo» en que las plataformas de redes sociales deben usar etiquetas para informar a los usuarios sobre publicaciones que contienen información engañosa. Dichas etiquetas se han utilizado para identificar la desinformación, como las etiquetas de «evidencia fáctica» de Twitter, y alertar a los usuarios sobre publicaciones potencialmente gráficas o maliciosas, como advertencias de medios sensibles de la plataforma.

Los participantes también expresaron que encuentran ‘contenido problemático’ – información engañosa o incorrecta y discurso de odio – a menudo cuando usan plataformas de redes sociales. Los científicos no intentan definir la información errónea o el contenido problemático en el estudio, dice Wihbey, prefiriendo confiar en las percepciones de los participantes sobre tales problemas al responder las preguntas de la encuesta.

Los investigadores también notaron que los participantes mostraron un alto grado de «exceso de confianza», lo que significa que encontraron que confiaban en su propia capacidad para reconocer declaraciones engañosas y desinformación en línea, pero expresaron desconfianza en la capacidad de otros para hacer lo mismo.

El importante acuerdo entre partidos sobre el etiquetado fue un poco sorprendente, dice Wihbey, considerando lo polarizante que fue el tema de la moderación del contenido en los días posteriores a las elecciones. Muchos conservadores se opusieron a la prohibición de Trump, y a la prohibición en general, alegando que era censura.

Pero el estudio también confirmó algunas de estas diferencias de opinión sesgadas sobre la mejor manera de abordar la moderación de contenido, con el 63,2% de los conservadores diciendo que etiquetar las publicaciones de Trump, en lugar de prohibirlo, era suficiente para lidiar con sus «mensajes que violan las reglas». Esto comparado con más del 80% de los liberales que sentían que era necesaria una acción más severa.

El estudio se produce cuando los gobiernos intentan tomar el control de las políticas de moderación de los gigantes tecnológicos. Esta semana, el gobernador de Texas Greg Abbott, un republicano, firmó un proyecto de ley que obliga a las empresas de redes sociales a revelar sus políticas de moderación de contenido y crear un procedimiento de apelación para los usuarios prohibidos. Según la nueva ley, los usuarios pueden demandar a las empresas para restaurar sus cuentas. Florida aprobó una ley similar a principios de este año.

Los demócratas también intentaron influir en la política empresarial. Durante el verano, el presidente Joe Biden pidió a Facebook que tomara medidas más rápidas contra las publicaciones que difunden información errónea sobre el COVID-19, diciendo que las malas noticias que circulan en la plataforma sobre la seguridad y eficacia de las vacunas están «matando gente».

«Existe una gran necesidad de tratar de averiguar qué herramientas y métodos necesitamos utilizar para combatir la desinformación y la desinformación», dice Wihbey, resumiendo el sentimiento de la encuesta. “Al mismo tiempo, creo que la gente no cree que cerrar cuentas y deshabilitar los botones de compartir sea [only] Seguid así.»

Wihbey dice que el estudio puede indicar que el público se está acercando a algún tipo de compromiso.

«Descubrimos que la gente quiere que las etiquetas los vinculen a fuentes confiables para ser verificados, prepararlos para pensar críticamente. desinformacióny ralentizar difundiendo desinformación alertar a las personas sobre el contenido que podrían intentar compartir ”, afirman los autores.


Twitter permite que algunos usuarios etiqueten contenido «confuso»

Más información:
John Wihbey, Garrett Morrow, Myojung Chung, Mike Peacey, The Bipartisan Case for Labeling as a method of content moderation: national survey results (14 de septiembre de 2021). Disponible en SSRN: papers.ssrn.com/sol3/papers.cf…? abstract_id = 3923905

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *