Abra cualquier aplicación de redes sociales en su teléfono y probablemente verá enlaces a información de COVID-19 de fuentes confiables.
En la parte superior de la función de búsqueda de Instagram, se destacan los identificadores de los Centros para el Control y la Prevención de Enfermedades de EE. UU. Y la Organización Mundial de la Salud. Haga clic y encontrará publicaciones e historias sobre cómo mantenerse a salvo durante la pandemia.
En la sección de inicio de la aplicación de YouTube, hay una lista de reproducción de videos que promueven la vacunación y contrarrestan la información errónea sobre vacunación de la OMS, el Diario de la Asociación Médica Estadounidense y GAVI, la Alianza de Vacunas.
Y en la aplicación de Twitter, es posible que vea una advertencia debajo de las publicaciones con información COVID-19 falsa o engañosa. Un tweet de un usuario que proclama falsamente que la 5G causa el coronavirus, por ejemplo, tiene un gran signo de exclamación azul con un mensaje de Twitter: “Conozca los hechos sobre COVID-19”. Se vincula a una historia que desacredita la afirmación de un medio de comunicación del Reino Unido llamado iNews.
En el ruidoso panorama de las noticias, estas son solo algunas de las características lanzadas por la industria de la tecnología para eliminar la información errónea de COVID-19 y brindar información al público.
Este esfuerzo no sucedió de manera espontánea. La Organización Mundial de la Salud inició los esfuerzos en febrero de 2020 en los primeros días de la crisis del coronavirus. La ONU se asoció con más de 40 empresas de tecnología para ayudar a difundir hechos, minimizar la difusión de información falsa y eliminar publicaciones engañosas.
Pero hay una gran pregunta que es difícil de responder: ¿está funcionando?
¿Alguno de estos esfuerzos ha cambiado realmente el comportamiento de las personas durante la pandemia o las ha animado a recurrir a fuentes más creíbles?
Los expertos en mensajería sanitaria y los especialistas en desinformación entrevistados para este artículo elogian los esfuerzos de la OMS para llegar a miles de millones de personas a través de estas asociaciones de la industria tecnológica. Pero dicen que las acciones tomadas por las empresas no han sido suficientes e incluso pueden ser problemáticas.
Vish Viswanath, profesor de comunicación sanitaria en el departamento de ciencias sociales y del comportamiento de la Escuela de Salud Pública TH Chan de Harvard, ha estado monitoreando de cerca el contenido de salud global difundido por la industria de la tecnología desde que comenzó la pandemia.
“La OMS merece crédito por reconocer que la gran avalancha de información errónea, la infodemia, es un problema y por tratar de hacer algo al respecto”, dice. “Pero el sector tecnológico no ha sido particularmente útil para frenar la marea de desinformación”.
Los investigadores dicen que existen límites para algunas de las tácticas contra la desinformación utilizadas por las empresas de redes sociales.
Marcar o eliminar una publicación problemática en las redes sociales a menudo llega demasiado tarde para reparar el daño, dice Nasir Memon, profesor de informática e ingeniería en la Universidad de Nueva York. Su investigación incluye ciberseguridad y comportamiento humano.
“Solo llega después de que la publicación se ha vuelto viral. Una empresa puede hacer una verificación de datos y poner una etiqueta de advertencia”, dice. “Pero para entonces los que consumieron esa información ya han sido influenciados de alguna manera”.
Por ejemplo, en octubre, el presidente Donald Trump afirmó en una publicación de Twitter que tenía inmunidad contra COVID-19 después de enfermarse. Según el CDC: “No hay pruebas firmes de que los anticuerpos que se desarrollan en respuesta a la infección por SARS-CoV-2 sean protectores”. La publicación fue eliminada de Twitter después de ser marcada por verificadores de hechos, pero no antes de que se hubiera compartido con millones de sus seguidores.
Y no hay garantías de que la gente se tomará el tiempo de hacer clic en un enlace a fuentes confiables para “aprender más”, como sugieren las etiquetas, dice Viswanath.
Estas etiquetas de COVID-19 para “obtener más información” y “para obtener más información” se pueden encontrar en casi todas las plataformas tecnológicas, sí, Twitter, Facebook e Instagram, pero también Tinder, la aplicación de citas (cada pocos deslizamientos hay recordatorios para lavarse las manos y observar el distanciamiento físico, con enlaces a los mensajes de la OMS) y Uber, la aplicación para compartir viajes (una sección en su sitio web con información de seguridad para los pasajeros dirige a las personas a la OMS para recibir orientación sobre una pandemia).
“Si estoy sentado en alguna comunidad en algún lugar, ocupado con mi vida, preocupado por mi trabajo, preocupado por si los niños van a la escuela o no, lo último que quiero hacer es ir a un sitio web de la Organización Mundial de la Salud o de los CDC “, Agrega Viswanath.
La OMS sabe que estas medidas no son perfectas. Melinda Frost, del equipo de comunicación de riesgos de la OMS, reconoce que simplemente eliminar publicaciones puede crear nuevos problemas. Comparte un estudio de diciembre de la empresa de análisis de desinformación Graphika. Descubrió que la represión de los videos contra las vacunas en YouTube ha llevado a sus defensores a volver a publicar los videos en otros sitios de alojamiento de videos como BitChute, favorecido por la extrema derecha.
YouTube elimina videos si violan su política COVID-19. No se permiten videos que afirmen que la vacuna COVID-19 mata a personas o que se usarán como un medio para reducir la población, por ejemplo. Pero otras plataformas pueden tener políticas menos estrictas.
“Podemos esperar una proliferación de plataformas alternativas a medida que se fortalezcan las medidas de verificación de datos y eliminación de contenido en las redes sociales”, dice Frost.
Los investigadores dicen que es difícil saber si alguno de estos esfuerzos realmente ha cambiado el comportamiento de las personas durante la pandemia, o las ha animado a recurrir a fuentes más creíbles.
Claire Wardle, directora estadounidense de First Draft, una organización sin fines de lucro que investiga la desinformación, dice que “casi no tenemos evidencia empírica sobre el impacto de estas intervenciones en las plataformas. No podemos simplemente suponer que cosas que parecen tener sentido [como eliminar una publicación o dirigir a las personas a una fuente confiable] en realidad tendría las consecuencias que esperaríamos “.
Andy Pattison, quien dirige las asociaciones digitales de la OMS en Ginebra, dice que la organización ahora está tratando de evaluar el impacto.
La OMS está trabajando con Google, por ejemplo, en un cuestionario para que los usuarios vean si los esfuerzos de la compañía han dado como resultado un cambio de comportamiento y/o un mayor conocimiento sobre COVID-19. Desde los primeros días de la crisis, Google se ha asegurado de que los usuarios que busquen “COVID” o términos relacionados en su motor de búsqueda vean los medios de comunicación oficiales y las agencias de salud locales en sus principales resultados, dice Pattison.
En ausencia de datos actuales, las investigaciones anteriores pueden arrojar algo de luz sobre la desinformación en las redes sociales.
Por ejemplo, un estudio de abril de 2020 de la Escuela de Ingeniería Tandon de la Universidad de Nueva York descubrió que las etiquetas de advertencia (mensajes como “varios periodistas de verificación de datos cuestionan la credibilidad de esta noticia”) pueden reducir la intención de las personas de compartir información falsa. La probabilidad, sin embargo, varió según la orientación política y el género del participante.
Memon, el autor principal del informe, dice que los hallazgos son relevantes para la vigilancia de las redes sociales durante la pandemia. “La verificación de hechos [en las plataformas de redes sociales] se convertirá en un aspecto importante de lo que hacemos como sociedad para ayudar a contrarrestar la difusión de información errónea”, dice.
Tanto Memon como Viswanath dicen que con decenas de millones de publicaciones que se comparten en las redes sociales al día, las empresas deben aumentar sus esfuerzos para eliminar la información falsa.
“Tienen el poder. Tienen el alcance. Deberían ser más agresivos y activos de lo que han sido”, dice Viswanath.
Memon sugiere que las empresas podrían implementar mecanismos más fuertes para verificar las identidades de los usuarios. Eso podría ayudar a evitar que las personas creen cuentas de trolls para difundir de forma anónima falsedades y rumores, dice. Y Viswanath sugiere que las empresas de tecnología contraten equipos de expertos (especialistas en ética, investigadores, científicos, médicos) para obtener consejos sobre cómo manejar información falsa.
En cuanto a la OMS, ha aprendido una lección clave durante la pandemia. “La información por sí sola no va a cambiar el comportamiento”, dice Frost, que ha estado trabajando en campañas de la OMS para desacreditar afirmaciones médicas injustificadas en las redes sociales.
Entonces, durante los últimos meses, la organización ha estado reuniendo a un grupo de sociólogos, psicólogos del comportamiento y neurocientíficos para estudiar cómo circula la información, cómo se puede administrar y cómo puede cambiar la opinión de las personas.
“Mucho de lo que sabemos sobre el cambio de comportamiento realmente requiere algo más cercano al individuo, asegurarse de que la información que tenemos sea relevante para los individuos y tenga sentido en sus vidas”, dice.
Fuente: NPR
Abra cualquier aplicación de redes sociales en su teléfono y probablemente verá enlaces a información de COVID-19 de fuentes confiables.
En la parte superior de la función de búsqueda de Instagram, se destacan los identificadores de los Centros para el Control y la Prevención de Enfermedades de EE. UU. Y la Organización Mundial de la Salud. Haga clic y encontrará publicaciones e historias sobre cómo mantenerse a salvo durante la pandemia.
En la sección de inicio de la aplicación de YouTube, hay una lista de reproducción de videos que promueven la vacunación y contrarrestan la información errónea sobre vacunación de la OMS, el Diario de la Asociación Médica Estadounidense y GAVI, la Alianza de Vacunas.
Y en la aplicación de Twitter, es posible que vea una advertencia debajo de las publicaciones con información COVID-19 falsa o engañosa. Un tweet de un usuario que proclama falsamente que la 5G causa el coronavirus, por ejemplo, tiene un gran signo de exclamación azul con un mensaje de Twitter: “Conozca los hechos sobre COVID-19”. Se vincula a una historia que desacredita la afirmación de un medio de comunicación del Reino Unido llamado iNews.
En el ruidoso panorama de las noticias, estas son solo algunas de las características lanzadas por la industria de la tecnología para eliminar la información errónea de COVID-19 y brindar información al público.
Este esfuerzo no sucedió de manera espontánea. La Organización Mundial de la Salud inició los esfuerzos en febrero de 2020 en los primeros días de la crisis del coronavirus. La ONU se asoció con más de 40 empresas de tecnología para ayudar a difundir hechos, minimizar la difusión de información falsa y eliminar publicaciones engañosas.
Pero hay una gran pregunta que es difícil de responder: ¿está funcionando?
¿Alguno de estos esfuerzos ha cambiado realmente el comportamiento de las personas durante la pandemia o las ha animado a recurrir a fuentes más creíbles?
Los expertos en mensajería sanitaria y los especialistas en desinformación entrevistados para este artículo elogian los esfuerzos de la OMS para llegar a miles de millones de personas a través de estas asociaciones de la industria tecnológica. Pero dicen que las acciones tomadas por las empresas no han sido suficientes e incluso pueden ser problemáticas.
Vish Viswanath, profesor de comunicación sanitaria en el departamento de ciencias sociales y del comportamiento de la Escuela de Salud Pública TH Chan de Harvard, ha estado monitoreando de cerca el contenido de salud global difundido por la industria de la tecnología desde que comenzó la pandemia.
“La OMS merece crédito por reconocer que la gran avalancha de información errónea, la infodemia, es un problema y por tratar de hacer algo al respecto”, dice. “Pero el sector tecnológico no ha sido particularmente útil para frenar la marea de desinformación”.
Los investigadores dicen que existen límites para algunas de las tácticas contra la desinformación utilizadas por las empresas de redes sociales.
Marcar o eliminar una publicación problemática en las redes sociales a menudo llega demasiado tarde para reparar el daño, dice Nasir Memon, profesor de informática e ingeniería en la Universidad de Nueva York. Su investigación incluye ciberseguridad y comportamiento humano.
“Solo llega después de que la publicación se ha vuelto viral. Una empresa puede hacer una verificación de datos y poner una etiqueta de advertencia”, dice. “Pero para entonces los que consumieron esa información ya han sido influenciados de alguna manera”.
Por ejemplo, en octubre, el presidente Donald Trump afirmó en una publicación de Twitter que tenía inmunidad contra COVID-19 después de enfermarse. Según el CDC: “No hay pruebas firmes de que los anticuerpos que se desarrollan en respuesta a la infección por SARS-CoV-2 sean protectores”. La publicación fue eliminada de Twitter después de ser marcada por verificadores de hechos, pero no antes de que se hubiera compartido con millones de sus seguidores.
Y no hay garantías de que la gente se tomará el tiempo de hacer clic en un enlace a fuentes confiables para “aprender más”, como sugieren las etiquetas, dice Viswanath.
Estas etiquetas de COVID-19 para “obtener más información” y “para obtener más información” se pueden encontrar en casi todas las plataformas tecnológicas, sí, Twitter, Facebook e Instagram, pero también Tinder, la aplicación de citas (cada pocos deslizamientos hay recordatorios para lavarse las manos y observar el distanciamiento físico, con enlaces a los mensajes de la OMS) y Uber, la aplicación para compartir viajes (una sección en su sitio web con información de seguridad para los pasajeros dirige a las personas a la OMS para recibir orientación sobre una pandemia).
“Si estoy sentado en alguna comunidad en algún lugar, ocupado con mi vida, preocupado por mi trabajo, preocupado por si los niños van a la escuela o no, lo último que quiero hacer es ir a un sitio web de la Organización Mundial de la Salud o de los CDC “, Agrega Viswanath.
La OMS sabe que estas medidas no son perfectas. Melinda Frost, del equipo de comunicación de riesgos de la OMS, reconoce que simplemente eliminar publicaciones puede crear nuevos problemas. Comparte un estudio de diciembre de la empresa de análisis de desinformación Graphika. Descubrió que la represión de los videos contra las vacunas en YouTube ha llevado a sus defensores a volver a publicar los videos en otros sitios de alojamiento de videos como BitChute, favorecido por la extrema derecha.
YouTube elimina videos si violan su política COVID-19. No se permiten videos que afirmen que la vacuna COVID-19 mata a personas o que se usarán como un medio para reducir la población, por ejemplo. Pero otras plataformas pueden tener políticas menos estrictas.
“Podemos esperar una proliferación de plataformas alternativas a medida que se fortalezcan las medidas de verificación de datos y eliminación de contenido en las redes sociales”, dice Frost.
Los investigadores dicen que es difícil saber si alguno de estos esfuerzos realmente ha cambiado el comportamiento de las personas durante la pandemia, o las ha animado a recurrir a fuentes más creíbles.
Claire Wardle, directora estadounidense de First Draft, una organización sin fines de lucro que investiga la desinformación, dice que “casi no tenemos evidencia empírica sobre el impacto de estas intervenciones en las plataformas. No podemos simplemente suponer que cosas que parecen tener sentido [como eliminar una publicación o dirigir a las personas a una fuente confiable] en realidad tendría las consecuencias que esperaríamos “.
Andy Pattison, quien dirige las asociaciones digitales de la OMS en Ginebra, dice que la organización ahora está tratando de evaluar el impacto.
La OMS está trabajando con Google, por ejemplo, en un cuestionario para que los usuarios vean si los esfuerzos de la compañía han dado como resultado un cambio de comportamiento y/o un mayor conocimiento sobre COVID-19. Desde los primeros días de la crisis, Google se ha asegurado de que los usuarios que busquen “COVID” o términos relacionados en su motor de búsqueda vean los medios de comunicación oficiales y las agencias de salud locales en sus principales resultados, dice Pattison.
En ausencia de datos actuales, las investigaciones anteriores pueden arrojar algo de luz sobre la desinformación en las redes sociales.
Por ejemplo, un estudio de abril de 2020 de la Escuela de Ingeniería Tandon de la Universidad de Nueva York descubrió que las etiquetas de advertencia (mensajes como “varios periodistas de verificación de datos cuestionan la credibilidad de esta noticia”) pueden reducir la intención de las personas de compartir información falsa. La probabilidad, sin embargo, varió según la orientación política y el género del participante.
Memon, el autor principal del informe, dice que los hallazgos son relevantes para la vigilancia de las redes sociales durante la pandemia. “La verificación de hechos [en las plataformas de redes sociales] se convertirá en un aspecto importante de lo que hacemos como sociedad para ayudar a contrarrestar la difusión de información errónea”, dice.
Tanto Memon como Viswanath dicen que con decenas de millones de publicaciones que se comparten en las redes sociales al día, las empresas deben aumentar sus esfuerzos para eliminar la información falsa.
“Tienen el poder. Tienen el alcance. Deberían ser más agresivos y activos de lo que han sido”, dice Viswanath.
Memon sugiere que las empresas podrían implementar mecanismos más fuertes para verificar las identidades de los usuarios. Eso podría ayudar a evitar que las personas creen cuentas de trolls para difundir de forma anónima falsedades y rumores, dice. Y Viswanath sugiere que las empresas de tecnología contraten equipos de expertos (especialistas en ética, investigadores, científicos, médicos) para obtener consejos sobre cómo manejar información falsa.
En cuanto a la OMS, ha aprendido una lección clave durante la pandemia. “La información por sí sola no va a cambiar el comportamiento”, dice Frost, que ha estado trabajando en campañas de la OMS para desacreditar afirmaciones médicas injustificadas en las redes sociales.
Entonces, durante los últimos meses, la organización ha estado reuniendo a un grupo de sociólogos, psicólogos del comportamiento y neurocientíficos para estudiar cómo circula la información, cómo se puede administrar y cómo puede cambiar la opinión de las personas.
“Mucho de lo que sabemos sobre el cambio de comportamiento realmente requiere algo más cercano al individuo, asegurarse de que la información que tenemos sea relevante para los individuos y tenga sentido en sus vidas”, dice.
Fuente: NPR
Compartir esto: