Fundación para la Libertad de Prensa - FLIP

Logo Flip

 

Para lidiar con la información falsa, relacionada con el COVID-19, Twitter está restringiendo el contenido que va en contra de lo dicho por fuentes de información autorizadas de salud pública, como por ejemplo, la Organización Mundial de la Salud (OMS)

Adicional a esto, y para determinar si un trino debe ser eliminado o no, Twitter revisa varios factores. Primero, si lo expresado es un hecho y no una opinión. Segundo, que esta afirmación tenga la intención de influir en el comportamiento de los demás, por ejemplo, dando información sobre tratamientos o características del virus. Tercero, si las autoridades de salud pública han confirmado que las afirmaciones hechas por el tuit son falsas, y si no es así, pueden estar siendo compartidas de una manera que podría confundir o engañar a las personas. Y, por último, se revisa si la información compartida puede aumentar la probabilidad de exposición al virus o tener efectos adversos en el sistema de salud pública. 

Así, Twitter clasifica los tuits en tres categorías. Primero, afirmaciones engañosas, es decir aquellas confirmadas como falsas o engañosas. Segundo, declaraciones disputadas, en las que existe una discusión sobre si el contenido es veraz, exacto o creíble. Y tercero, las afirmaciones no verificadas, aquellas que no están confirmadas al momento en que el usuario lo comparte.

Estas reglas son implementadas por Twitter para evitar la difusión de información falsa y sus posibles consecuencias. Sin embargo, en algunos casos estas pueden afectar la libertad de expresión.

Primero, es riesgoso que la veracidad se mida únicamente de acuerdo a si la información proviene de las autoridades sanitarias o no. La pandemia por el COVID-19 es un contexto en donde los expertos en salud pública no siempre han tenido un consenso y también han modificado sus recomendaciones con el paso del tiempo. Por ejemplo, en un principio la OMS alertaba que la cuarentena estricta era la medida que los gobiernos debían tomar, meses después desincentivaron esta medida para contener el virus. Otro ejemplo es que a pesar de que la OMS ha aconsejado una distancia de dos metros para prevenir el contagio, expertos han advertido que esta distancia podría no ser suficiente.

En conclusión, la norma no establece con certeza quiénes son las fuentes expertas que determinan la veracidad del contenido sobre la pandemia, ni tampoco qué sucede si existen contradicciones entre las fuentes autorizadas. Tampoco es claro qué tipo de afirmaciones sobre el COVID-19 pueden conducir a confusión o el engaño en las personas.

En segundo lugar, se puede afectar la capacidad de conocer asuntos de interés público. Parte del derecho a la información está vinculado con que las personas puedan conocer qué piensa un mandatario, en este caso, acerca del virus y cómo está manejando la situación. Este derecho existe, incluso si lo que llegase a decir este político o funcionario público fuera falso, engañoso o sin pruebas. Que haya la posibilidad de que el contenido se elimine, en vez de solo poner advertencias, es peligroso. 

En tercer lugar, Twitter ha aumentado rápidamente el uso de herramientas como el machine learning y la automatización para tomar acciones sobre contenido potencialmente abusivo y manipulador. Sin embargo, Twitter mismo ha dicho que estas herramientas pueden carecer del contexto que los equipos humanos aportan, y esto puede provocar que se cometan errores. Por esta razón, en los casos que pueden significar medidas graves (como eliminación de cuentas) o en los que es necesario un análisis de contexto más amplio, Twitter acude a fuentes humanas. Lo mismo cuando se trata de trinos en los que se debe analizar el contexto de lo que se dice.

Twitter toma distintas acciones dependiendo el nivel de veracidad o verificación de una información y la visibilidad de quien emite los mensajes. Por ejemplo, si lo que dice un funcionario público es falso, se pone una etiqueta si genera un daño moderado, pero se elimina si genera un daño grave. En caso de que lo que diga el funcionario es algo que todavía es disputado, como por ejemplo la eficacia de un tratamiento de COVID-19, Twitter lo etiqueta si es moderado, pero pone una advertencia al usuario si es grave.

Todo esto puede llevar a la censura de contenidos que no necesariamente contradicen las normas comunitarias sobre COVID-19 y presenta un problema para la libertad de expresión. Las plataformas deben procurar no eliminar contenido de interés público e intentar no eliminar contenido sin haber estudiado el contexto detrás de lo que se dice.



Publicado en Noticias

La época electoral de cualquier país puede significar que en redes sociales haya intentos de manipulación o interferencia en las elecciones. Es por esto que Twitter, durante las elecciones de Estados Unidos, por primera vez se decidió etiquetar los trinos que contenían información falsa o no verificada.

Una de las prohibiciones claras era publicar información que declarara una victoria electoral antes de tiempo. Los tuits que incumplieran con esto serían etiquetados con una advertencia sobre la legitimidad de las afirmaciones y dirigían a los usuarios a la página oficial de las elecciones. Cuando las personas intentaran retuitear un trino con una etiqueta de información engañosa, aparecía un mensaje que les mostraba información creíble sobre el tema antes de que pudieran ampliarlo.

En el contexto colombiano podría empezar a suceder algo similar. El Congreso del país está tramitando una ley que prohíbe que en campañas políticas se tengan discursos que desacrediten el buen nombre de los candidatos, cuestionando, por ejemplo, su idoneidad para el cargo. Si el proyecto llegase a convertirse en ley, hay una gran posibilidad de que se terminen censurando críticas o denuncias de corrupción. Twitter podría dejar de ser un espacio para discutir abiertamente sobre las capacidades de un político que aspira a un cargo público. 

Otra de las medidas tomadas por Twitter durante las elecciones en Estados Unidos fue eliminar los trinos destinados a interferir con el proceso electoral o en la implementación de los resultados de las elecciones, por ejemplo, mediante acciones violentas. 

En los trinos con información engañosa y que eran hechos desde cuentas de Estados Unidos con más de 100,000 seguidores, Twitter decidió agregar advertencias y restricciones adicionales mediante una etiqueta de información engañosa. Las personas debían aceptar la advertencia para ver estos trinos, esto dificultaba que hubiese retuits o me gusta. Sumado a esto, las respuestas se desactivaron y el algoritmo de Twitter no priorizó estos tuits. 

Estas medidas implementadas por Twitter son importantes en cuanto priorizan la libertad de expresión, por ejemplo, al etiquetar los tuits y no eliminarlos. Esta es una postura que no reduce la discusión sobre asuntos de interés público y, que a la vez, según Twitter, ayuda a que la conversación en Twitter sea veraz. 

Esta es una apuesta para combatir la desinformación sin acudir a decisiones restrictivas. Sin embargo, es más que necesario abrir el debate sobre el uso de las redes sociales en épocas electorales y las decisiones que podrían limitar la libertad de expresión de los usuarios. 

 

 

Publicado en Noticias