Noticias falsas: compartir es curar

Los algoritmos de filtrado en la red limitan la diversidad de puntos de vista y facilitan la difusión de informaciones fabricadas a medida.

Comprobación de seguridad mediante un detector de mentiras en los controles del Clinton Engineer Works. Oak Ridge, EUA, c. 1945

Comprobación de seguridad mediante un detector de mentiras en los controles del Clinton Engineer Works. Oak Ridge, EUA, c. 1945 | Wikimedia Commons | Dominio públic

Las elecciones americanas han puesto de manifiesto la política de la posverdad. El impacto de las noticias falsas en los resultados no solo demuestra la influencia social de Internet, también pone de relevo la desinformación existente en la red. Asimismo, el auge de este fenómeno va muy ligado al papel de las redes sociales como punto de acceso a Internet. Ante esto, las soluciones pasan por diversificar el control de la información, la inteligencia artificial y la alfabetización digital.

Estando en Estados Unidos es difícil escapar al gran fenómeno mediático del proceso electoral. Un fenómeno que desborda los medios de comunicación tradicionales para extenderse globalmente a través de las redes sociales. A mediados de año, Bernie Sanders aún se perfilaba como favorito en ambientes progresistas, pero Donald Trump ya se había convertido en un boom mediático. El 8 de noviembre de 2016, Trump emergía del ruido generado por memes satíricos, inocentadas, cebos de clics y noticias falsas para ser elegido presidente de los Estados Unidos, siendo investido el 20 de enero de 2017 en medio de la polémica originada en la desinformación acerca de la asistencia al evento y la masiva afluencia a los actos de protesta encabezados por la «marcha de las mujeres».

Mientras tanto, el 10 de noviembre, Mark Zuckerberg, estando en la conferencia «Techonomy» en Half Moon Bay, intentaba exculpar a su red social Facebook de su participación en la difusión de noticias falsas y la posible influencia de estas en el resultado electoral. La entrada de esta plataforma en la arena de los medios, materializada en el módulo «trending news» (solo disponible en países de habla inglesa) y reforzada en el hecho de que cada vez más ciudadanos usan Internet para informarse, se ha convertido en el centro de una polémica en que se ha puesto en entredicho la supuesta neutralidad de las plataformas digitales. La definición de estas como un medio tecnológico, en que los contenidos son generados por los usuarios y editorializados por algoritmos neutrales, se ha ensombrecido por la evidencia de la falta de transparencia de la funcionalidad de estos algoritmos y por la participación partidista de seres humanos en la censura e inyección de contenidos en el citado modulo y el muro de los usuarios. Esto ha llevado a Zuckerberg a redefinir su plataforma como un espacio para el discurso público y a aceptar la responsabilidad de la misma como agente implicado en este discurso implementando nuevas medidas. Entre estas, la adopción de una nueva política de publicación de contenidos en que se contempla el no partidismo, la fiabilidad, la transparencia de las fuentes y el compromiso con las correcciones; el desarrollo de herramientas que permitan reportar contenidos falsos o no representativos, y el recurso a servicios de comprobación de hechos externos como Snopes, FactCheck.org, Politifact, ABCNews y AP, todos ellos adheridos al código de principios internacional de Poynter. Al mismo tiempo, otros gigantes tecnológicos como Google y Twitter han desarrollado políticas dirigidas a eliminar anuncios falsos (Google ha eliminado 1,7 billones de anuncios que violaban su política en 2016, más del doble que el año pasado) y combatir el uso abusivo de la red.

Cómo detectar noticias falsas | FactCheck.org

Las noticias falsas, hechos inventados en busca de ulteriores beneficios que circulan en la red en forma de spam, bromas y cebos de clics se han convertido en el centro de la polémica que rodea el proceso electoral americano, como ejemplo de una política de la posverdad facilitada por el uso de las redes sociales, pero al mismo tiempo son un síntoma que nos alerta de que Internet está enfermo.

En su informe sobre la salud de Internet, la fundación Mozilla señala la centralización en unas pocas grandes compañías como uno de los factores que promueven la falta de neutralidad y diversidad, así como el analfabetismo de este medio. Facebook no es solo una de las redes sociales más usadas, puesto que cuenta con 1,7 billones de usuarios, sino que es también el principal punto de acceso a Internet para mucha gente, mientras que Google monopoliza las búsquedas. Estos medios han evolucionado desde los primeros proveedores de servicios y el advenimiento de la web 2.0 creando una estructura de servicios basada en la métrica del atractivo. «Dar a la gente lo que quiere» ha justificado la monitorización de los usuarios y el control algorítmico de los datos resultantes. Además, ha creado una relación en que los usuarios dependen de las herramientas listas para su uso, que ofrecen estos grandes proveedores, sin que sean conscientes del precio que implica el fácil acceso respecto a la centralización, vigilancia invasiva e influencia que estas grandes compañías ejercen en el control del flujo de información.

El fenómeno de la desinformación en Internet radica en que en este medio una información falsa o de baja calidad tiene la misma capacidad de hacerse viral que un hecho auténtico e informativo. Este fenómeno se debe a la propia estructura de este medio y se ve reforzado por el modelo económico del pago por clic ‒ejemplificado en el servicio de publicidad de Google‒ y la creación de burbujas de filtrado por la administración algorítmica de las redes sociales como Facebook. De este modo, tenemos que en Internet las noticias falsas son rentables y tienden a reafirmarnos dentro de una comunidad.

Servicios como AdSense de Google instan a los desarrolladores de páginas web a generar contenido atractivo e indexable para aumentar su visibilidad e incrementar la cotización en subasta del precio por clic. Desafortunadamente, las falsedades sensacionalistas pueden ser altamente atractivas. La comprobación de este hecho en las analíticas de Google es lo que llevó a un grupo de adolescentes macedonios a convertirse en promotores de la campaña de Trump. En la pequeña localidad de Veles surgieron más de cien sitios web con nombres engañosos como DonaldTrumpNews.co o USConservativeToday.com dedicados a diseminar noticias falsas sobre la campaña para atraer tráfico a páginas de anuncios y obtener beneficios económicos. La mayor fuente para dirigir el tráfico a estas webs resultó ser Facebook, donde, según un estudio llevado a cabo por las Universidades de Nueva York y Stanford, se compartieron noticias falsas hasta treinta millones de veces.

Esta figura presenta el porcentaje de tráfico de diferentes fuentes respecto a los 690 principales webs de noticias de EEUU y a 65 webs de noticias falsas. Los sitios se ponderan por el número de visitas mensuales. Los datos son de Alexa.

Esta figura presenta el porcentaje de tráfico de diferentes fuentes respecto a los 690 principales webs de noticias de EEUU y a 65 webs de noticias falsas. Los sitios se ponderan por el número de visitas mensuales. Los datos son de Alexa. | Social Media and Fake News in the 2016 Election, Hunt Allcott and Matthew Gentzkow

El tráfico de falsedades en redes sociales se ve favorecido por factores sociales y psicológicos ‒el descenso de atención que se produce en ambientes donde la información es densa y el hecho de que somos susceptibles de compartir acríticamente el contenido procedente de nuestros amigos‒, pero en gran medida es debido al filtrado algorítmico llevado a cabo en estas plataformas. Facebook nos libera del exceso de información y la redundancia filtrando los contenidos que aparecen en nuestro muro conforme a nuestras preferencias y la proximidad a nuestros contactos. De este modo, nos encierra en burbujas que nos mantienen alejados de la diversidad de puntos de vista y las controversias que generan y dan sentido a los hechos. Este filtrado produce una clasificación homofílica en que los usuarios con mentalidades similares forman clústers, y estos se refuerzan a sí mismos traspasando información que difícilmente salta de un clúster a otro, sometiendo a los usuarios a un nivel bajo de entropía o a información que les aporte novedad y diversidad de puntos de vista. Estas burbujas funcionan como cámaras de resonancia en que se generan narrativas que pueden traspasar la red y tener efectos en nuestra cultura y sociedad. El Wall Street Jounal ha publicado una aplicación basada en investigaciones realizadas en Facebook donde pueden seguirse simultáneamente las narrativas generadas por la burbuja roja, o liberal, y la azul, o conservadora. Esta polarización, al mismo tiempo que limita nuestra percepción, nos convierte en objetivos identificables y susceptibles de ser manipulados por informaciones fabricadas a medida.

La tecnología es parte del problema, queda ver si también puede ser parte de la solución. La inteligencia artificial no puede decidir sobre la verdad o falsedad de una información, lo cual es una tarea compleja y ardua hasta para un ser humano experto, pero herramientas basadas en el aprendizaje automático y el análisis textual pueden ayudar a analizar el contexto e identificar más rápidamente informaciones que requieren de comprobación.

El fakenews challenge es una iniciativa en la que varios equipos compiten para crear herramientas que apoyen a comprobadores humanos de hechos. El primer estadio de esta competición se basa en la detección de actitud. El análisis del lenguaje contenido en una información puede ayudar a clasificarla conforme si esta es a favor, en contra, discute o es neutral respecto al hecho indicado en el titular. Esta clasificación automática permitiría a un verificador humano acceder rápidamente a listas de artículos relacionados con un hecho y examinar los argumentos propuestos a favor y en contra.

Además del análisis del lenguaje, otro procedimiento computacional que nos ayuda a analizar el contexto de la información es el análisis de redes. OSoMe, observatorio de medios sociales desarrollado por el Centro para la Investigación de Sistemas y Redes complejos de la Universidad de Indiana y dirigido por Fil Menczer, propone una serie de herramientas para analizar el tránsito de información dentro de las redes sociales en busca de patrones que permitan identificar cómo se produce la polarización política y cómo se transmiten las noticias falsas, así como ayudar a la identificación automática de estas.

Visualización sobre la propagación del hashtag #SB277, sobre una ley de vacunación de California. Los puntos son cuentas de Twitter tuiteando con este hashtag y las líneas entre ellos muestran retuits. Los puntos más grandes son las cuentas se han retuiteado más. El color de los punto muestra la probabilidad de que sea un robot (rojo) o un humano (azul).

Visualización sobre la propagación del hashtag #SB277, sobre una ley de vacunación de California. Los puntos son cuentas de Twitter tuiteando con este hashtag y las líneas entre ellos muestran retuits. Los puntos más grandes son las cuentas se han retuiteado más. El color de los punto muestra la probabilidad de que sea un robot (rojo) o un humano (azul). | Onur Varol | CC BY-ND

Una de estas herramientas es la plataforma Hoaxy, destinada a seguir la difusión de noticias falsas y de sus desmentidos dentro de Twitter. Esta plataforma sigue las instancias, los retuits de las URL de hechos falsos, reportados por factcheking y de hechos verificados para ver cómo se distribuyen en la red. El análisis preliminar muestra que las noticias falsas son más abundantes que los desmentidos, que estas anteceden a los hechos verificados entre diez y veinte horas y que estas son propagadas por un número reducido de usuarios muy activos, mientras que sus desmentidos se distribuyen de modo más uniforme.

Por lo que refiere a la automatización de la detección de noticias falsas, el análisis de redes aplica la representación de grafos de conocimiento. Esta técnica permite utilizar el conocimiento generado y verificado colectivamente, como el que almacena la Wikipedia, a la comprobación de nuevos hechos. Un grafo de conocimiento contendría todas las relaciones entre las entidades referidas en esta enciclopedia colaborativa, representando las sentencias de tal modo que sujeto y objeto constituirían nodos enlazados por su predicado formando una red. De este modo, la veracidad de una nueva sentencia puede ser determinada dentro del grafo, siendo más alta si el camino que relaciona su sujeto y objeto dentro es suficientemente corto y no contiene nodos excesivamente generales.

Otras herramientas que utilizan medios computacionales para seguir la propagación de información y facilitar su verificación atendiendo a su contenido textual, la reputación de sus fuentes, su trayecto, etc., son RumorLens, FactWatcher, Twitter Trails o Emergent.info, estas implementadas en forma de aplicaciones o bots. Especial mención requiere la herramienta colaborativa facilitada por Ushahid Swift River esta utiliza metáforas como río -flujo de información-, canales -fuentes-, gotas -hechos-, cubo -datos filtrados o añadidos por el usuario- en una aplicación destinada al seguimiento y filtrado de hechos a tiempo real y la elaboración colectiva de sentido. En esta un usuario puede seleccionar una serie de canales -Twitter o RSS – para establecer un flujo de información que puede ser compartido y filtrado conforme a palabras clave, fechas o localización, pudiendo comentar los hechos y añadir datos adicionales.

La proliferación del uso de Internet ha llevado a una sociedad postdigital en la que estar conectado se ha convertido en un hecho constitutivo de nuestras identidades y entorno y en la que todo lo que ocurre en linea tiene consecuencias en nuestros entorno cultural y social reales. Esta proliferación se ha sucedido paralelamente a lo que la fundación Mozilla califica como la crisis velada de la era digital. La simplificación de herramientas y software y su centralización en los gigantes tecnológicos provocan ignorancia respecto a los mecanismos que rigen este medio, promoviendo usuarios pasivos e inconscientes de su participación en esta ecología. Internet ha supuesto un cambio en la producción de información, esta ya no procede de la autoridad de unas cuantas instituciones sino que es creada en un proceso colectivo. La adopción informada de estas y otras herramientas podría contribuir a desvelar los mecanismos en que se produce, distribuye y evalúa la información y contribuir a la alfabetización digital e informacional. La formación de un pensamiento crítico que nos hace participantes activos y responsables de la creación de conocimiento dentro una ecología que se enriquece con la participación de nuevas voces y en la que compartir es curar.

El autor de este artículo se reserva todos sus derechos

Ver comentarios0

Deja un comentario

Noticias falsas: compartir es curar