Grandes y pequeños manipuladores en las redes

El informe del investigador especial Robert Mueller, sobre la injerencia rusa en las pasadas elecciones presidenciales norteamericanas, menciona a Facebook e Instagram 41 veces. Ante la abundancia de bulos y material incendiario que contribuyen a difundir, ¿hemos de concluir, como se ha llegado a plantear, que las redes sociales son un peligro para la democracia?

Así lo cree Robert McNamee, uno de los primeros inversores que pusieron dinero en Facebook, que ahora avisa contra los peligros de las redes sociales desde el Center for Humane Technology (ver Gigantes tecnológicos: la hora de la responsabilidad). Facebook e Instagram, afirma en un comentario para el Washington Post, se han convertido en “instrumentos para dañar la salud pública y la democracia”. En palabras de un ejecutivo de Facebook, Samidh Chakrabati, “es abominable que un Estado usara nuestra plataforma para librar una ciberguerra destinada a crear división social”.

Los rusos pretendían ante todo sembrar cizaña y dividir a la opinión pública, pero la polarización en Estados Unidos no era creación de ellos

Mueller sostiene que la empresa Internet Research Agency, con sede en San Petersburgo y que se sospecha vinculada al Kremlin, dio a su personal un manual de desinformación para sembrar bulos y discordia entre los estadounidenses por medio de las redes sociales. Sus empleados, haciéndose pasar por personas o entidades norteamericanas, crearon cuentas en Facebook, Instagram, Twitter… para diseminar falsedades y provocar pasiones.

Imágenes trucadas

The Wall Street Journal ha documentado el uso de imágenes trucadas o sacadas de contexto por parte de agentes rusos. Se puede ver un ejemplo en la composición incluida abajo. La imagen original (izquierda) fue tomada hace diez años en una concentración a favor de los inmigrantes sin papeles; el cartel dice: “Ningún ser humano es ilegal”. En agosto pasado, Secured Borders, una de las cuentas creadas por rusos, la puso en Facebook con la leyenda cambiada: ahí la mujer pide más “sopa boba” (el término original es aun más vulgar y peyorativo que nuestra traducción), o sea subsidios sociales.

El post de Secured Borders (se ve entero en la imagen siguiente) va acompañado de lemas fogosos contra los inmigrantes ilegales, descritos como unos aprovechados que apenas aportan al sostenimiento de las cargas públicas y reciben de balde dinero de los contribuyentes.

Estos manejos son graves, porque fueron sistemáticos y orquestados por una organización extranjera. Pero antes de declarar la democracia en peligro de extinción, intentemos apurar las dimensiones reales del fenómeno. ¿Qué efecto ha tenido realmente?

Sembrar cizaña

Es muy improbable que los rusos decidieran la elección presidencial. Tampoco hicieron propaganda expresa de un partido ni de causas defendidas por un solo bando. Mientras con Secured Borders atizaban la xenofobia, con otras cuentas –como Blacktivist (Facebook) o BlackMattersUs (Instagram)– denunciaban el racismo contra los negros. Durante la campaña electoral, contó el Wall Street Journal en una información anterior, aprovechando la discusión por las muertes de negros por disparos de la policía, promovieron, el mismo día (10 de julio de 2016), dos manifestaciones contrapuestas: una en Minneapolis, por un negro muerto en un control policial, y otra en Dallas, por el asesinato de cinco policías en un acto de venganza.

Así, los rusos pretendían ante todo sembrar cizaña y dividir a la opinión pública. Ahora bien, llovía sobre mojado. La polarización en Estados Unidos no era creación de ellos. Y aunque trataban de exacerbarla, sus mensajes eran unas gotas de agua en el torrente de bulos y vitriolo que arrojaban a la vez miles de estadounidenses en las redes sociales. Tampoco en otros países necesitamos agentes del Kremlin para alimentarlas con infundios, imágenes manipuladas, críticas incendiarias.

La inteligencia artificial no va a librarnos de las “fake news”, y todavía no se ha inventado la máquina capaz de sustituir el criterio del usuario

La polarización en las redes sociales preocupa justamente, pero no es fácil calibrar la amenaza que puede suponer para la democracia. En cambio, tiene otras implicaciones más concretas y quizá más claras: sobre la inteligencia artificial, sobre la lógica misma de las redes sociales y sobre los medios de comunicación.

La inteligencia artificial no es tan lista por ahora

Los revisores humanos contratados por las redes sociales para cribar contenidos que ponen los usuarios, aunque son cada vez más numerosos, no dan abasto. Y su cometido no se logra automatizar satisfactoriamente. El campeón mundial de go es ahora un programa creado por DeepMind, propiedad de Google. Pero la inteligencia artificial está aún muy lejos de distinguir por sí sola lo verdadero de lo falso, de interpretar, de valorar las implicaciones y el contexto. Y aunque cobró fuerte impulso con el progreso en el reconocimiento de imágenes (aprendiendo autónomamente a partir de ejemplos etiquetados por personas), ahí la comprobación es aun más difícil que con textos, como muestran los casos publicados por The Wall Street Journal u otro muy reciente.

Como las redes sociales se surten de contenidos sin control editorial previo y viven de la publicidad, son vulnerables a manipuladores, fanáticos y difusores de infundios

Hace unos días, YouTube reconoció que había hecho promoción de un vídeo engañoso que fue visto unas 200.000 veces y se alzó como trending topic número uno antes de que lo retirase. En él se afirmaba que un testigo de la reciente matanza en una escuela de Florida era en realidad un actor pagado. Para apoyar la ficción, se incluía parte de una entrevista que una cadena de televisión le había hecho, meses antes y en otro lugar, acerca de un suceso sin relación con el tiroteo. Una portavoz de YouTube explicó cómo los manipuladores confundieron al algoritmo: “Como el vídeo incluía secuencias de una fuente autorizada, nuestro sistema lo clasificó mal”.

Desde luego, no solo la máquina de YouTube picó, sino también muchas personas antes de que otras descubrieran el truco. Pero eso mismo indica que la inteligencia artificial no va a librarnos de las fake news. Menos aun si, como sucede, las imágenes se difunden más que las palabras por las redes sociales (la gente las comparte con el doble de frecuencia que los textos) y Facebook se reorienta para dar prioridad al vídeo. La autora de la foto amañada por Secured Borders lamenta en el Wall Street Journal que el público ve vídeos constantemente, “pero no gastará un minuto en cerciorarse de si lo que le cuentan es verdad o no”. Si así es, mala cosa, pues todavía no se ha inventado la máquina capaz de sustituir el criterio del usuario.

Incentivos perversos

La segunda implicación se refiere al funcionamiento de las redes sociales. Como se surten de contenidos sin control editorial previo, aportados por los usuarios, y viven de la publicidad, tienden a fomentar lo que más capta la atención de la gente, y eso, a menudo, no es lo más exacto o de mejor calidad. “Los incentivos son perversos”, dice McNamee. La misma lógica del servicio, a la vez que facilita extraordinariamente el contacto entre personas y la conversación sobre temas de interés, lo hace vulnerable a manipuladores, fanáticos y difusores de infundios.

Ese problema parece inevitable: el reverso malo de una idea buena. McNamee cree tener, al menos para la mayor red social, una fórmula válida, aunque no arreglaría todo. Su propuesta es que “Facebook cambie su modelo de negocio, del actual basado en la publicidad, a un servicio por suscripción”. Por cerca de 7 dólares al mes, suficiente para compensar la supresión de anuncios, un “Facebook premium” tendría supervisión y podría ofrecer noticias, televisión, películas… Funcionaría mejor, libre de la abundante publicidad que enlentece la carga de páginas. El “Facebook básico”, para los que no quisieran pagar, seguiría siendo susceptible a los bulos, pero al menos el número de manipulados sería menor.

La responsabilidad del ciudadano es escoger con cuidado qué lee o ve

La idea, que tal vez no sea factible o realista, supondría convertir a Facebook en algo parecido a un operador de televisión por cable, que suministraría contenidos de productores profesionales. Esto nos lleva a la tercera implicación.

Escoja sus fuentes

Durante un tiempo se anunció una nueva era de la información con el surgimiento del “periodismo ciudadano”. Gracias a Internet, la comunicación había dejado de ser unidireccional, pues los medios habían perdido el monopolio de la difusión. La audiencia adquiría un papel activo, publicando a su vez y haciéndose oír, y ya no solo leyendo, viendo o escuchando. Ante un hecho de interés, el “periodista ciudadano” aportaría su foto, su testimonio, su relato.

Eso se ha cumplido, en especial en las redes sociales. Pero es significativo que, al cabo de los años, se haya apagado el entusiasmo por el “periodismo ciudadano” y los principales canales de expresión del público –YouTube, Facebook– prometan otorgar preferencia a los “medios serios”, a las “fuentes autorizadas”.

La conclusión no puede ser el simplismo opuesto de que la gente difunde errores y los medios publican la verdad. Muchos usuarios dan crédito a lo que les llega por las redes de “fuentes no autorizadas” porque están persuadidos de que los medios predominantes silencian lo que no les gusta y tienen un claro sesgo. Algo de razón tienen. En buena parte, son personas que se sienten orilladas por el imperio de lo “políticamente correcto” y buscan confirmación a su postura discrepante. El progresismo normativo los considera reaccionarios y marginales. O bien se podría decir que el inconformismo, la transgresión ha cambiado de signo.

Así que también la prensa puede equivocarse, engañar, ser tendenciosa. Pero se puede pedirle cuenta más estrecha que a un particular. Y, pese a todas las deficiencias de los medios, para informar al público no bastan espontáneos: hacen falta profesionales dedicados que trabajen con el respaldo de una empresa editora. La responsabilidad del ciudadano es escoger con cuidado qué lee o ve.

Deja un comentario