Periodismo de datos: el reto informativo del siglo XXI

Málaga acoge la tercera edición del encuentro internacional 'Data & Computacional Journalism Conference'

Fernando Torres
FERNANDO TORRES

Los datos siempre han sido los pilares del periodismo. La realidad y los hechos estrictos, precisos, expuestos en orden y de forma comprensible han sido las máximas de la profesión durante décadas, pero el mundo ha cambiado. Internet y la programación digital permiten obtener información en cantidades desmesuradas y de forma automática. El encuentro 'Data & Computacional Journalism Conference', que en sus anteriores ediciones se ha celebrado en Dublín y Cardiff, ha llegado este lunes al Rectorado de la Universidad de Málaga para tratar de conectar esta nueva vertiente computacional con las historias humanas, uno de los grandes retos informativos del siglo XXI.

En la primera de las ponencias, el responsable de datos de El País, Daniele Grasso, argumentó que en cualquier ejercicio periodístico actual debería haber un «equipo multidisciplinar» dedicado a analizar el llamado 'big data': «Toda historia puede ser contada con datos». Sin embargo, pese a la «necesidad» de aumentar el esfuerzo por trabajar con información a escalas masivas, Grasso cree que en los periódicos hay una importante «falta de alfabetización» en cuanto a las herramientas que hacen falta para alcanzar ese objetivo.

Por esa razón en su equipo de análisis de datos solo hay un periodista (él). Sus compañeros son un ingeniero y un matemático –«a los que costó mucho convencer para trabajar en un periódico»–. Esta es una de las claves transformadoras a las que se enfrenta el periodismo del siglo XXI, «contratar menos periodistas y más científicos». Además, el experto lanzó un órdago a la parte académica y docente de la profesión –muy presente en este encuentro internacional, que pretende precisamente poner en contacto a las universidades con los medios–: «Menos Kapuscinski, más ProPublica», dijo, en relación a la falta de actualización de los conocimientos de los alumnos (ProPublica es una agencia de noticias americana que sirve como herramienta para el periodismo de datos). «Un equipo de 'big data' puede ser muy útil para toda una redacción», concluyó.

Pero no todo son números. «Sin componente humano, las noticias de datos son solo hojas de cálculo». Mohamed Haddad, responsable de periodismo de datos en la sede catarí de Al Jazeera, centró su ponencia en la necesidad de conectar los grandes flujos de información con las noticias, y dejó claro que la importancia está en el equilibrio entre ambos polos. «Para entender los datos y la información hay que conocer a las personas que aportan dicha información». También habló sobre la relevancia que tiene la manera en el que se presenta el resultado del análisis, aunque «no hay ningún formato que supere el sentimiento generado de una buena narrativa». Por todo ello, desde su experiencia como informático y periodista, hay una gran clave a tener en cuenta cada día: «Preguntaos constantemente cómo se pueden transformar los datos en una buena historia».

Alice Grénie y Josh Rayman, de BBC News, explicaron cómo su equipo de análisis de dato afronta elecciones generales a lo largo del globo en las que hay «incertidumbre» con respecto a los resultados. Ambos enfatizaron la importancia del reciclado de los datos a la hora de ofrecer el mayor abanico informativo posible a los votantes, y pusieron el ejemplo del proyecto 'Manifesto'. En él, mediante análisis sistemático de información, consiguieron dividir por temas (como educación, medio ambiente, movilidad o impuestos) los programas de todos los partidos que concurren en unos comicios.

Andres L Opdahl, de la Universidad de Bergen, dio las claves sobre cómo detectar hecho «noticiosos» a través de plataformas periodísticas, como Systematics and Social Information Systems (sistemas de información social y sistemática), un proceso por el cual el periodismo puede seguir generando «un impacto» para mantenerse en el primer plano de la realidad social.

Las conferencias del lunes continuaron, desde la detección de 'Fake news' con Francisco López, Rafaela Benítez y Mario Guerrero de la UMA, hasta la creación y programación de 'bots' estadistas, con Sofie Warns, del Centro Nacional de Estadística de Reino Unido. Este foro está organizado por la UMA junto a las universidades de Dublín, Londres y Cardiff, creadoras originales de las dos primeras ediciones.

En la sesión inaugural, la directora del departamento de Periodismo de la Facultad de Ciencias de la Comunicación de Málaga, Bella Palomo, describió este lunes y el día de hoy, en el que siguen las conferencias, como una «oportunidad de unir lo académico con la ingeniería y el periodismo». El profesor de Cardiff, Martin Chorley, recordó la importancia de analizar y canalizar los procesos del 'big data': «Vivimos una era en la que los ordenadores y la inteligencia artificial nos pueden llevar a contar las historias de una u otra manera». Su colega en Londres, Glyn Motterhead, aseguró que el contenido de estas conferencias «no está escrito todavía en los manuales». Bahareh Heravi, profesor en Dublín, destacó el carácter conciliador de las conferencias: «No solo la disciplina de la que se va a hablar es importante, también lo es juntar a los académicos y a los profesionales en la misma sala».