Texto de mi columna de hoy en el periódico Portafolio de Colombia:

El jueves de la semana pasada nació en España el sitio de noticias LaInformacion.com, cuyo lanzamiento pasó desapercibido. La entrada al mercado de este medio es importante ya que éste es, según mi análisis, el intento más sofisticado en el idioma español de publicar un medio noticioso controlado principalmente por robots.

Me explico. Desde la proliferación de la Internet en 1995 hasta hace poco, editores de carne y hueso nos encargábamos de seleccionar las principales noticias. Eso funcionó hasta que la web comenzó a crecer a un ritmo frenético. Solo en el 2007 se calcula que fueron creados 161.000 millones de gigabytes de contenido digital en la red, el equivalente a tres millones de veces la información contenida en todos los libros escritos a lo largo de la historia.

En respuesta al problema de la sobredosis de información, han surgido tecnologías que permiten que las máquinas (basadas en algoritmos), filtren y seleccionen los contenidos. Un ejemplo clásico son los motores de búsqueda, como Google, que nos arrojan en segundos los datos buscamos.

En el ámbito de las noticias, la tendencia es a integrar estas tecnologías, conocida como Web 3.0 o Web Semántica, con la toma de decisiones de editores humanos. Es decir, juntar la inteligencia humana con el poder de las máquinas.

En el caso de LaInformacion.com, un medio lanzado por ex directivos de Recoletos y coordinado por el editor Mario Tascón, el modelo se basa en el “cruce de contenidos generados por parte de máquinas, periodistas y usuarios”.

Cuando uno visita la portada de este sitio, la mayoría de noticias ha sido seleccionada por ‘robots’ (así los llaman) que buscan novedades entre 1.800 medios y blogs en la Internet. Y cuando uno hace clic en una noticia, lo lleva a la fuente original. Ayer, por ejemplo, algunas de las noticias de la gripa porcina procedían de enlaces a El Universal y Milenio, medios mexicanos, y a EFE, la agencia española de noticias.

LaInformacion.com también cuenta con un equipo de periodistas multimedia, que se dedica a crear contenidos interactivos en video e infografía que otros medios no tienen. Algunos de estos periodistas también ‘ayudan’ a los robots a seleccionar los titulares, para así no depender solo de los computadores.

En E.U. hay varios sitios que desde hace unos años prueban suerte con la robotización de las noticias. El más conocido es Google News, que depende ciento por ciento de los algoritmos generados por los geeks de Google.

The New York Times
lanzó en diciembre pasado Times Extra, una versión de su página web que incorpora de manera automatizada los contenidos de blogs y otros sitios web.

Luego está Newser, que se vale de al menos 23 periodistas para resumir en dos párrafos las noticias que sus computadores han seleccionado de una serie de fuentes en la web.

Aunque no creo que las máquinas puedan sustituir a los humanos, todo medio periodístico tendrá que recostarse cada vez más en la tecnología semántica, que entiende el significado de los contenidos.

Andrés Cavelier / Consultor en nuevos medios