Data curators

Desde el momento en que alguien ingresa a la red y la usa como plataforma de producción y distribución de datos, contenidos y conversaciones, se encuentra con un desafío y forma de subsistencia básica: la selección.

La curaduría de contenidos digitales se ha vuelto una práctica extendida que adopta niveles participativos variados, pero subyace en todas las actividades en la red. Es la forma de respirar online. A mayor abundancia informativa, mayor necesidad de selección.

Cuál fue el acierto inicial de Google si no la automatización de criterios de catalogación, rastreo y búsqueda de información. Newser.com es la versión periodística de los data curators: no produce contenido original, se sirve de los disponibles, los indexa, filtra y remixa. Digg.com y Meneame.net son los máximos exponentes de la curaduría de contenidos en comunidad, al igual que Flickr y sus pools de tags en la fotografía. Qué es Del.icio.us si no una gran obra colectiva de catalogación, la síntesis de cientos de miles de prácticas cotidianas de selección: no son los enlaces favoritos, son los enlaces favoritos de todos. ¿Facebook no es un algoritmo de curaduría social? Ni hablemos de Amazon.com

Contamos con herramientas y aplicaciones online que facilitan y dinamizan el procesamiento de información. Los RSS Readers son, en ese sentido, quizá el ejemplo por antonomasia. Rastrean el contenido actualizado de las fuentes que interesan a sus usuarios, pero son meros instrumentos si quienes los usan no logran construir categorías de filtrado y catalogación, dotarlos de un sentido posible de organización.

Quienes los usan lo saben: ordenar la información de un lector de feeds personal es una tarea que obliga tomar decisiones y construir criterios personales de procesamiento de datos que, invariablemente, cambiarán.

Hace más de 500 años la imprenta planteó desafíos similares, aunque a menor escala. A medida que los libros se multiplicaban, las bibliotecas tuvieron que ser cada vez más grandes. Y a medida que aumentaba el tamaño de las bibliotecas, se hacía más difícil encontrar los libros. Quienes confeccionaban catálogos tuvieron que decidir si ordenaban la información por temas o alfabéticamente por nombre de los autores. Clasificaciones que tenemos súper naturalizadas y que cualquier librería de mala muerte ostenta, fueron decisiones nada fáciles que hubo que tomar antaño.

La red reinventa a una escala impensable el proceso de selección. La abundancia de datos es tal que, a veces, una buena selección es más valiosa que la producción de contenidos originales. En la red, las cosas no están en un sólo lugar, sino en varios y clasificadas con tantos criterios como curadores hay.

Los métodos de clasificación de datos del siglo XXI no parecen necesitar de los consensos de catalogación que tanto esfuerzo les ha llevado construir a generaciones de bibliotecarios, editoriales y otros sujetos e instituciones encargados de la administración de los saberes.

Si bien el periodismo todavía no se hace cargo del desafío –salvo excepciones como Newser.com y El Selector de Soitu.es, entre otros casos- más temprano que tarde tendrá que aprobar para su universo de objetivos el de filtrar, reunir y ofrecer contenidos oportunos, producidos por otros –incluso por la competencia- para la audiencia del medio.

La misión de cubrir lo que ocurre en la red, además de lo que ocurre fuera de ella, demanda habilidades profesionales totalmente nuevas y alianzas con procesos artificiales y comunitarios con la audiencia. La curaduría de información, además, hace polvo uno de los grandes baluartes del periodismo: la firma.

La mayor parte de los periodistas que trabajan en redacciones online son en alguna medida data curators. El problema es que a veces su universo de selección se reduce a una cablera y el proceso de publicación a no dejar rastro de la fuente original. Un prejuicio sin sentido que sólo encuentra un límite cuando el medio pierde seguridad: la semana pasada, con la muerte de Michael Jackson, hasta The New York Times atribuyó la noticia a una fuente ¡y en el título! El miedo a errar puede lo que la ética a veces no.

El tema que planteábamos el otro día, sobre los CMS y el modelado de herramientas para producir periodismo online –un post basado en conversaciones y un prototipo que estamos armando con periodistas y programadores y que pronto será tema obligado en Amphibia- apuntaba también en esa dirección. Los CMS utilizados en los diarios online están diseñados para publicar información, no para procesarla. Están conceptualizados para exponer datos, no para remixarlos.

La relación que tenemos con las herramientas que utilizamos expresan/limitan/definen la forma en que entendemos la profesión. En general, acotadísima.

Tres posts que hay que leer:
Twitter: Digital Content Curator, markevanstech.com
Curadores de contenidos digitales, ecuaderno.com
La actualidad en directo, abc.es