¿Los algoritmos dejarán sin trabajo a los periodistas?

El miedo a los medios no human involved

Scott Karp simpre produce disonancias temáticas en su genial Publishing 2.0. Ahora avanza sin vueltas y se pregunta sobre si los algoritmos van a reemplazar a los editores periodísticos. Reconoce que buena parte de la organización de datos que consumimos está estructurada en forma artificial y que muchos de los criterios editoriales de distribución de información se cocinan en las tablas de alguna base de datos y no sólo en la cabeza de editores humanos.

Actualmente, qué es importante, qué es relevante, a qué hay que prestarle atención, son construcciones híbridas, resultados de la suma de criterios periodísticos, interacciones de usuarios y procesamientos algorítmicos no-humanos.

Karp cree que es muy difícil que la automatización pueda seguir ganando terreno al ritmo que lo ha hecho hasta ahora, sobre todo porque sostiene que la suma de procesos humanos de colaboración uno a uno en proyectos editoriales puede contra cualquier forma inteligencia artificial (conocida, claro).

Incluso refuerza la idea recordando que los criterios de un algoritmo también son instrucciones dotadas por la inteligencia humana. Y por supuesto ve una oportunidad invalorable en la colaboración entre periodistas y organizaciones para no perecer ante la maquinaria intangible de los data delivery artificiales que se expanden a toda velocidad por la red.

Entre sus loas de humanofilia desmedida rinde culto por supuesto a la razón y al criterio diferencial que supone el trabajo periodístico humano y teme, como es natural, a la estandarización de perspectivas automatizadas. La trampa, creo, está en el diagnóstico y el remedio que configura el audaz Karp que sabe, y mucho, de lo que habla.

La trampa está en el diagnóstico porque se basa en el supuesto tan indemostrable como poco probable de que la cadena de algoritmos evolutivos pueda cortase antes de que esas criaturas no sólo puedan aprender más complejidad sino también emprender procesos de aprendizaje y colaboración jamás vistos hasta ahora. Ergo, detrás de ello, está la imaginación que logra ver un estado ideal de las cosas y un freno de mano a tiempo y a mano para detener lo que por naturaleza está en movimiento permanente: un espectacular engranaje de desinvención protagonizado por las alianzas hombre-máquina.

La trampa también reside en el remedio porque supone un jarabe tan ingenuamente democrático como estandarizador. La idea (¿las ganas?) de querer sopesar las capas artificiales del periodismo con colaboración de una supuesta audiencia amorfa pero igualitaria, inindividualizable, lleva sin retorno a agitar el champagne y volcarlo sobre sitos como Digg, celebrando el triunfo de un proceso democrático que genera escasez, orden normalizador y un producto generalista editorializado por “la audiencia”.

La colaboración editorial humana de las comunidades de sitios como Digg es loable y todo un experimento colectivo que tiene valor en sí mismo y comparte el podio de las ingenierías sociales detrás de proyectos editoriales con casos como el de Wikipedia que, ahora me pongo malo pero sin maldad, también genera una escasez innecesaria y, viva la democracia, supone una audiencia que goza de la dictadura participativa. Claro debería estar, pero lo subrayo por las dudas, que el problema no es la participación per se sino las formas de catalizarlas y los criterios para generar uno o ilimitados resultados de esas interacciones.

Los algoritmos jamás dejarán sin trabajo a los editores periodísticos, pero tampoco seamos ingenuos, pensar que la colaboración cien por ciento humana puede poner tan sólo un palo en la rueda al rediseño editorial que están protagonizado los procesos algorítmicos, es una pavada. Porque además supone el privilegio de estar por fuera de la arquitectura artificial de los flujos de información.

La llave de la jugosa discusión que retoman en Publishing 2.0 está en lo que se entiende por audiencia. Sin bien es fácil saber y comprobar que se han transformado sensiblemente respecto de la ecología de medios pre Internet, asusta y es muy difícil saber cómo se diversifican. Y ahí también hay una trampa porque diversidad supone grupos, colectivos, comunes, cuando los algoritmos sirven a individuos. Hibridan lo común, lo compartido, lo consensuado, con todo el data tracking hiperpersonalizado de mis operaciones. Mis resultados en búsquedas en Google, por ejemplo, son distintos a los de cualquier otro usuario porque el buscador los sirve en función de distintas variables colectivas y personales.

Le podríamos hacer decir a Alessandro Baricco que sus mutantes hablan en python y que los dioses que veneran los bárbaros habitan los paraísos electrónicos fragmentados de data centers y se los conoce como algoritmos.

El punto, y con esto voy al grano con lo de las audiencias, es que aún la plaza pública de Digg que decide colectivamente qué contenidos van en portada, no deja de generar una tapa, un criterio editorial, una disposición de noticias. Y ese resultado, aún llegando por medios inéditos de colaboración, es lo más parecido al producto de un noticiero, una tapa de un diario en papel o una portada de un online. Cuando es posible generar tantos productos de salida, tantos outputs, como participantes hay en esa plaza pública. Por eso el remedio “colaboración humana” también puede ser una trampa.

¿Estaba tan loco Lev Manovich cuando en El lenguaje de los nuevos medios hablaba de la base de datos como narrativa cultural emergente? No lo creo. Enfrascados en la discusión sobre si los periodistas pierden o ganan terreno en el nuevo mapa de generación, edición y distribución de información corremos el riesgo, así planteada la amenaza, de librar una batalla contra los aliados clave para repensar los nuevos medios y las audiencias. Algoritmos: asustan pero no son tan malos. A fin de cuentas, son creación “humana”.

+ Periodismo artificial en Amphibia