¿Son neutrales los millones de datos que subimos cada segundo a internet? El cordobés Javier Sánchez Monedero, doctor en Ciencias de la Computación e investigador en la Universidad de Cardiff (Gales), mantiene que no hay que bajar la guardia porque muchas de las discriminaciones raciales, económicas o de género que ya de por sí están en la sociedad no solo se reproducen sino que pueden amplificarse en la era del big data. Sobre todo esto habló en una reciente conferencia en la Universidad de Córdoba (UCO), invitado por el grupo de investigación Aprendizaje y Redes Neuronales Artificiales (Ayrna).

-Alerta usted del efecto amplificador de las desigualdades sociales que pueden conllevar estas gigantescas bases de datos, ¿cómo?

-La mayoría de técnicas de inteligencia artificial se basan en el aprendizaje automático, que permite a los ordenadores aprender de conjuntos de datos de todo tipo. Si estos datos contienen patrones de discriminación es muy probable que el ordenador también los reproduzca.

-¿Puede poner algún ejemplo?

Si los lectores buscan imágenes de ‘cocinar’ en cualquier buscador verán que la mayoría de fotos son de mujeres y niñas. Esto no sucede por una acción deliberada de Google o Microsoft, sino porque las bases de datos usadas para alimentar los programas de aprendizaje automático contienen una mayor cantidad de escenas de mujeres en la cocina, de forma que el ordenador asocia estos conceptos como cercanos. Esto tiene consecuencias directas sobre cómo percibimos el mundo a través de la tecnología.

-Pero el análisis de los datos a nivel mundial, regional o local también puede servir para detectar problemas y ponerles solución, ¿no?

-Sin duda. Muchas áreas están aplicando técnicas de aprendizaje automático para mejora de diagnósticos médicos, climatología, etcétera. Por ejemplo, podemos usar información extraída de los móviles para mejorar la gestión de autobuses locales. Sin embargo, no debemos olvidar que este tipo de soluciones pueden dejar fuera a parte de la ciudadanía. ¿Qué hay de las personas que no tienen un móvil inteligente? Como estas personas no generan datos, sus patrones de uso del transporte quedan fuera de la solución diseñada, cuando posiblemente las personas con este perfil sean las que más necesiten un transporte público de calidad.

-En definitiva, el ‘big data’ es una potente herramienta que se puede usar para lo bueno o para lo malo, ¿no?

-No es fácil definir el bien y el mal en algo tan complejo. Podemos usar el big data para mejorar los flujos de visitantes a los patios y que bajo el punto de vista de facturación de la hostelería el resultado sea un éxito. Sin embargo, la misma solución puede estar empeorando la calidad de vida de los vecinos del centro histórico.

-Cree que la gente de a pie somos conscientes del poder del ‘big data’?

-Sí y no. Los textos científicos que analizan el impacto social del big data hablan de tres posturas no excluyentes que se mueven entre el desconocimiento, la resignación ante la invasión de la privacidad y la fascinación.

-¿Y los gobiernos son conscientes? ¿Son las multinacionales las que más partido están sacando a todo esto?

-Creo que hemos vivido un momento de mistificación de las capacidades del big data. Se echa en falta más debate sobre las repercusiones respecto a la privacidad, soberanía tecnológica o impacto ambiental. Obviamente, las grandes tecnológicas ahora mismo son las empresas más rentables del mundo y el negocio de la nube, que va parejo al big data, es su principal fuente de beneficios.

-A un lado el ‘big data’, se formó usted en la UCO y ahora investiga en Cardiff. ¿Qué piensa de tantos jóvenes que tienen que dejar España para labrarse un porvenir fuera?

-El sistema científico español pareciera estar diseñado para la fuga de cerebros, no solo al extranjero, sino también al paro o a un cambio de profesión que echa por tierra años de inversión pública. Por ejemplo, la baja proporción de contratos postdoctorales frente a los predoctorales crea un cuello de botella que expulsa constantemente a investigadores formados en España.