Algoritmo bueno, algoritmo malo

Los algoritmos determinan cada vez más nuestras vidas. ¿Son una ayuda o un peligro? La experta en informática más importante de Alemania lo explica.

¿Soluciona la inteligencia artificial nuestros problemas?
¿Soluciona la inteligencia artificial nuestros problemas? phonlamaiphoto - stock.adobe.com

Profesora Zweig, usted trabaja en el área de la socioinformática y se ocupa de los algoritmos. ¿Podría explicarnos brevemente qué son los algoritmos?

Los algoritmos son instrucciones generales para resolver problemas. Un buen ejemplo es la multiplicación escrita: su maestra le ha explicado cómo proceder, independientemente de qué cifras exactamente se van a multiplicar o de cuán grandes son. Esta generalidad caracteriza un buen algoritmo.

Katharina Zweig, profesora de Informática en la Universidad Técnica de Kaiserslautern
Katharina Zweig, profesora de Informática en la Universidad Técnica de Kaisersla TU Kaiserslautern

¿Cuándo es útil y sensato el uso de algoritmos?

Lo que hoy en día se entiende por “algoritmo” no suele serlo en absoluto. Los algoritmos en sí mismos son muy útiles y valiosos, ya que con ellos probadamente siempre se halla una solución. Esa garantía forma parte de la definición de un algoritmo. Actualmente, sin embargo, el término “algoritmo” se refiere principalmente a métodos de aprendizaje automático. Esos métodos utilizan estadísticas para buscar patrones en datos y definir reglas de decisión a partir de ellos. Por ejemplo: si muchas de las contrataciones de empleados exitosas fueron de candidatos de entre 25 y 30 años, esa información pasa a ser un criterio para la toma de decisiones en próxima contratación.

No es un problema del sistema de toma de decisiones, sino de la forma en que se utiliza.

 

Katharina Zweig, profesora de Informática en la Universidad Técnica de Kaiserslautern

¿Cuándo es problemático el uso de algoritmos?

Ya se puede ver en el ejemplo del mundo laboral que la norma mencionada conlleva el peligro de discriminación. Cuando eso plantee un riesgo –especialmente en el caso del acceso a los servicios públicos o en el mundo del trabajo– esos sistemas de toma de decisiones, que han “aprendido” a partir de datos, deberían ser analizados para detectar posibles discriminaciones. Para ello no es necesario conocer el código. Basta con mirar los resultados en relación con personas con diferentes características, tales como la edad o la religión. Tampoco es necesariamente un problema del sistema de toma de decisiones, sino de la forma en que se utiliza. De la misma manera, los patrones encontrados podrían ser utilizados para eliminar injusticias.

Con su libro actual “Ein Algorithmus hat kein Taktgefühl” (“Un algoritmo no tiene tacto”) quiere ayudar a los legos en la materia a “retener el control”. ¿Puede funcionar? 

Sí, creo que todo el mundo puede hacerlo. Nosotros, los informáticos, llevamos a cabo la implementación tecnológica, pero la pregunta de qué patrones debe buscar un algoritmo en qué datos y qué debe ser optimizado no la podemos responder solo nosotros. Si se planea desarrollar un sistema para predecir si un criminal reincidirá en el delito, la sociedad tiene que decidir si realmente lo quiere. Y si así es, si el sistema debe ser diseñado o bien de tal manera que detecte a casi todos los reincidentes o bien dar prioridad a minimizar las falsas sospechas que puedan recaer sobre excriminales resocializados. Para ello se necesita una orientación aproximada sobre cómo funcionan esos métodos de aprendizaje automático y una gran porción de sentido común. Y eso lo tiene toda la gente que va por el mundo con los ojos abiertos.

La Prof. Dra. Katharina Zweig es directora de la cátedra "Teoría de Grafos y Análisis de Redes Complejas” en la Universidad Técnica de Kaiserslautern y estuvo a cargo del desarrollo de la carrera "Socioinformática", que analiza los efectos de la informática en la sociedad.

Entrevista: Martin Orth

© www.deutschland.de

¿Desea recibir regularmente información sobre Alemania? Suscríbase aquí al boletín informativo