Algoritmos y dilemas morales

Uno de los ejemplos clásicos para abrir un curso de ética es el dilema del tranvía. Grosso modo, nos obliga a imaginarnos como el conductor de este vehículo, al cual se le han cortado los frenos y, por la misma razón, va a atropellar a cincos trabajadores sobre la vía. La alternativa: tomar una vía lateral y arrollar solo a una persona. ¿Qué harían ustedes?

Lo interesante de estos dilemas morales es que nos obligan a examinar cuáles son los principios que guían nuestras decisiones, los cuales rara vez son transparentes para nosotros mismos. Pero también en una clase de ética es posible encontrar algún alumno que, en lugar de tomar uno de los dos caminos —atropellar a una o a cinco personas— intenta evadir la decisión arguyendo que es una reflexión sinsentido porque nunca nos encontraremos en nuestras vidas con este problema.

Algo de razón tiene el alumno.Muchas veces las clases de ética son un “laboratorio moral”, donde reflexionamos sobre ejemplos capaces de expresar ideas filosóficas relativamente claras, mientras que, en la vida cotidiana, los problemas morales no son tan diáfanos.

Pero desde hace un par de años, a estos alumnos podemos darle una nueva respuesta: reemplace el tranvía por un vehículo autónomo y al conductor, por una inteligencia artificial. La elección de a quién se tiene que atropellar, en este caso, ya no es un ejemplo teórico, sino uno de los nuevos desafíos éticos que presentan las tecnologías disruptivas. En la práctica, no podemos evadir una respuesta porque estos vehículos están ahí afuera, circulando por nuestras calles.

Cada año son más los académicos que se suman al debate sobre algoritmos que deben decidir sobre la vida de las personas. El ejemplo de los automóviles autónomos puede que no sea tan relevante frente a programas de optimización de pacientes hospitalarios que, en orden de aprovechar al máximo los espacios y recursos de los centros asistenciales, deberán asignar valores cuantificables a nuestros ciudadanos, basados en una serie de etiquetas que, como sociedad, tanto nos han costado eliminar. Podemos imaginar un futuro cercano, donde nuestro país sea afectado por una catástrofe natural —situación bastante realista— donde un algoritmo designe la evacuación de los ciudadanos basado en sus posibilidades de sobrevivencia.

Aunque suene paradójico, lo anterior no es lo verdaderamente problemático. Podríamos, como sociedad, escudarnos en la idea de que los algoritmos son neutrales y objetivos. Parece mejor ser despedido de un trabajo por una serie de variantes y mediciones objetivas de nuestro desempeño que por la enemistad con un compañero de alta jerarquía. Pero eso es lo paradójico: los algoritmos no son neutrales.

En simple, los algoritmos son programados por alguien como usted o como yo —experto en informática, obviamente— pero con las mismas incertidumbres morales sobre cuál es la acción correcta en cada caso. Una inteligencia artificial no “escoge” a quien atropellar, sino que aplica una serie de condiciones programadas por un ser humano. Es el programador quien decide quién vive y quién muere. Dependemos, en última instancia, de su decisión moral —mejor o peor formada— que del cálculo matemático de un algoritmo. Será él quien le diga a la máquina qué vida vale menos que otra y él decidirá por qué.

Por lo pronto y con la actualidad de la tecnología, la pregunta sobre si las máquinas deben actuar acorde a la ética es un dilema mal planteado. Paradójicamente nos devuelve a uno de los problemas morales que nos ha acompañado a lo largo de toda nuestra historia: ¿podemos hacer un uso moralmente correcto de las herramientas que creamos? Porque con un cuchillo podemos desde untar mantequilla hasta atacar una persona, pero esta herramienta no decidirá por nosotros. Las inteligencias artificiales son un cuchillo más.

Camilo Pino
Académico Instituto de Filosofía
Universidad San Sebastián