Posiblemente la aplicación de la IA a los vehículos autónomos será una de las tecnologías más disruptivas en los próximos años. Pero me hago una pregunta: ¿Es ético producir vehículos autónomos cuyas elecciones afectarán no solo al conductor, sino a todo lo que lo rodee? La teoría es sencilla, el objetivo de la implantación de la tecnología es poder utilizar automóviles autónomos para transportar personas o mercancías del punto A al punto de una manera eficiente y segura. Pero a su vez, nosotros, los peatones, esperamos no vernos perjudicados por las decisiones que estos vehículos autónomos tomen durante su recorrido, y especialmente, durante una situación de peligro.

Fuente: INC

Con ese objetivo han trabajado durante muchos años empresas como Tesla o Google. El objetivo es permitir que estos vehículos tomen decisiones éticas. ¿Cómo lo hacen? Por ejemplo, el algortimo de Google, cuando un automóvil autónomo detecta un ciclista, se desplaza ligeramente en su carril para darle más espacio. El algoritmo de Google calcula la probabilidad por magnitud de riesgo, la compara con el valor total de la información que se obtendrá después de analizar el entorno, y la utiliza para tomar decisiones. Otros ejemplos de estas magnitudes son: ser golpeado por un camión tiene una magnitud de riesgo de 5.000, entrar en un choque frontal con otro automóvil tiene una magnitud de riesgo de 20.000 y golpear a un peatón tiene una magnitud de riesgo de 100.000. El sistema de puntos calcula el valor para diferentes escenarios, personas, animales, objetos orientados a la toma decisiones rápidas con el objetivo de minimizar los daños.

Fuente: Google

Tal y como hemos comentado, algunas de las empresas de tecnología más grandes del mundo, incluida la matriz de Google (Alphabet), Uber, Tesla, Didi Chuxing, Lyft, así como varios fabricantes de automóviles: Ford, Mercedes, GM…etc, actualmente cuentan con programas de vehículos autónomos. Muchas de estas empresas argumentan que los vehículos mejorarán la seguridad vial, el tráfico, así como la sostenibilidad. Pero, por contra, algunos sociólogos siempre han planteado que los vehículos autónomos conllevan problemas éticos, pudiendo tener consecuencias no deseadas para la seguridad pública.

Fuente: Wich-50

¿Deberían los vehículos sin conductor proteger a sus ocupantes por encima de todo, incluso a un peatón imprudente? Para Stefan Heck, el director ejecutivo de Nauto, ingeniero y doctorado en filosofía la respuesta es clara: “No debes matar al ocupante interior por una persona exterior, pero deberías poder aceptar daños en el coche para proteger la vida de alguien fuera de él”. Personalmente me parece una decisión peligrosa, sobre todo cuando el que la toma es un software diseñado para elegir en segundos que vidas son más importantes.

Fuente: MIT

De hecho, recientemente Mercedes ha sido el primer constructor que se ha posicionado en este aspecto. Ha decidido oficialmente que SIEMPRE priorizará la vida de su cliente, pase lo que pase fuera. Antes hablábamos de las magnitudes de riesgo. ¿Es ético que en caso de accidente el algoritmo de Mercedes, ante un marcador de magnitudes de riesgo de que sea de 1000 (posible muerte del conductor) a 50000 (posible muerte de un grupo de niños a causa de un atropello), decida salvaguardar al conductor? ¿Ética o propiedad?

Fuente: Mercedes

Pocas veces ocurre, como posiblemente será el caso de los accidentes de vehículos autónomos, pero pongamos el caso. Un accidente aéreo. Tras el despegue, se produce un fallo en cadena con lo que tan solo existen 2 opciones para el piloto:

  1. Estrellarse contra una zona muy poblada.
  2. Virar el avión en la medida de lo posible para estrellarse contra una zona arbolada, para que los daños colaterales sean los mínimos.

Es cierto que, pese a ser el avión una de las máquinas más inteligentes que existen, a diferencia del coche autónomo, la decisión final la tomará el piloto, eligiendo posiblemente la B. Lo que tengo claro es que ninguna compañía aérea ha comunicado que, llegado el caso, siempre se priorice a los ocupantes del avión.

Así las cosas, igual que el piloto siempre intentará minimizar los daños, ¿no deberían los filósofos, doctores en ética, grandes tecnológicas o constructores, que entrenan la inteligencia artificial de este tipo de vehículos, apostar por el bien común?.

by:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

16 + 2 =