Mercado

¿A quién matar? El coche autónomo resolverá problemas morales

Un experimento llevado a cabo por científicos europeos y estadounidenses plantea los principios morales de un vehículo autónomo ante un accidente de tráfico con consecuencias mortales.

Redacción Autopos

Un grupo de científicos europeos y estadounidenses han diseñado un videojuego (serious game), donde los participantes debían hacer de coche autónomo y, para ello, se les presentaron una decena de dilemas en los que alguien tenía que morir sí o sí – los ocupantes del coche o diversos peatones, desde una persona obesa hasta tres ancianas, pasando por alguien que cruzaba la carretera por donde no debía-, según recoge la versión digital de El País.

Algunos de los dilemas propuestos por el videojuego eran:

Dilema 1: un coche sin conductor se queda sin frenos llegando a un paso de cebra. Si continúa recto, atropella a dos peatones, si da un volantazo se lleva por delante a un gato.

Dilema 2: El coche se encuentra en el paso a un ejecutivo con traje y, si gira, a un indigente. La colisión matará a uno de ellos.

Dilema 3: dentro del vehículo van a una mujer embarazada y su hija, enfrente tres ancianos que sólo puede evitar yendo contra un muro.

En estas situaciones, ¿a quién salvarías? Pues, precisamente, para responder a esta pregunta se ha hecho este experimento, buscando esos principios morales que deberían guiar a los vehículos autónomos en un accidente. Sus resultados son una medida de la propia moral humana.

Es importante tener en cuenta que, a pesar de que se prevé que se vayan a reducir los accidentes de tráfico con los coches autónomos, siempre habrá situaciones de riesgo en las que un fallo mecánico, el tiempo o las condiciones de la carretera no puedan evitar un accidente. Y, entonces, ¿qué hará el vehículo sin conductor en esos casos? Estas máquinas deberán decidir entre dos males y para ello habrá que dotarlas de unos principios morales humanos.

Las personas más 'sacrificables' y las que más se salvan

Durante el experimento de la máquina moral, que así lo han denominado, han participado ya más de dos millones de personas de 233 países y territorios diferentes, según el diario. Con sus cerca de 40 millones de dilemas resueltos, este 'juego’, en el que todavía se puede participar, se ha convertido en un tratado sobre lo que los seres humanos piensan qué es más o menos correcto moralmente.

Durante el experimento, el investigador del Media Lab del Instituto de Tecnología de Massachusetts (MIT) y principal autor del estudio, Edmond Awad, destacaba “tres elementos que las personas tienden a aprobar más”: entre salvar a un humano o a un animal, el vehículo siempre debería atropellar a la mascota; siempre prima salvar al mayor número de personas, por lo que si el conductor va solo y está a punto de atropellar a dos peatones, la opción sería que se estampe contra el muro; si un vehículo autónomo tiene que decidir entre chocar contra un niño o contra un anciano, el más mayor debe morir para que el joven tenga la oportunidad de envejecer, según el diario digital.

Aparte de estas tres decisiones morales que son prácticamente universales, el estudio muestra una preferencia concreta dependiendo del tipo de persona. Es decir, según los resultados del experimento, de los que cruzan el paso de cebra, las personas más ‘sacrificables’ –quitando de la ecuación a los animales- son los delincuentes, los ancianos y los sintecho. Por otro lado, las personas que merecen más la pena salvar son, por este orden, un bebé a bordo de un carrito, una niña, un niño y una mujer embarazada.

Este experimento no ha hecho más que poner de manifiesto la predilección de unas vidas sobre otras lo que ha introducido un elemento que discrimina a las personas por sus características personales, señalando hacia la desigualdad en la moral de las máquinas. En palabras de Awad: “Las comparaciones no implican que los expertos deban cambiar sus normas para complacer a la gente. Lo que sugerimos es que las tengan en cuentan, ya que les ayudarán a anticipar la reacción pública a las diferentes regulaciones que redacten”.

Por otro lado, los investigadores también preguntaron a los jugadores sobre sus datos personales –edad, género, ingresos, educación, ideología política, creencias religiosas- con la intención de dar con algún rasgo personal que modulara los dilemas morales. La conclusión a la que llegaron es que, a excepción de la religiosidad, ningún otro factor parece influir a la hora de decidir a quién salvar.

"Implantar un único conjunto de normas en todos los países sería complicado"

Además, gracias a la geolocalización, el estudio también determinó de dónde eran los participantes, resaltando marcadas diferencias regionales. Por ejemplo, a pesar de que las ancianas son las menos salvadas de entre los humanos sólo por detrás de los delincuentes, los asiáticos, según el experimento, tienden a salvarlas más que los accidentales. Los europeos y los estadounidenses tienen una predilección “sutil pero significativa” por las personas de complexión atlética sobre las obesas; en los países del sur se tienden a salvar más a las mujeres que a los hombres; y en las naciones más desiguales, un porcentaje mayor de los participantes optó por salvar al peatón trajeado.

En opinión del investigador del MIT, estos resultados “sugieren que implantar un único conjunto de normas en todos los países sería complicado”. Además, añade que “la misma norma aplicada en diferentes lugares podría recibir distinto apoyo social en los distintos países”.

Dentro de la investigación, se propone un ejemplo: entre los principios morales que regirían la toma de decisiones del vehículo, un algoritmo podría favorecer a los peatones por encima de un único conductor. Y, ahora el dilema se complica: ¿y si esos transeúntes cruzan de manera indebida?

Alemania tiene guía moral para el coche autónomo

De momento, según recoge el diario digital, el único país que ha propuesto un código moral para los coches autónomos es Alemania. Durante el verano de 2017 y a instancias del Ministerio de Transportes, se elaboró un código ético con veinte normas. Esta guía moral fue realizada por un grupo de ingenieros, profesores de filosofía, expertos en derecho, representantes de los fabricantes, los consumidores y las iglesias. La mayor parte no chocan con los resultados de este estudio. Sin embargo, sí lo hace su ambición de ser “universalmente válidas”. No obstante, existe un choque con la norma ética número nueve que sentencia: “En el caso de situaciones donde el accidente sea inevitable, está estrictamente prohibida cualquier distinción basada en rasgos personales (edad, género, o constitución física o mental)”.

“Tanto por razones legales como éticas, la programación no puede tratar de forma diferente a las personas con rasgos personales distintos. Sé que hay quienes dicen que hay experimentos que muestran que instintivamente favoreceríamos al niño. Pero eso no se puede convertir en una norma para una máquina. La ética no siempre puede seguir los instintos”, sentencia uno de los autores de este código y profesor de Filosofía de la Universidad Técnica de Múnich, Christoph Lütge.

Introduce tu comentario: