Publicidad

MÁQUINA MORAL

¿Quién se salva y quién muere? El dilema moral de los vehículos sin conductor

El experimento en el que han participado más de dos millones de personas ha puesto sobre la mesa una tesitura moral: cómo debería actuar un coche autónomo ante un accidente con consecuencias mortales.

Un grupo de científicos de Europa y EE. UU. ha diseñado un videojuego con el objetivo de buscar los principios por los que se regirán los coches autónomos. Los participantes tienen que hacer de vehículo sin conductor. A medida que van pasando los niveles, van apareciendo los dilemas a los que podrían enfrentarse estos vehículos. Entre esas tesituras, decidir quién moriría, los ocupantes del coche o diversos peatones, una persona obesa, alguien con aspecto de ejecutivo, personas mayores, etc.

En el experimento, al que han denominado la ‘máquina moral’, han participado más de dos millones de personas de más de doscientos países y territorios y han resuelto casi 40 millones de dilemas. Dilemas como por ejemplo este: A bordo del automóvil van una mujer embarazada y su hija, enfrente tres ancianos que solo puede evitar yendo contra un muro. ¿A quién salvarías?

Los resultados del experimento se han convertido en una especie de ‘tratado humano’ del que luego, se elaborarán unas normas. De momento, el único país que ha propuesto una guía moral, ha sido Alemania. Un código ético con 20 normas que no distan mucho de los resultados obtenidos en la prueba.

Se han establecido unas normas universales, como por ejemplo, entre animales o personas, el coche debe salvar a los humanos. Asimismo, las conclusiones del experimento, varían dependiendo de la nacionalidad de los participantes. Por ejemplo, en Europa existe una predilección por la gente con complejidad atlética y en los países del sur, por las mujeres.

Publicidad