Hace un año la revista «Nature» publicó un interesante artículo sobre cómo debía comportarse un coche autónomo ante un accidente inevitable. Los investigadores del prestigioso Massachusetts Institute of Technology habían diseñado un videojuego en el que los participantes debían ponerse en el papel de un coche autónomo y enfrentarse a diferentes situaciones morales. Por ejemplo, un coche sin conductor en el que viaja una mujer embarazada y su hija se queda sin frenos. Si sigue recto, atropella a tres ancianos. Si da un giro brusco, chocará contra un muro. En todos los supuestos se producía el fallecimiento de una o varias personas y los participantes debían elegir a quién salvaban. Gracias a la difusión del proyecto, más de dos millones de personas de 233 países participaron en el experimento. A pesar de la diversidad de respuestas, los investigadores constataron que existían tres reglas universales. Todos los participantes consideraron que, entre salvar a un humano o a un animal, el coche siempre debería atropellar a la mascota. Por otro lado, debería primarse la salvación del mayor número de personas. Por último, la mayoría creía que debía salvarse antes a un joven que a un anciano. Tanto los delincuentes como los sintecho se posicionaron como las víctimas más ‘sacrificables’ si era necesario para preservar otros intereses.
¿Tiene caldereta sin langosta?
Coches autónomos, dilemas morales
21/07/19 0:00
También en Opinión
- El caso de un restaurante de Maó: «No podemos servir cenas porque no hemos encontrado personal»
- La frase más repetida esta temporada turística en Menorca: «Más gente, pero menos gasto»
- El famoso actor que los vecinos de Es Canutells han visto en este velero de lujo
- Un accidente con tres heridos obliga a cortar la carretera general durante dos horas
- Estas son las playas de Menorca que desaparecerán a finales de siglo