Hace un año la revista «Nature» publicó un interesante artículo sobre cómo debía comportarse un coche autónomo ante un accidente inevitable. Los investigadores del prestigioso Massachusetts Institute of Technology habían diseñado un videojuego en el que los participantes debían ponerse en el papel de un coche autónomo y enfrentarse a diferentes situaciones morales. Por ejemplo, un coche sin conductor en el que viaja una mujer embarazada y su hija se queda sin frenos. Si sigue recto, atropella a tres ancianos. Si da un giro brusco, chocará contra un muro. En todos los supuestos se producía el fallecimiento de una o varias personas y los participantes debían elegir a quién salvaban. Gracias a la difusión del proyecto, más de dos millones de personas de 233 países participaron en el experimento. A pesar de la diversidad de respuestas, los investigadores constataron que existían tres reglas universales. Todos los participantes consideraron que, entre salvar a un humano o a un animal, el coche siempre debería atropellar a la mascota. Por otro lado, debería primarse la salvación del mayor número de personas. Por último, la mayoría creía que debía salvarse antes a un joven que a un anciano. Tanto los delincuentes como los sintecho se posicionaron como las víctimas más ‘sacrificables’ si era necesario para preservar otros intereses.
¿Tiene caldereta sin langosta?
Coches autónomos, dilemas morales
21/07/19 0:00
También en Opinión
- Menorca gana tres banderas azules este año: estos son los lugares dónde ondeará
- ‘Balconing’ de un joven ebrio en el Arenal d’en Castell
- El tercer intento de reflotar el American Bar de Maó
- Una tintorera de más de dos metros obliga a cerrar la playa del Arenal d'en Castell
- Sufre una indisposición y choca contra un árbol en Ciutadella