¿Tiene caldereta sin langosta?
Coches autónomos, dilemas morales
Hace un año la revista «Nature» publicó un interesante artículo sobre cómo debía comportarse un coche autónomo ante un accidente inevitable. Los investigadores del prestigioso Massachusetts Institute of Technology habían diseñado un videojuego en el que los participantes debían ponerse en el papel de un coche autónomo y enfrentarse a diferentes situaciones morales. Por ejemplo, un coche sin conductor en el que viaja una mujer embarazada y su hija se queda sin frenos. Si sigue recto, atropella a tres ancianos. Si da un giro brusco, chocará contra un muro. En todos los supuestos se producía el fallecimiento de una o varias personas y los participantes debían elegir a quién salvaban. Gracias a la difusión del proyecto, más de dos millones de personas de 233 países participaron en el experimento. A pesar de la diversidad de respuestas, los investigadores constataron que existían tres reglas universales. Todos los participantes consideraron que, entre salvar a un humano o a un animal, el coche siempre debería atropellar a la mascota. Por otro lado, debería primarse la salvación del mayor número de personas. Por último, la mayoría creía que debía salvarse antes a un joven que a un anciano. Tanto los delincuentes como los sintecho se posicionaron como las víctimas más ‘sacrificables' si era necesario para preservar otros intereses.
También en Opinión
- «Hay mucha gente desesperada con dolor crónico que puede caer en manos de sinvergüenzas»
- Carla Gener afirma que el ayuntamiento desconocía la compra de los juegos adaptados del 'Pere Casasnovas'
- Así son los diez paneles informativos que el Consell instalará en las carreteras de Menorca
- El Govern toma la iniciativa en Cala en Porter para sacar el agua que impide usar toda la playa
- Oleada de robos de contadores en el Camí des Caragol de Ciutadella