Hace un año la revista «Nature» publicó un interesante artículo sobre cómo debía comportarse un coche autónomo ante un accidente inevitable. Los investigadores del prestigioso Massachusetts Institute of Technology habían diseñado un videojuego en el que los participantes debían ponerse en el papel de un coche autónomo y enfrentarse a diferentes situaciones morales. Por ejemplo, un coche sin conductor en el que viaja una mujer embarazada y su hija se queda sin frenos. Si sigue recto, atropella a tres ancianos. Si da un giro brusco, chocará contra un muro. En todos los supuestos se producía el fallecimiento de una o varias personas y los participantes debían elegir a quién salvaban. Gracias a la difusión del proyecto, más de dos millones de personas de 233 países participaron en el experimento. A pesar de la diversidad de respuestas, los investigadores constataron que existían tres reglas universales. Todos los participantes consideraron que, entre salvar a un humano o a un animal, el coche siempre debería atropellar a la mascota. Por otro lado, debería primarse la salvación del mayor número de personas. Por último, la mayoría creía que debía salvarse antes a un joven que a un anciano. Tanto los delincuentes como los sintecho se posicionaron como las víctimas más ‘sacrificables' si era necesario para preservar otros intereses.
¿Tiene caldereta sin langosta?
Coches autónomos, dilemas morales
21/07/19 0:00
También en Opinión
- Detenida madre e hija por agresión y daños a otra mujer en un bar de Ciutadella
- Ciutadella abrirá a las visitas el túnel de la Guerra Civil que conecta la Catedral con la Plaça Nova
- Un excursionista belga aparece muerto en el Camí de Cavalls
- Que vecinos de Punta Prima estén tan sorprendidos porque la única iluminación...
- Joan Pons Torres (PP): «Menorca no se puede parar porque un señor se ha ido a Sri Lanka»