Hace un año la revista «Nature» publicó un interesante artículo sobre cómo debía comportarse un coche autónomo ante un accidente inevitable. Los investigadores del prestigioso Massachusetts Institute of Technology habían diseñado un videojuego en el que los participantes debían ponerse en el papel de un coche autónomo y enfrentarse a diferentes situaciones morales. Por ejemplo, un coche sin conductor en el que viaja una mujer embarazada y su hija se queda sin frenos. Si sigue recto, atropella a tres ancianos. Si da un giro brusco, chocará contra un muro. En todos los supuestos se producía el fallecimiento de una o varias personas y los participantes debían elegir a quién salvaban. Gracias a la difusión del proyecto, más de dos millones de personas de 233 países participaron en el experimento. A pesar de la diversidad de respuestas, los investigadores constataron que existían tres reglas universales. Todos los participantes consideraron que, entre salvar a un humano o a un animal, el coche siempre debería atropellar a la mascota. Por otro lado, debería primarse la salvación del mayor número de personas. Por último, la mayoría creía que debía salvarse antes a un joven que a un anciano. Tanto los delincuentes como los sintecho se posicionaron como las víctimas más ‘sacrificables’ si era necesario para preservar otros intereses.
¿Tiene caldereta sin langosta?
Coches autónomos, dilemas morales
21/07/19 0:00
También en Opinión
- El hartazgo de los payeses del sur de Ciutadella: «Hemos tenido que llamar a la grúa para poder entrar en la finca»
- El misterio del tanga perdido en el centro histórico de Maó
- Los vecinos de Punta Grossa se quedan sin la única vía de acceso a sus barcas
- El Menorca clama contra el árbitro tras el descenso y el trencilla sale escoltado por la policía
- Sonrisas y lágrimas para Ferreries y Menorca