efe
Jueves, 25 de octubre 2018, 20:42
Un equipo del Instituto de Tecnología de Massachusetts (MIT) ha creado una base de datos que recopila cerca de cuarenta millones de decisiones «morales» tomadas por humanos para ayudar a diseñar vehículos autónomos que reaccionen de forma «socialmente aceptable», según publica la revista Nature.
Publicidad
Iyad Rahwan y su grupo esperan que el proyecto contribuya a abrir un debate global sobre cómo deben desarrollarse los algoritmos que determinan el comportamiento de un vehículo sin conductor ante dilemas éticos.
Para elaborar su base de datos, los investigadores presentaron una encuesta a ciudadanos de todo el mundo en la que les preguntaban cómo reaccionarían en caso de una situación de peligro o un accidente inevitable.
Uno de los escenarios propuestos representaba una carretera de dos carriles en la que circulan diversos vehículos y hay varios peatones en las inmediaciones.
Los encuestados debían decidir qué tipo de acción tomarían en caso de una colisión inevitable, teniendo en cuenta que la vida de otros conductores y peatones estaba en peligro.
A partir de los millones de respuestas que han acumulado, los autores del trabajo han identificado diversas preferencias morales que comparten la mayoría de personas en todo el mundo.
Salvar el mayor número de vidas posible y priorizar la seguridad de los más jóvenes es uno de los rasgos comunes detectados en los juicios éticos.
Publicidad
Entre los criterios morales que varían por regiones, los investigadores destacan que en Sudamérica y Centroamérica, así como en Francia y sus antiguas colonias, se expresa una fuerte preferencia por poner a salvo a las mujeres y los individuos con rasgos atléticos.
Las personas que viven en países en los que las desigualdades económicas son más pronunciadas tienden además a tener más en cuenta el estatus económico de las personas a la hora de decidir quién debe ponerse a salvo en primer lugar.
Publicidad
«Antes de permitir que nuestros coches tomen decisiones necesitamos mantener una conversación global para expresar nuestras preferencias a las compañías que diseñan algoritmos morales y los políticos que los regularán», han señalado los autores del trabajo.
Suscríbete a Las Provincias: 3 meses por 1€
¿Ya eres suscriptor? Inicia sesión
Te puede interesar
La explicación al estruendo que sobresaltó a Valladolid en la noche del lunes
El Norte de Castilla
Publicidad
Utilizamos “cookies” propias y de terceros para elaborar información estadística y mostrarle publicidad, contenidos y servicios personalizados a través del análisis de su navegación.
Si continúa navegando acepta su uso. ¿Permites el uso de tus datos privados de navegación en este sitio web?. Más información y cambio de configuración.