Matemáticas para enfrentar los aspectos éticos de la conducción autónoma

  • Investigadores del ICMAT desarrollan nuevos modelos matemáticos para apoyar la toma de decisiones en vehículos autónomos.
  • Los modelos tienen en cuenta objetivos múltiples –rendimiento, duración del viaje, seguridad de los pasajeros, de los peatones, del propio vehículo…– cuya importancia determina el fabricante.
  • Se puede emplear para simular escenas de conducción y establecer responsabilidades en caso de accidente.

Madrid, 2 de noviembre de 2021. Imaginemos que, ante un fallo repentino del sistema de frenado, un vehículo autónomo –es decir, cuya conducción ejecuta total o parcialmente un ordenador– pudiera escoger entre dos opciones: continuar recto, lo que resultaría en la muerte de tres peatones o girar, chocando con un muro, lo que causaría      la muerte de los cinco ocupantes del vehículo. ¿Cuál debería elegir? ¿Quién debería tomar esa decisión? Nuevos modelos matemáticos, propuestos por Roi Naveiro y David Ríos, investigadores del Instituto de Ciencias Matemáticas (ICMAT), junto con William N. Caballero (United States Air Force Academy), ofrecen herramientas para enfrentar este tipo de consideraciones éticas de manera transparente.

“En la última década, el desarrollo de los vehículos autónomos, basados en herramientas de aprendizaje automático y de inteligencia artificial, ha alcanzado importantes hitos y se espera que su implantación revolucione el transporte de personas y bienes en los próximos años”, aseguran los investigadores y autores de un artículo publicado el pasado viernes en la revista Decision Analysis y de otro aceptado por la revista Transportation Science y pendiente de publicación. Con esta nueva tecnología, “aparecen consideraciones éticas inéditas, como la gestión y la responsabilidad en caso de accidente, que es fundamental enfrentar”, afirman. La Unión Europea publicó el año pasado un informe sobre los aspectos éticos de esta nueva tecnología.

Como prueban diversos estudios, no existe consenso ético universal con respecto a las decisiones de los vehículos autónomos (AV por sus siglas en inglés) –personas de diferentes culturas valoran de forma distinta las consecuencias de una misma decisión–, por lo que los investigadores proponen modelizar distintos sistemas éticos y determinar cuáles son las decisiones que reflejan los mismos.

El modelo propuesto en el trabajo publicado en Decision Analysis, titulado “Modeling Ethical and Operational Preferences in Automated Driving Systems”, tienen en cuenta objetivos múltiples que afectan a la toma de decisiones: desde el rendimiento del vehículo, al confort de los pasajeros, la duración del viaje, la seguridad de las personas en la escena de conducción, del propio vehículo o la infraestructura, hasta, incluso, la reputación del fabricante.

Una vez definidos los objetivos, cada productor de AV podría decidir ponderarlos de distinta manera, dando más importancia a aquellos que sean de su interés, para adaptar el modelo a su situación particular. “Por ejemplo, un fabricante o un conductor podrían dar mayor importancia a la seguridad de los pasajeros y menor a la de los peatones, reflejando así una ética autoprotectiva”, declaran Ríos y Naveiro.

Tras fijar las importancias relativas, el modelo propuesto se encarga de la toma de decisiones, que será diferente en cada caso. “Por ejemplo, podemos dar mucha importancia al tiempo de viaje aunque esto irá en detrimento de la seguridad del vehículo. Si así lo hiciésemos, el vehículo iría más rápido, pero también crecería el riesgo de accidente. Así, si la importancia del tiempo de viaje es muy alta, el vehículo irá más rápido. No obstante, esto hará que sea menos seguro”, explican. “Evidentemente, la regulación vigente ha de encargarse de fijar límites en las importancias de los diferentes objetivos”, afirman.

El interés de este enfoque reside en el hecho de que es posible simular múltiples escenas de conducción, usando la perspectiva elegida por el fabricante para guiar las decisiones del coche autónomo. “Para conocer con antelación el impacto de cada elección basta con ejecutar simulaciones suficientemente largas”, detallan. “Estas permitirían evaluar si la configuración elegida del      vehículo satisface la regulación vigente, y, en caso de no hacerlo, fijar responsabilidades”, aseguran.

Así, se fomenta la transparencia sobre la toma de decisiones: es posible evaluar qué opción se toma en determinada circunstancia y por qué el modelo determina que esta es la óptima. “Este marco podría estandarizar la toma de decisiones en vehículos autónomos, lo que facilitará la regulación de los mismos”, añaden Ríos y Naveiro. Es importante señalar que el modelo propuesto opera en cualquier condición, no solo en situaciones de emergencia.

Este avance se engloba en el marco de Trustonomy, un proyecto financiado por el programa marco europeo H2020, que incluye a diversos actores de la industria del automóvil . “Esperamos poder probar nuestras propuestas en los prototipos desarrollados por algunos de los socios del proyecto”, declaran los investigadores.

Identificando y enfrentando dilemas fundamentales de los AV

Entre los problemas éticos considerados por los autores destaca el denominado dilema fundamental de los AV de nivel 3 y 4, que los autores presentan en el artículo “Managing driving modes in automated driving systems”, aceptado y pendiente de publicación en la revista Transportation Science. “En estos modelos de AV la conducción es autónoma, pero puede requerir la intervención humana, por ejemplo, en caso de una situación inesperada o peligrosa”, explican.

Precisamente sobre cuándo y cómo se solicita esta información –a través de peticiones de intervención–  trata el dilema fundamental, que enuncian de la siguiente manera: “Si el vehículo predice una situación peligrosa, se espera que el conductor esté alerta y dispuesto a retomar el control; sin embargo, si está distraído y el AV transfiere el control, las consecuencias podrían ser catastróficas. ¿Debería el vehículo transferirlo, con lo que el conductor asumiría los riesgos asociados con su      distracción, o retenerlo, con lo que el AV debería tomar decisiones de vida y muerte fuera de su dominio operativo? En este último caso, ¿quién sería responsable de una eventual catástrofe?”.

Los investigadores consideran que es una cuestión central en la adopción de vehículos automáticos de niveles 3 y 4. Con los modelos propuestos, los fabricantes podrán simular este tipo de situaciones y valorar qué respuesta ofrecería el AV en base a la importancia que hayan dado a diferentes factores. “Lo que ofrecemos es un marco general que permite especificar diferentes perspectivas éticas”, concluyen.

Trustonomy, o cómo aumentar la confianza en los vehículos autónomos

“Los vehículos  autónomos son una tecnología capaz de mejorar la seguridad vial, reduciendo emisiones e incrementando el confort de los pasajeros. Sin embargo, como suele ser habitual, el desarrollo técnico avanza a mayor velocidad que nuestra capacidad colectiva para integrarlo      en la sociedad”, afirman Ríos y Naveiro.

Es por ello que se están implantando diversas iniciativas para aumentar nuestra confianza en los AV y facilitar su adopción. Ejemplo de ello es el proyecto Trustonomy, “Building Acceptance and Trust in Autonomous Mobility”, financiado con 3,9 millones de euros por la Unión Europea bajo el programa marco H2020 en el que participan Ríos y Naveiro.

Este proyecto enfrenta cuestiones como analizar los riesgos de la conducción autónoma, diseñar la comunicación entre la máquina y el humano, estudiar el impacto que tendrá en la economía y en ciertos sectores industriales… El objetivo principal de la iniciativa es, como indica su título, crear aceptación y confianza en la movilidad autónoma. Dentro de este proyecto, David Ríos es el encargado de producir modelos de análisis de riesgos como el recientemente publicado.

Información sobre Trustonomy, aquí.

Referencia

William N. Caballero, Roi Naveiro y David Ríos Insua, Modeling Ethical and Operational Preferences in Automated Driving Systems, Decision Analysis. 29 de octubre 2021, https://doi.org/10.1287/deca.2021.0441