Computación
¿A quién culpar si me atropella un coche autónomo?
Los coches autónomos están ganando peso y surgen dudas acerca de quién se responsabilizará de sus accidentes
Puede que los coches autónomos vayan a hacer nuestra vida más fácil, pero su principal consigna no es esa, que peca de hedonista, sino una más honorable: reducir el número de muertes en carretera. No cabe duda de que esa es una de las metas, la que más se resalta ante los medios y la que nos hace apoyar la iniciativa con un automatismo similar al de los propios coches. Sin embargo… ¿Cómo de seguros pueden llegar a ser? Partimos casi de un dogma: que, dado que la mayor parte de los accidentes se deben a errores humanos, podemos reducir las muertes suprimiendo ese factor por una infalible máquina. Sin embargo, hay ciertas dudas que se apoderarían de cualquiera que empezara a analizar ese concepto.
En primer lugar, es lícito preguntarse si, suprimiendo el factor humano, estaríamos haciendo algo más que reducir la cantidad de errores. Porque, por supuesto, si tuviéramos una inteligencia artificial ideal y perfecta, podría hacer con soltura todo lo que a nosotros se nos da bien, pero incluso ahora, en un momento tan puntero de la inteligencia artificial, decidir ciertas cosas se le escapan o que, como poco, podríamos discutir si toman mejor o peor que nosotros. A esto se suma un duro golpe de realidad, y es que, si queremos reducir el número de muertes en carretera, habrá momentos en los que, ante una situación de sumo peligro, no exista una decisión que pueda salvar la vida de todos los implicados. Eso significa que el coche deberá elegir a quién matar y, si asumimos que la idea es reducir el número de muertos, podríamos plantear que siga una ética utilitarista, inmolando a su tripulante. Ahora bien… ¿quién comprará algo así? ¿Es posible que el coche autónomo realmente orientado a reducir las muertes en carretera sea imposible de implantar en el mercado?Son discusiones abiertas coronadas por una que, en cierto modo, las atraviesa y tornea a partes iguales: ¿Quién sería responsable de esas muertes?
Ya ha pasado
Puede parecernos que los atropellos por coches autónomos es una cosa del futuro y que todavía tenemos tiempo de legislarlo, de darle vueltas e incluso de adaptarnos como quien calienta poco a poco el agua de la bañera. La realidad es muy distinta, una subida de temperatura brusca y casi instantánea, de esas que te abrasan antes incluso de saber lo que está ocurriendo. Elaine Herzberg fue la primera víctima de los coches autónomos. Era marzo de 2018 y un Volvo XC90 la atropelló en la oscuridad de la noche. El sistema autónomo de aquel Volvo, desarrollado por Uber, estaba “al volante. El choque fue mortal para Elaine y la conductora del Volvo fue condenada por homicidio imprudente. En aquel momento, confiada por la autonomía de su coche, Rafaela Vásquez se entretenía viendo un vídeo en su teléfono. Hay que entender que, en este caso, la cuestión era relativamente fácil de resolver. Principalmente, porque los coches autónomos del mercado todavía no son realmente autónomos y tan solo asisten al conductor en determinadas tareas.
Pertenecen al llamado segundo nivel de autonomía, donde no se recomienda abandonar la atención del volante ni de la carretera. Son coches punteros, capaces de hacer maravillas de la inteligencia artificial y la robótica, como mantener una velocidad constante a pesar de las cuestas o los baches, pueden fijar una distancia a la que seguir a otro coche y seguir centrados en un carril con mayor o menor tino. Algunos pueden incluso frenar y acelerar solos, con suavidad para los atascos o determinación para evitar atropellos. Sin embargo, a pesar de su marquetiniano nombre de “autónomos”, todavía no parecen serlo como para exonerar legalmente al conductor. Por supuesto, otro tema sería que se probara un defecto en el producto, ya sea en la parte mecánica o en la inteligencia artificial, pero eso no distaría mucho de casos actuales en los que un accidente pudiera deberse a un fallo del modelo.
Por desgracia, no nos encontramos ante un caso aislado. En abril de 2021 volvió a suceder, un Tesla Modelo S que circulaba a gran velocidad fue incapaz de tomar una curva y estrelló a sus dos pasajeros causándoles la muerte. Se sospecha que en el momento del accidente no había nadie al volante, una temeridad para la que estos coches autónomos todavía no están preparados. Podemos acordar que, efectivamente, Tesla no fue responsable del accidente. Ahora bien, más pronto que tarde se popularizará el tercer nivel de autonomía que, por definición, permitirá al pasajero desentenderse en determinados momentos de la conducción, o incluso los niveles cuatro y cinco, en los que el coche será enteramente responsable de la conducción. La pregunta es clara: ¿qué ha de pasar para que la responsabilidad no recaiga en el pasajero?
Depende
En la actualidad contamos con grandes sistemas jurídicos, podríamos defender incluso que son los mejores de todos los tiempos que nuestra civilización ha tenido. Sin embargo, eso no los hace perfectos, y todos conocemos la importancia de tener buenos abogado, los mejores a ser posible (signifique eso lo que signifique). Bufetes de renombre como los que pueden pagar las grandes compañías de automoción. Del mismo modo que el paso del derecho consuetudinario a que las normas jurídicas se dejaran por escrito ayudó a hacerlas más “objetivas” y justas para quienes no tenían el poder de su lado, desarrollar una legislación específica para estos casos (ya no tan hipotéticos) podría ser la clave para definir de antemano donde estará el límite.
Por supuesto, para lograrlo hay tener en cuenta multitud de disciplinas y una de las más incomprendidas es la científico-tecnológica. Seguimos contándonos cuentos de hadas y dragones sobre la inteligencia artificial. Insistimos en analizarla bajo esquemas humanos, cuando son matemáticas, operaciones que ayudan a actualizar algo similar a un árbol de decisiones, permitiendo que el sistema se adapte, como si (e insisto en esa mímesis) estuviera vivo o fuese inteligente. Algunas estrategias de aprendizaje como el Deep learning son tan opacas que ni siquiera sabemos cómo funciona ese árbol de decisiones que podan a su antojo. ¿Podría ser eso un resquicio para exculpar a determinadas empresas? Hay ramas de la computación que avanzan muy prometedoramente desarrollando técnicas para desentrañar esas opacidades, pero... ¿cuánto queda?
Actualmente, los coches autónomos se enfrentan a un buen número de retos tecnológicos, pero uno de los más importantes es el relacionado con el procesamiento de imágenes, el reconocimiento y clasificación de objetos. En ocasiones, la tecnología que permite está diseñada por compañías diferentes a las que luego desarrollan los sistemas por los que la inteligencia artificial controlará al vehículo. ¿Cómo se distribuirá la responsabilidad en estos casos? Ahora mismo los propios expertos no parecen ponerse de acuerdo y las preguntas revolotean sin que las respuestas consigan escorar las conclusiones de un lado o de otro. Posiblemente no tengamos respuesta hasta que los primeros coches con autonomía de nivel 3 o 4 tengan sus primeros accidentes.
QUE NO TE LA CUELEN:
- La complejidad de estos sistemas de conducción autónoma ha hecho que se vuelva muy difícil entender qué compañía está a la cabeza, porque no todas destacan en los mismos puntos, ni se proponen los mismos usos. Un ejemplo claro es el de los robotaxis de Google, con su empresa Waymo, que ya operan en algunos lugares de Estados Unidos, como Phoenix. Sin embargo, no son directamente comparables con los Tesla, que se proponen una autonomía, precio y flexibilidad mayores, más compatibles con el poder adquisitivo y el funcionalidades que buscan los usuarios. Por ejemplo, debe ser capaz de circular por carreteras poco cartografiadas, rurales y confiar en dispositivos más asequibles. En cualquier caso, hemos llegado a uno de esos puntos en los que no existen blancos y negros y, aunque la inteligencia artificial Autopilot de Tesla está a la cabeza (o casi), han aparecido competidores en aspectos igual de relevantes.
REFERENCIAS (MLA):
- “Autopilot.” Tesla, https://www.tesla.com/autopilot.
- Pietsch, Bryan. “2 Killed in Driverless Tesla Car Crash, Officials Say.” The New York Times, The New York Times, 18 Apr. 2021, https://www.nytimes.com/2021/04/18/business/tesla-fatal-crash-texas.html.
- Wakabayashi, Daisuke. “Self-Driving Uber Car Kills Pedestrian in Arizona, Where Robots Roam.” The New York Times, The New York Times, 19 Mar. 2018, https://www.nytimes.com/2018/03/19/technology/uber-driverless-fatality.html.
✕
Accede a tu cuenta para comentar