Hace apenas una semana del primer accidente mortal el que se ha visto implicado un coche autónomo. O más bien, un Tesla Model S que circulaba en un modo semi-autónomo, cuyo sistema estaba en fase beta. A raíz de este accidente se han escrito ríos de tinta sobre coches capaz de conducir por sí mismos, mientras algunos comienzan a percibirlos como un riesgo mucho mayor al real. No obstante, la evolución del coche autónomo prosigue su camino imparable, y pronto le tocará tomar decisiones morales, jugar a ser Dios.
¿Te subirías a un coche que podría matarte si considera que es la opción menos mala en caso de problemas?
¿Te subirías a un coche que está programado para matarte? Ya hemos hablado de esta idea largo y tendido, en un artículo de opinión que publicamos hace unos meses. Si os da pereza leerlo, os resumiré las conclusiones: llegará un momento en que el coche autónomo tenga que decidir entre sacrificar a sus ocupantes o provocar la muerte de viandantes u otros conductores. Esto podría suceder por un fallo mecánico, electrónico o simplemente, una situación no esperada provocada por la impredecibilidad del comportamiento humano o animal.
Como el clásico ejemplo: un niño que cruza la carretera detrás de una pelota, en plena curva ciega de carretera nacional. La reacción de un humano podría variar en dicha situación, pero la potencia computacional del ordenador que gobierna al coche autónomo debe ser rápida, infalible e implacable. Si evitar el atropello del niño implica una esquiva a un carril contrario ocupado por otro vehículo – y esto redunda en la muerte de los ocupantes de ambos vehículos – el coche autónomo podría decidir el atropello del niño.
Ya que la inteligencia artificial a nivel humano no existe, nosotros tenemos que programar sus algoritmos morales.
“Es la