Falsos dilemas
Big bang ·
Cuando se habla de Inteligencis Artificial se plantean dilemas morales inverosímilesHace unos días que oía un comentario en la tele en el que se hablaba de coches sin conductor y el presentador decía que uno ... de los graves problemas, y que los coches no podrían circular hasta que no se solucionase, era que tendrían que dar respuesta a problemas morales como que ante un accidente hay dos opciones o matar a un niño de cinco años o a seis personas mayores. ¿Qué debería hacer el coche? Filosóficamente el dilema es interesante y más de una vez me lo han puesto de ejemplo en las clases de «toma de decisiones»; sin embargo, si lo piensan un poco, es más falso que un billete de tres euros. Seguro que usted ha conducido muchos kilómetros y seguro que conoce a cientos de conductores que también lo han hecho. Y lo más probable es que usted o alguno de ellos haya sufrido algún accidente. Tres preguntas: 1) ¿Cuántas veces ha tenido que optar usted o sus conductores conocidos por tomar una decisión similar a la planteada? Es más: 2) ¿Cuántas veces el accidente ha ocurrido dándole suficiente tiempo a pensar en varias opciones? 3) ¿En la autoescuela le han enseñado a tomar decisiones en casos como estos? Las respuestas supongo que serán que nunca se han tenido que enfrentar a nada similar, que los accidentes ocurren inesperadamente sin tiempo para pensar y que en las autoescuelas no enseñan esas cosas.
Así que mi pregunta es: ¿Por qué es necesario que los sistemas de Inteligencia Artificial (IA) tengan previstas cosas cuya probabilidad de ocurrencia es cercana a cero? ¿Por qué se exige más a la IA que a los humanos? Parece ser que se admite el «Errare humanum est» pero que no el «Errare artificialis intelligentia est». Cuando lo correcto es que el mero hecho de existir implica que cometeremos errores, seamos humanos o algoritmos. De hecho, nuestra propia existencia como seres humanos se debe a los errores de copia del código genético.
Con los soldados robóticos todavía los sentimientos son más encontrados. ¿Cómo vamos a dejar la decisión de matar o no a una máquina?». Robocop ha hecho mucho daño. Hay que mirar el problema con realismo. Máquinas y humanos cometemos errores. El momento en el que debemos permitir a las maquinas hacer la tarea X -por ejemplo conducir- es cuando el número de errores que cometa la máquina sea inferior al que cometen los humanos. Así de sencillo. Deberemos permitir que los coches conduzcan solos cuando el número de accidentes que produzcan -incluyendo los mortales- sea inferior al de los humanos.
¿Tienes una suscripción? Inicia sesión