lunes, 30 de septiembre de 2024

Ética artificial (?)

 

Usted, como hijo de una época dominada por la inteligencia artificial (IA), viaja en un vehículo sin conductor junto a dos amigos.  Obedeciendo al GPS, el coche “acorta” por una zona que hoy está especialmente concurrida. Inesperadamente, un niño se suelta de sus padres. Morirá atropellado, si el coche no frena bruscamente. Pero si lo hace, la muerte amenazará a los ocupantes y a un ciclista de élite que circula por detrás. Si gira a la derecha atropellará a los padres del niño. Por la izquierda pasean dos ancianos. En menos de un segundo, la IA tomará una decisión que dejará su huella en la humanidad.

Este tipo de ejemplos suena en los debates éticos sobre la inteligencia artificial. Los tertulianos suelen optar por a una ética utilitarista. La IA escogerá la opción que minimice la pérdida de utilidad social. Basa sus decisiones en las tablas del valor monetario de las vidas humanas. Las aprobó el Parlamento atendiendo a variables tan objetivas como la edad, los años de formación académica, o el palmarés de títulos de las personas implicadas.  

¡No puedo callar mi decepción!  No podemos identificar la ética con la utilidad ni con el voto mayoritario de un parlamento. Al contrario, son los principios éticos los que limitan a políticos, bien dos columnas asegurar la libertad y responsabilidad de todos y cada una de los implicados. En el ejemplo de marras, el responsable último sería el responsable del vehículo. Asumirá las consecuencias de aceptar la ruta más corta elegida por el GPS y de no recuperar el volante al llegar a la zona más transitada.

No existe la ética artificial, ni puede inventarse. La ética se atribuye a personas que utilizan dispositivos con inteligencia artificial. Esas personas actúan con criterios éticos si deciden libremente y se hacen responsables de las consecuencias de sus decisiones.