Usted, como hijo de una época dominada por la
inteligencia artificial (IA), viaja en un vehículo sin conductor junto a dos
amigos. Obedeciendo al GPS, el coche “acorta”
por una zona que hoy está especialmente concurrida. Inesperadamente, un niño se
suelta de sus padres. Morirá atropellado, si el coche no frena bruscamente.
Pero si lo hace, la muerte amenazará a los ocupantes y a un ciclista de élite
que circula por detrás. Si gira a la derecha atropellará a los padres del niño.
Por la izquierda pasean dos ancianos. En menos de un segundo, la IA tomará una
decisión que dejará su huella en la humanidad.
Este tipo de ejemplos suena en los debates éticos sobre
la inteligencia artificial. Los tertulianos suelen optar por a una ética
utilitarista. La IA escogerá la opción que minimice la pérdida de utilidad
social. Basa sus decisiones en las tablas del valor monetario de las vidas
humanas. Las aprobó el Parlamento atendiendo a variables tan objetivas como la
edad, los años de formación académica, o el palmarés de títulos de las personas
implicadas.
¡No puedo callar mi decepción! No podemos identificar la ética con la
utilidad ni con el voto mayoritario de un parlamento. Al contrario, son los
principios éticos los que limitan a políticos, bien dos columnas asegurar la libertad
y responsabilidad de todos y cada una de los implicados. En el ejemplo de
marras, el responsable último sería el responsable del vehículo. Asumirá las
consecuencias de aceptar la ruta más corta elegida por el GPS y de no recuperar
el volante al llegar a la zona más transitada.
No existe la ética artificial, ni puede
inventarse. La ética se atribuye a personas que utilizan dispositivos
con inteligencia artificial. Esas personas actúan con criterios éticos si deciden
libremente y se hacen responsables de las consecuencias de sus decisiones.