Una de las primeras aplicaciones de la inteligencia artificial
(IA) fue el GPS. Todos nos beneficiamos de él con el coste de perder el sentido
de la orientación. Otra que está a la vuelta de la esquina es el coche sin
conductor. ¿Quién se responsabilizará de los posibles accidentes? La novedad de
los últimos años es la “IA generativa”. En la popular (y gratuita) aplicación chat-gpt
el alumno escribirá: “Redacta un Trabajo Fin de Grado de 50 folios y 10
referencias bibliográficas sobre la evolución de las PYMES en Castilla-La
Mancha”. Las técnicas que tenemos los profesores para detectar el plagio ya no
sirven pues la IA no copia de materiales previamente introducidos en internet.
Es capaz de desarrollar un discurso original a partir de ellos. ¿Qué nota
pondremos al alumno que ha demostrado su capacidad de sacar partido a las
nuevas tecnologías?
El pasado mes de mayo, la UE aprobó una ley para
controlar las aplicaciones de la IA. Las que atentan directamente contra los
derechos humanos quedan prohibidas. Ejemplo: identificar a los asistentes a una
manifestación masiva a partir de una foto aérea. Las aplicaciones de alto
riesgo (como el coche sin conductor) serán reglamentadas rigurosamente. El
resto requerirán que el vendedor informe de sus peligros. Estoy pensando en un
juguete susceptible de ser conectado con la IA.
Encomiable la preocupación de la UE para prevenir los
efectos nocivos de la IA. ¿Será efectiva? Lo dudo. Poner puertas al campo no
deja de ser un brindis al sol. El único
remedio efectivo pasa por mejorar la educación moral de las personas. Que los
niños, jóvenes y adultos aprendan a distinguir el bien del mal y tengan fuerza
de voluntad para rechazar lo que es nocivo para ellos y la sociedad. Algunas de
esas conductas quedarán prohibidas por ley. ¡Vale! Pero, aunque no lo
estuvieran, siempre quedará esa ley-moral-natural exigible a todos los humanos.