Mariano Rico, Profesor Titular de Unioversidad en el Centro de I+D+i en Inteligencia Artificial de la UPM
Javier Bajo, Catedrático de Universidad en el Centro de I+D+in en Inteligencia Artificial de la UPM
La constante e imparable evolución de la Inteligencia Artificial hace que frecuentemente nos encontremos con noticias en los periódicos relativas a algún tipo de software con cierto grado de inteligencia, capaz de imitar alguna o algunas de las capacidades de la inteligencia humana. Este es el caso de ChatGPT, un sistema de chat conversacional desarrollado por la empresa OpenAI para llevar a cabo de forma autónoma tareas relacionadas con el procesamiento lenguaje natural.
El fenómeno ChatGPT agrega de forma magistral dos tecnologías. De una parte, los sistemas conversacionales, por todos conocidos de la mano de los llamados “asistentes personales” (Alexa, Siri, Cortana, etc.). De otra parte, se utilizan los llamados “grandes modelos de lenguaje”, bastante menos conocidos. Estos modelos son sistemas informáticos que usan redes de neuronas artificiales para “aprender” el lenguaje humano. Este aprendizaje se logra mostrando al sistema muchos textos en uno o varios idiomas. Cuantos más textos queramos que “aprenda”, mayor tiene que ser el conjunto de neuronas, de ahí que el adjetivo “grande” aplicado a los modelos de lenguaje se refiere a sistemas que requieren semanas de computación en ordenadores que solo están al alcance de empresas que hagan fuertes inversiones.
Y, ¿por qué se entrecomilla aprender? Bueno, si lo comparamos con el aprendizaje humano, las redes neuronales hacen otro tipo de aprendizaje. Cuando un humano aprende, es capaz de razonar. Cuando mi hijo dice que ha aprendido algo, puedo hacerle preguntas para comprobar que entiende lo que ha aprendido. Si no lo ha entendido verdaderamente, al cabo de pocas preguntas podré llevarle a una contradicción.
Los grandes modelos de lenguaje, una vez que han “aprendido” a partir de los textos que le hemos enseñado, podemos ponerlos en modo escritor. En este modo pueden continuar cualquier texto que le demos, y para un lector puede resultar muy convincente ese texto que ha creado, aunque en realidad lo que está haciendo es imitar el texto que ha aprendido, y ha aprendido mucho realmente, mucho más que lo que haya podido leer cualquiera de nosotros.
En el caso de ChatGPT se combina un gran modelo del lenguaje (GPT3 ha “aprendido” el equivalente a 335.000 textos como el Quijote) con un gran sistema conversacional. El resultado: el perfecto charlatán. Muchas conversaciones parecerán impecables, pero en muchos casos, en su afán por responder de forma convincente, podemos detectar que se inventa nombres, o fechas, o hechos completos. En definitiva, podemos pillar en un renuncio a ChatGPT, esto es, podemos hacer que caiga en una contradicción. Como buen charlatán se disculpará con argumentos enlatados del tipo “estoy en proceso de aprendizaje”.
La aparición de nuevas soluciones de Inteligencia Artificial como ChatGPT, aun con sus limitaciones como hemos podido observar, hace que nos planteemos cuestiones existenciales, relativas a la concepción de nuestro modelo social y de la integración de máquinas con cierto grado de inteligencia en dicho modelo. Por ejemplo, si ChatGPT es capaz de superar un examen de selectividad, ¿debemos plantearnos cómo evitar que pueda suplantar a un humano? O bien, debemos ir más allá y plantearnos si la forma en la que los humanos adquirimos competencias y éstas son evaluadas debe evolucionar. Ambos planteamientos son necesarios, el primero quizás más en el corto plazo, mientras que el segundo lleva en el medio y largo plazo a una inevitable evolución del modelo social que conocemos hacia un modelo social más sofisticado, en el que se establezca un grado de convivencia que permita la colaboración de humanos y máquinas para alcanzar objetivos sociales. Evolución significa avance, cruzar las fronteras de lo conocido, delegar en las máquinas tareas rutinarias y aprovechar esa oportunidad para definir nuevos roles y competencias sociales, evitando perder la esencia de los valores que nos hacen humanos. Este, sin duda, será un reto a abordar en los próximos años, un reto que va mucho más allá de los tecnólogos y que requiere la participación activa de todos los actores sociales.