gpt
El boom imparable que la Inteligencia Artificial está viviendo va acompañado de una democratización de la tecnología que como sabemos, ya ha cambiado el mundo.
A rasgos generales, España ocupa en la actualidad el cuarto lugar en la lista de países que ofrecen condiciones favorables para startups de Inteligencia Artificial, algo que no resulta extraño cuando el porcentaje de empresas españolas que ya utilizan IA ha experimentado un incremento que ya se sitúa en el 11%.
Y a nivel mundial, sobre el 50% de las empresas ya ha utilizado Inteligencia Artificial en sus operaciones, lo que se puede traducir en una tasa de adopción que ha aumentado un 250% en un periodo de tan solo 5 años.
En este contexto de democratización, OpenAI afirma que el 80% de las profesiones se verán afectadas de algún modo. Especialmente por la irrupción de los LLMs y los modelos de lenguaje natural tipo GPT.
Y es que las inteligencias artificiales generativas basadas en modelos de lenguaje natural son cada vez más y más potentes, y no solo de la mano de grandes fabricantes como Google, sino de la propia comunidad tech que trabaja en mejorar los modelos que ya existían y en nuevas herramientas Open Source que siguen contribuyendo a la democratización de las IAs.
Inteligencias Artificiales generativas, LLMs, Deep Learning, GPT… ¿son lo mismo?
Los Large Language Models son un algoritmo de Deep Learning (NLP) que son capaces de reconocer, resumir, traducir, predecir y generar texto (y otros contenidos como audio o imagen) basándose en los conocimientos adquiridos a partir de conjuntos de datos masivos.
Sin embargo, los modelos GPT (Generative Pretrained Transformer) utilizan una arquitectura de Transformer, una innovación en el procesamiento del lenguaje natural (NLP) que ha superado a muchos enfoques anteriores en términos de calidad y rendimiento.
Se basan en una estructura de auto-atención que permite a los modelos analizar y ponderar las relaciones entre las palabras en una secuencia de texto sin importar su posición o distancia entre ellas. De esta forma, GPT aprende patrones y dependencias a largo plazo en el texto mejorando la generación y comprensión del lenguaje.
Por tanto, los modelos GPT son modelos generativos de lenguaje específicos basados en la arquitectura Transformer, ideales para la generación de texto creativo y coherente, mientras que los LLMs son modelos de lenguaje en general, más flexibles y adaptables a una variedad de tareas de procesamiento del lenguaje natural, como clasificación, etiquetado de entidades, traducción y más.
Calma, todavía hablamos de un modelo limitado
Aunque todo indique que los modelos GPT parece que han llegado para quedarse, la realidad es que esa arquitectura de predicción lo que limita al modelo, que no permite tener una planificación en sus respuestas, una memoria de contexto amplia, capacidad para retroceder en su análisis y habilidades de razonamiento.
Al estar basado en un proceso local para generar la siguiente palabra sin una comprensión global o profunda de la tarea, podemos decir que este modelo sí es bueno para producir textos fluidos y coherentes, pero todavía tiene limitaciones para resolver problemas complejos o creativos que no pueden abordarse secuencialmente.
En definitiva, estos modelos pueden realizar operaciones de «pensamiento rápido» (automático, intuitivo y sin esfuerzo, pero propenso a errores y sesgos) de manera impresionante, pero le falta el componente de «pensamiento lento» (controlado, racional y esforzado, pero más preciso y confiable) que supervisa el proceso y utiliza memoria de trabajo y un esquema de pensamiento organizado.
En los siguientes artículos de la serie, indagaremos más acerca de cómo programar este tipo de soluciones y algunas aproximaciones para intentar salvar las limitaciones que hemos comentado mediante agentes autónomos.