Icono del sitio En Plan Planeta

Evolución de los LLM. ¿Qué podemos hacer con un Chatbot?

Seguimos con el capítulo 4 de “Inteligencia artificial generativa para gente real. Tu brújula para usarla bien”, una serie semanal para la Cadena Ser, en «A vivir Cantabria», junto a Conchi Castañeda. En este cuarto capítulo analizamos la evolución de capacidades de los LLM y repasaremos las distintas tareas que podemos realizar con un chatbot. Se puede escuchar el programa aquí, a partir del minuto 13:22: https://cadenaser.com/audio/ser_cantabria_avivircantabria_20251123_130448_140000/

Tu chatbot es una navaja suiza (y quizás solo usas el tenedor): lo que realmente puedes hacer con IA

En el último capítulo, Conchi me planteó una duda clave: ¿todos los LLM (esos «cerebros» que hacen funcionar a los chatbots) tienen las mismas capacidades?. La respuesta corta es no, no son todos iguales. Mucha gente usa estas herramientas de forma muy superficial, y yo siempre digo que es como tener un smartphone de última generación y usarlo solo para hacer llamadas. Lo que estamos viendo es una evolución rapidísima de sus capacidades. Para entenderlo fácil, me gusta explicarlo como si fueran «niveles».

La evolución: los 4 niveles de los LLM.

Piensa en esta progresión, como en un videojuego:

Nivel 1: el redactor

Nivel 2: el razonador

Nivel 3: el conectado

Nivel 4: los agentes

El agente ejecuta acciones y se pueden «orquestar» múltiples agentes para resolver tareas muy complejas. Pasamos de un «loro estadístico» a un «asistente personal». Este es el salto más grande. Un agente ya no solo habla de hacer algo, sino que lo hace. Usa el LLM como «cerebro» para decidir cuándo y cómo usar herramientas externas de software.  Por ejemplo, tú le dices al agente: «Revisa mi correo, resume los tres más importantes, mira mi calendario y agenda una reunión con esta persona para mañana por la tarde, y avísame si llueve». Pues el agente lo hace. El «cerebro» entiende la petición y empieza a llamar a otras herramientas: a tu correo para leerlo, a tu calendario para ver los huecos, a tu correo para programar la reunión y a una web del tiempo para ver el tiempo que hará.

La otra gran revolución: la multimodalidad

Esto significa que la IA puede procesar y entender múltiples tipos de datos a la vez: texto, imágenes, audio y vídeo. ¿Qué nos permite esto?

El camino es la fusión de la multimodalidad y los agentes, buscando un asistente que pueda interactuar con el mundo viendo, oyendo y actuando.

El reto de la semana: ¿qué podemos hacer hoy con un chatbot?

El reto de esta semana es genérico: quiero que la audiencia explore estas funciones avanzadas. Vamos a repasar todo eso que podemos hacer:

1. El trabajo con textos (modo editor)

2. El modo analista y programador

3. El modo estratega y voz avanzada

4. La multimodalidad en práctica

Tu turno: el reto

La herramienta es mucho más potente de lo que la mayoría cree. Por eso, el reto genérico de hoy es que la audiencia coja su chatbot favorito de referencia y pruebe una de estas funciones más avanzadas.

Atrévete a probar:

¡Es hora de explorar esa navaja suiza de funcionalidades!


Recordad que tenéis todos los capítulos y enlaces en la web enplanplaneta.es. Y para quien quiera profundizar, impartiré un curso gratuito online de 12 horas en el CEDREAC en diciembre. Solo tienen que registrarse en provoca.cantabria.es en este enlace: https://provoca.cantabria.es/home/-/provoca/actuacion/11513 .

¡Hasta la semana que viene!

Salir de la versión móvil