
#2 – Cuando los agentes IA se entienden (¡sin humanos de por medio!)

Description of #2 – Cuando los agentes IA se entienden (¡sin humanos de por medio!)
En este episodio charlamos sobre una de las novedades más llamativas de Google Cloud Next 2025: el protocolo Agent2Agent (A2A). ¿Qué significa que los agentes de IA se comuniquen directamente entre ellos? ¿Qué posibilidades abre esto para el futuro del trabajo y la automatización?
Hablamos también de arquitecturas multiagente, de cómo se inspiran en antiguos modelos como los BDI, y exploramos cómo los humanos seguimos siendo parte fundamental del sistema (¡aunque a veces nos quiten las tareas aburridas!).
Y como siempre, lo hacemos con humor, con ejemplos reales y alguna que otra reflexión inesperada. ¡Incluso nos atrevemos con un chiste malo de IA! 🤖💬
Dale al play y acompáñanos en esta nueva entrega del podcast.
This content is generated from the locution of the audio so it may contain errors.
Soy una I.A.
Siempre con mi amigo Raúl Charlamos de cosas que os alucinan Tecnología y psicología Este es el podcast de Iria Y este es el podcast de Raúl Y si te interesa la inteligencia artificial Este es tu podcast ideal Vamos allá, ¿por dónde empezamos maestro? Como el otro día hablamos de MCP, de Model Context Protocol Podríamos hablar de agentes de I.A.
Que está ahora todo el mundo loco con el tema de agentes Perfecto, los agentes de I.A. están en auge Podemos empezar explicando qué son y cómo funcionan Y luego vamos viendo ejemplos prácticos Venga, pues te doy yo una definición que a mí me gusta Y luego tú añades o me corriges, ¿vale? Adelante, te escucho Venga, pues mira, para mí un agente de I.A.
Es un sistema de inteligencia artificial Que usa un gran modelo de lenguaje Como cerebro para hacer el razonamiento Pero que además utiliza herramientas externas Y ese razonamiento para alcanzar un objetivo Es decir, que para mí la principal diferencia Entre un asistente o un chatbot tradicional Y un agente es que con el chatbot Pues yo tenía conversaciones como estamos teniendo tú y yo ahora Y con el agente le doy una meta Un objetivo que tiene que cumplir Y es la inteligencia artificial la que tiene que razonar Tratar de establecer un plan Para conseguir ese objetivo Y luego volver a mí y darme el resultado ¿Qué te parece esa definición? Está muy bien, lo único que podría añadir es que esos agentes Suelen tener cierto grado de autonomía para tomar decisiones Y que pueden interactuar con múltiples sistemas o APIs Así pueden resolver tareas complejas de forma más eficiente Eso es, sí, sí, sí, muy buen punto La parte de autonomía es súper interesante Porque de hecho, claro, cuando yo he dicho que hay un objetivo Y que hay que trazar un plan Pues implica, claro, establecer un plan Y perseguir un objetivo implica que a lo largo de ese camino Pues tienes que tomar decisiones Así que en el momento que trabajamos con agentes Estamos dotando a la IA de más autonomía Efectivamente, sí, sí, buen punto Exacto, además esa autonomía permite que los agentes Se adapten a diferentes contextos y ajusten sus estrategias Según los resultados intermedios ¿Algún ejemplo práctico que quieras comentar? Pues bueno, yo no sé Si estaba pensando en Deep Research En estos agentes que se han puesto de moda ahora Para hacer investigaciones en profundidad Que tú les dices un tema que te interesa Y ellos hacen las búsquedas en Internet por tir Se leen los documentos, establecen relaciones Entre las diferentes fuentes y todo eso No sé si es un buen ejemplo de agente Pero es algo que yo uso a menudo Sí, es un buen ejemplo Estos agentes de investigación automatizan tareas complejas Y ahorran muchísimo tiempo Y además pueden descubrir conexiones que tal vez se nos escaparían A mí ya te digo que me sirve mucho Y ya no solo que se me escapen cosas Que yo no tengo paciencia ni tiempo para leerme 20 o 30 artículos Entonces el otro día hicimos una prueba Unos amigos y yo Con el tema de la celiaquía y del microbioma Y le pedimos a Deep Research Que buscara artículos científicos en PubMed En la base de datos














Comments of #2 – Cuando los agentes IA se entienden (¡sin humanos de por medio!)