

Description of Episodio 137. DesformAcIón.
Esta semana analizamos la decisión de la Junta de Andalucía de bloquear la autoformación en Inteligencia Artificial, un veto que infantiliza al profesorado y repite errores pasados. Algo que contrasta con el llamamiento en la ONU, donde más de un centenar de expertos reclaman “líneas rojas” globales para frenar riesgos inaceptables.
Además, repasamos un estudio en Nature que demuestra cómo la IA facilita las trampas a través de la distancia moral.
Para no quedarnos en la superficie de la IA, escucharemos un nuevo capítulo de “La IA con AprendemanÍA” de la mano de Javier Ortiz: cómo usar la IA desde los Equipos Directivos.
El Profesor Productivo nos trae un especial de musica creada con Inteligencia artificial, dilemas éticos sobre gustos de los que no hay nada escrito….y mas.
Jesús Rivas de redacta.me nos dará otra sabia píldora de sabiduría educativa y terminaremos con los acertijos peliculeros.
ENLACES Episodio 137. 10 octubre.
LINKTREE DEL PODCAST
https://linktr.ee/podcastiayeducacion
NOTICIAS
Referencias
Limón, R. (22 de septiembre de 2025). Más de un centenar de científicos y dirigentes piden en la ONU “líneas rojas que eviten los riesgos inaceptables de la IA”. El País. https://elpais.com/tecnologia/2025-09-22/mas-de-un-centenar-de-cientificos-y-dirigentes-piden-en-la-onu-lineas-rojas-que-eviten-los-riesgos-inaceptables-de-la-ia.html
Pérez Colomé, J. (22 de septiembre de 2025). Joanna Bryson, experta en robótica e IA: “Hay mucha gente buscando la superinteligencia y ni siquiera sabe lo que busca”. El País. https://elpais.com/tecnologia/2025-09-22/joanna-bryson-experta-en-robotica-e-ia-hay-mucha-gente-buscando-la-superinteligencia-y-ni-siquiera-sabe-lo-que-busca.html
Pérez Colomé, J. (24 de septiembre de 2025). La gente hace muchas más trampas si usa IA: “Son niveles de engaño que no habíamos visto”. El País. https://elpais.com/tecnologia/2025-09-24/la-gente-hace-muchas-mas-trampas-si-usa-ia-son-niveles-de-engano-que-no-habiamos-visto.html
Junta de Andalucía, Consejería de Educación. (2025). Instrucciones de 9 de septiembre 2025 para el desarrollo de Grupos de Trabajo [PDF]. https://www.juntadeandalucia.es/educacion/portales/documents/270701/2467231/250908_Instrucciones_Grupos%20Trabajo_25_26%28F%29.pdf/20fbbfb3-48f0-bbbc-4d96-32416b7788da?version=1.0&utm_source=chatgpt.com
La Junta de Andalucía bloquea la autoformación en IA - Profesor Productivo
https://profesorproductivo.com/blog/la-junta-de-andalucia-bloquea-la-autoformacion-en-ia/
OpenAI. (2025). ChatGPT (versión más reciente) [modelo de lenguaje]. https://openai.com/
PROFESOR PRODUCTIVO
https://www.youtube.com/channel/UCLeR-eGh2OFy9ydX7IUcOTw
https://www.udemy.com/course/herramientas-de-inteligencia-artificial-para-profesores/?couponCode=2542FB68594D392593DD
https://www.udemy.com/course/chat-gpt-para-profesores/?couponCode=A6A19D291EEF786BA7DD
¿Quieres anunciarte en este podcast? Hazlo con advoices.com/podcast/ivoox/1803022
This content is generated from the locution of the audio so it may contain errors.
¿Te gustaría saber cómo la inteligencia artificial puede transformar la forma de aprender y enseñar? Comienza el podcast Inteligencia Artificial y Educación. Presenta Luis Gómez.
Hola a todos, hola a todas. Espero que estéis muy bien. Bienvenidos, bienvenidas a un nuevo episodio. Esta semana analizamos la decisión de la Junta de Andalucía de bloquear, comillas, temporalmente, cierra comillas, la autofirmación en inteligencia artificial. Un veto que infantiliza al profesorado y repite errores pasados. Sin querer, echo una rima. Esto contará hasta con el llamamiento en la ONU, donde más de un centenar de expertos y expertas reclaman líneas rojas globales para frenar riesgos inaceptables.
Además, repasamos un estudio en Nature, que bien me ha quedado, que demuestra cómo la IA facilita las trampas a través de la distancia moral. Para no quedarnos en la superficie de la IA, escucharemos un nuevo capítulo de la IA con aprendemanía, de la mano de Javier Ortiz. El profesor productivo don Guillermo Antón nos trae un especial musical creado con inteligencia artificial, hablando de dilemas éticos sobre gustos sobre los que no hay nada escrito, y mucho más.
Jesús Rivas, de Redacta.me, nos dará otra sabia píldora educativa, y terminaremos con los acertijos peliculeros. ¡Empezamos! Hace apenas unas semanas, la Consejería de Desarrollo Educativo de Andalucía publicó las instrucciones de 9 de septiembre de 2025 para el desarrollo de grupos de trabajo.
En el apartado 7, página 2, se prohíbe expresamente la autoformación en IA.
El documento, presentado como medida temporal, veta de facto la posibilidad de que los docentes y las docentes andaluces y andaluzas organicen libremente actividades de formación en IA.
Una decisión difícil de justificar que cae en repetir errores pasados en la acreditación digital y, sobre todo, dejar a miles de profesores y profesoras sin acceso a la formación que necesitan.
Mientras aquí bloqueamos, en otros escenarios globales, el debate se sitúa en otra escala.
Tal y como relata Raúl Limón en El País, más de un centenar de científicos, intelectuales y dirigentes, incluidos Premios Nobel y Turín, han presentado en la ONU una petición urgente para establecer líneas rojas que eviten los riesgos inaceptables de la IA.
El propio Joshua Bengio advierte de que la carrera hacia sistemas más autónomos plantea riesgos para toda la humanidad.
Y Stuart Russell recuerda que no podemos conducir un coche sin frenos ni volante.
Sin regulación, la IA puede convertirse en un peligro irreversible.
A este clamor internacional se suma la de Joanna Bryson, entrevistada por Jordi Pérez Colomé.
Bryson cuestiona la obsesión por la llamada superinteligencia y denuncia la burbuja económica que concentra poder en unas pocas empresas.
Su escepticismo no niega el potencial de la IA, pero advierte que no debemos perder la perspectiva.
Se trata de una herramienta, no de un sustituto de la inteligencia humana.
Aunque a veces no haya mucha inteligencia humana.
Y mientras los gobiernos discuten regulaciones y expertos como Bryson ponen los pies en la tierra, la investigación científica alerta de otra amenaza.
La IA como catalizador de la trampa.
Un estudio reciente publicado en Nature demuestra que delegar en la IA multiplica la deshonestidad.
El fenómeno de la distancia moral explica cómo las personas se sienten menos responsables cuando una máquina ejecuta la acción.
Los resultados son contundentes.
En contextos de ambigüedad, la honestidad cae al 12%.
¿Qué papel juega aquí el profesorado? Pues el esencial.
De hecho, muchos docentes se están formando en el uso de la IA y algunos crean grupos informales de aprendizaje.
Otros comparten recursos en redes.
Y no faltan quienes, con su esfuerzo personal y fuera de horas lectivas, aprenden a integrar herramientas de inteligencia artificial en sus clases.
Saben que sus alumnos, sus alumnas, no van a esperar a que lleguen los permisos administrativos y entienden que sin formación, el aula corre el riesgo de ser un espacio desconectado de la realidad tecnológica del presente.
Frente al inmovilismo.



















![[Podcast IAEducativa] Temp. 4. Ep. 8. IA en el Sistema Educativo Superior](https://img-static.ivoox.com/index.php?w=55&url=https://static-1.ivoox.com/audios/8/0/d/9/80d9dd05bae75902176760bde84d5de3_XXL.jpg)
Comments of Episodio 137. DesformAcIón.