iVoox
iVoox Podcast & radio
Download app for free
Disfruta 1 año de Plus al 45% de dto ¡Lo quiero!
La IA y el Suicidio 🤖 | 🎙️ Ana Freire, IA aplicada a la salud mental - Podcast IA 🟣

La IA y el Suicidio 🤖 | 🎙️ Ana Freire, IA aplicada a la salud mental - Podcast IA 🟣

9/18/2025 · 01:33:20
2
1k
2
1k

Description of La IA y el Suicidio 🤖 | 🎙️ Ana Freire, IA aplicada a la salud mental - Podcast IA 🟣

Consigue tu Plaud AI con Código Descuento: JONHERNANDEZ20 aquí: https://bit.ly/plaud_ai_jon

🎙️ Hoy hablamos de un tema urgente: la salud mental y el papel de la inteligencia artificial. Para ello traemos al podcast a Ana Freire, ingeniera y doctora en Informática, Vicedecana de Impacto Social en la UPF-BSM y reciente ganadora del Premio Nacional de Ingeniería Informática 2025. Exploramos juntos cómo la tecnología puede salvar vidas, los dilemas éticos que plantea analizar datos tan sensibles y los retos de diseñar herramientas seguras y responsables. También hablamos del futuro de la IA en el bienestar emocional y de cómo equilibrar oportunidades y riesgos en un campo que evoluciona a gran velocidad. ¡No te lo pierdas!

Read the La IA y el Suicidio 🤖 | 🎙️ Ana Freire, IA aplicada a la salud mental - Podcast IA 🟣 podcast

This content is generated from the locution of the audio so it may contain errors.

La inteligencia artificial está teniendo un impacto en la vida de la gente y hay un estudio reciente que dice que como más la estamos utilizando es para el soporte emocional y se habla poco de ello. Se habla poco de la cantidad de gente que comparte temas muy personales y sobre todo que le hace caso a la inteligencia artificial a la hora de decidir qué hacer con su vida. Esto llega a casos extremadamente traumáticos que hemos visto en EEUU donde chavales se quitan la vida sin ninguna mayor razón que lo que les esté pasando en su día a día.

Pero el tema es que la inteligencia artificial forma parte de ese proceso de decisión y para bien o para mal está empezando a afectar. Para hablar de todo esto nos hemos traído a Ana Freire, Premio Nacional de Informática en 2025 y una de las personas más puestas en la aplicación de la inteligencia artificial para el trabajo emocional, para el soporte emocional. Vamos a hablar de todo ello en un podcast que es duro pero creo que es necesario. Ana, muchas gracias por estar aquí hoy, es un placer tenerte aquí.

Oye, antes de empezar y meternos en toda tu parte más profesional, ¿qué te parece esto de la inteligencia artificial a nivel más humano, a nivel más persona? Bueno, a nivel persona creo que le podemos sacar mucho partido y de hecho yo soy de las que tiene una visión optimista con respecto a la inteligencia artificial y creo que es una disciplina científica que ha sido desarrollada por humanos y debería ser desarrollada para humanos y si conseguimos sacarle todo el partido que tiene para ofrecernos creo que va a ser la mayor revolución que hayamos vivido.

Esto es muy interesante porque recuerdo hace unos meses que estuve en la ONU dando una charla y precisamente dábamos ese mensaje de que tenemos que dejar de reaccionar a la IA y decidir qué queremos que haga la IA. Yo creo que además la inteligencia artificial no debería de ser el sujeto de ninguna revolución, debería ser el sujeto pasivo. Es utilizada, ha sido diseñada para, pero últimamente vemos sobre todo en los medios que acaparan los titulares diciendo la inteligencia artificial discrimina, la inteligencia artificial ataca, la inteligencia artificial cambia, nos quita trabajos. No, al final somos nosotros quienes estamos diseñando estos sistemas para nosotros. Entonces ahí el sujeto y por lo tanto la responsabilidad es totalmente humana.

Claro, eso es lo que sueles pensar cuando hablas de herramientas. Por ejemplo, el típico ejemplo del martillo, que además tuvimos aquí a Cassie O'Neill, la autora de armas de destrucción matemática, si no recuerdo mal el nombre del libro, que es un bestseller de New York Times y que ella defiende mucho esto, que los algoritmos no son más que herramientas y que el algoritmo puede ser usado para el bien o para el mal.

Lo que pasa es que yo tengo una teoría de que la IA va un poco más allá de ser una herramienta y está empezando a ser pues cierta infraestructura que está causando un cambio cultural. Entonces realmente podemos definir como herramienta algo que cambia nuestra cultura? O sea, realmente podemos simplificarlo tanto? Es que probablemente sea una herramienta como ninguna otra que hemos visto. Entonces obviamente es una herramienta con un potencial que ya no sólo tiene un cambio cultural detrás sino también probablemente un cambio social y esto ya también tiene mucho mucho que discutir.

Pero sin duda es el ser humano quien debe de decidir cómo se usa. Por ejemplo, en tema de salud yo creo que si dirigiésemos la mayor parte de la financiación e inteligencia artificial para explotarla en salud seríamos una sociedad súper prometedora. Pero claro entre eso y que hay muchos intereses que no se dirigen simplemente para el bienestar social pues a veces parece que nos estamos desviando de este bien común que nos podría traer la inteligencia artificial.

Hay varias cosas ahí porque por una parte es cierto que obviamente hay cosas que la inteligencia artificial si le diésemos suficientes recursos igual no tiene un retorno económico tan directo pero serían mejores para la sociedad de forma global pero evidentemente por en medio de empresas privadas que tienen la obligación de ganar dinero y con lo cual es su obligación con sus accionistas y con lo cual apuestan por lo que da más dinero no lo que es mejor para la sociedad.

Pero por otro lado hay una parte en la que la inteligencia artificial a veces hace cosas que cuando lo orientamos al bien son muy buenas pero que esas mismas capacidades que desarrollamos para hacer el bien también se puede utilizar para otras cosas. Por ejemplo los modelos de visión es un caso clásico donde tú con un modelo de visión puedes detectar un cáncer como se ha hecho en Australia que ha sido una auténtica salvajada lo que ha mejorado pero a la vez con un modelo de visión pues puedes con el mismo tipo de modelos puedes entender imágenes que pueden utilizarse pues para cosas mucho peores.

Entonces al final es difícil entrenar sólo para las cosas buenas porque al final al entrenar le das las capacidades a la IA que pueden suponer cosas buenas o cosas malas. Estoy completamente de acuerdo. Además va a ser muy difícil cambiar esto porque date cuenta que no existe ni existirá una regulación global. Entonces cada país lo hará a su manera y ya lo estamos notando. Diferentes casos de uso que a lo mejor tenemos en China o Estados Unidos o los que estamos intentando regular en Europa que son aquellos sobre todo de riesgo. Entonces sí va a ser complicado el proceso.

Comments of La IA y el Suicidio 🤖 | 🎙️ Ana Freire, IA aplicada a la salud mental - Podcast IA 🟣

This program does not accept anonymous comments. Sign up to comment!
We recommend you
Go to Internet and technology