iVoox
iVoox Podcast & radio
Download app for free
By SAYONARA BABY PODCAST SAYONARA TECNO
DEEPSEEK VS EL MUNDO

DEEPSEEK VS EL MUNDO

2/4/2025 · 13:10
3
411
3
411
SAYONARA TECNO Episode of SAYONARA TECNO
Support

Description of DEEPSEEK VS EL MUNDO

DeepSeek, un laboratorio chino de IA, desafía a gigantes tecnológicos con modelos innovadores como V3 y R1. A pesar de restricciones de EEUU, usan técnicas como destilación, aprendizaje reforzado y compresión para optimizar chips y competir globalmente.

SAYONARA DELUXE.
Puedes dejar tus críticas y opiniones en caja de comentarios, puedes contactar con nosotros a través del email:

podcastsayonara@gmail.com

Unirte a nuestro canal de Telegram:
https://t.me/sayonarafm

Si te gusta lo que hacemos puedes dejarnos un like y comentarlo para darle mimitos al algoritmo.

Tambien puedes invitarnos a una fanta en:

https://ko-fi.com/sayonarababy
https://paypal.com/paypalme/sayonarafm

Gracias por visitarnos, por tu ayuda y colaboración 😊

Más capítulos disponibles y posibilidades de escucha:
⏭️ https://linktr.ee/sayonarafm ⏮️

Read the DEEPSEEK VS EL MUNDO podcast

This content is generated from the locution of the audio so it may contain errors.

¿Qué está pasando con esta guerra de inteligencias artificiales?
Hoy vamos a verlo centrándonos en la última que he rumpido, Tipsik.
Bienvenido a Sayonara Tecno, el podcast casi diario de reflexión sobre tecnología y ocio.
Actualidad, retro y futuro unidos en un mismo programa de 10 minutitos aproximadamente.
Muy buenas gente, ¿qué tal? Soy Toni del podcast Sayonara Baby.
Y hoy voy a hablaros de la irrupción de la empresa china Tipsik en el campo de la inteligencia artificial
y cómo no, del impacto que ha tenido en la industria, particularmente en Silicon Valley,
ya que Tipsik ha logrado desarrollar modelos de inteligencia artificial comparables,
vamos a decirlo en principio, en calidad a los de OpenAI.
¿Dónde está la cuestión del asunto y por qué ha llamado tanto la atención?
Porque lo ha hecho con una inversión muchísimo menor,
hablamos de entorno, dicen que entorno,
y digo, dicen que hablamos de unos 5 millones de dólares
y encima lo han hecho en un tiempo récord.
Y esto ha generado una gran conmoción en la industria
ya que se ha visto obligada a replantearse muchas de sus suposiciones
sobre el desarrollo de la inteligencia artificial.
Antes de nada, y por si habéis estado viviendo en una cueva, ¿qué es Tipsik?
Pues es un laboratorio de inteligencia artificial chino
que ha desarrollado varios modelos,
uno de ellos es muy similar al de XGBT
y luego habría un modelo más avanzado,
conocido como el R1,
que es capaz de reflexionar y elaborar una cadena de pensamientos
comparable al O1 de OpenAI.
Lo que ha llamado la atención en el mundo de Tipsik
es que lo ha logrado desarrollar
ya no sólo con una inversión mucho menor que el de sus competidores,
sino que encima parece ser que lo ha hecho en muy poco tiempo.
Todo esto ha venido también condicionado por Estados Unidos
ya que impuso unas restricciones a la exportación de chips de inteligencia artificial a China
ya que lo consideraba como un bien estratégico.
Sin embargo, estos han logrado desarrollar sus modelos
utilizando chips de menor capacidad,
lo que ha puesto en entredicho la efectividad de las restricciones estadounidenses.
Aquí voy a hacer un paréntesis
y se está hablando que por un lado existe la duda
de si realmente los chinos se han hecho con chips más potentes
y no lo dicen,
y por otro lado se plantea si realmente no se ha optimizado
o no se ha desarrollado en tan poco tiempo.
Pero el caso es que ellos se han expuesto con código abierto
para que cualquiera pueda verlo,
explorarlo, estudiarlo y utilizarlo,
entonces deja la ventana abierta
a confirmar que realmente esto se ha hecho así.
¿Cómo lo han conseguido?
Pues lo han hecho mediante la optimización del software y algoritmos.
DeepSeek ha desarrollado algoritmos y técnicas de software
altamente eficientes que permiten aprovechar al máximo
la capacidad de procesamiento de cada uno de los chips.
Esto implica escribir código optimizado,
utilizar las bibliotecas de software especializadas
y ajustar los parámetros de los modelos
para que funcionen de manera óptima en ese hardware disponible.
Se dice, se rumorea,
se sobreentiende con el estudio de ese código abierto
que esto ha sido gracias a que han accedido al código máquina
de los mismos chips,
consiguiendo así un nivel de optimización absoluto.
Es decir, se exaltan el propio sistema operativo
de cada uno de los chips o de las tarjetas
para poder programarlas ellos mismos
y sacarle mucho más rendimiento.
¿Pero cómo lo han conseguido a nivel de software?
Pues lo han logrado gracias al desarrollo de sus modelos,
utilizando una serie de innovaciones en los algoritmos
y optimizando la capacidad de estos.
Han utilizado técnicas como la destilación,
el aprendizaje por refuerzo
y la compresión de ventana de contexto.
Les vamos a poner un poco en plan turra,
a ver si lo podemos entender un poquito todos
o por lo menos os lo voy a intentar transmitir
como he sido yo capaz de entenderlo.
Imagina que tienes un profesor experto,
en este caso un modelo de IA grande y complejo,
que posee un vasto conocimiento.
La destilación de ese conocimiento se produciría
si ese profesor tomara toda su sabiduría
y la resumiera en lecciones más sencillas para un estudiante,
un modelo de IA más pequeño y manejable.
En términos técnicos, se entrena un modelo grande
para realizar una tarea compleja.
Luego, este modelo se utiliza para generar datos de entrenamiento
para otro modelo más pequeño.
Y el modelo pequeño aprende del conocimiento del modelo grande,
pero al ser más pequeño, ¿qué ocurre?
Que es más rápido y más eficiente.
Es decir, troceamos, te lo doy poquito a poco,
lo vas entendiendo y luego ya tienes
en principio todo ese conocimiento.

Comments of DEEPSEEK VS EL MUNDO
This program does not accept anonymous comments. Sign up to comment!