Brecha de seguridad Crítica en DeepSeek
San Francisco, California— ¡Atención, entusiastas de la tecnología! Una investigación de la firma de seguridad Wiz ha destapado una brecha de seguridad crítica en DeepSeek, la empresa china que está dando de qué hablar en el mundo de la inteligencia artificial.
Resulta que una base de datos de DeepSeek, ¡con información ultra secreta!, estaba totalmente expuesta al público y, lo que es peor, ¡completamente controlable! 😲
Según wiz, esta base de datos, una instancia de ClickHouse, era como una casa sin candado: «completamente abierta y sin autenticación». Imaginen esto: más de un millón de registros con historial de chats, datos internos y otra info sensible como flujos de registro, claves API y detalles operativos.¡Una interfaz web abierta daba control total y permitía escalar privilegios! 😱
«Si bien la seguridad en la IA suele centrarse en amenazas futuristas, los peligros reales a menudo son fallos básicos, como la exposición accidental de bases de datos», comenta Gal Nagli de Wiz en su blog. «A medida que adoptamos herramientas de IA de nuevas empresas, ¡ojo!, confiamos datos sensibles. La rapidez a veces nos hace olvidar la seguridad, pero proteger los datos es clave».
DeepSeek,tras ser notificada por Wiz,blindó las bases de datos en menos de media hora. ¡Pero ojo!,la brecha nos muestra lo vulnerables que son las empresas de IA ante ataques simples con graves consecuencias.
Ami Luttwak, CTO de Wiz, lo dejó claro a WIRED: «Que haya errores es normal, pero este es grave, ¡el acceso era demasiado fácil! significa que el servicio no está listo para usar con datos sensibles».
Similitudes con OpenAI y el Modelo R1
Pero hay más.Los investigadores de Wiz encontraron similitudes entre los sistemas de DeepSeek y OpenAI. ¿A qué viene esto? Pues al modelo R1 de DeepSeek, un modelo de razonamiento simulado que, según DeepSeek, ¡iguala el rendimiento del modelo o1 de openai, pero a menor costo! Esto ha sacudido los mercados tecnológicos y de la IA.
Y por si fuera poco, OpenAI le ha dicho al Financial Times que sospecha que DeepSeek usó sus resultados para entrenar su modelo R1, algo conocido como destilación y que viola sus términos de servicio. OpenAI, ¡en alerta máxima!, planea colaborar con el gobierno de EE. UU. para proteger su modelo.
Conclusión
Esta brecha de seguridad en DeepSeek nos recuerda que la seguridad es crucial en la industria de la IA. No puede ser un detalle secundario cuando desarrollamos y usamos modelos de IA.¡La información confidencial está en juego!
¡Sigue en Tendencias Digitales para estar al tanto de las últimas novedades en tecnología y tendencias digitales! 🚀