PUNTOS IMPORTANTES:
- Anthropic denuncia que laboratorios chinos utilizaron ilegalmente su Inteligencia Artificial para mejorar sus propios modelos mediante destilación.
- La compañía detectó más de 24.000 cuentas fraudulentas que generaron 16 millones de intercambios en violación de sus términos de servicio.
- Este incidente refuerza los argumentos a favor de los controles de exportación de chips para frenar el avance tecnológico no autorizado.
Anthropic dice que sus competidores chinos están robando a la startup de Inteligencia Artificial para obtener una ventaja en la carrera global de la IA.
El lunes, Anthropic dijo que tres de los laboratorios de IA más grandes de China, DeepSeek, MiniMax y Moonshot AI, estaban usando «ilícitamente» a Claude «para mejorar sus propios modelos«, a través de un proceso conocido como destilación.
«Estas campañas están creciendo en intensidad y sofisticación»
Dijo Anthropic como parte de su extensa declaración del lunes.
El impacto de la destilación ilícita en la Inteligencia Artificial
«La ventana para actuar es estrecha, y la amenaza se extiende más allá de cualquier empresa o región. Abordarlo requerirá una acción rápida y coordinada entre los actores de la industria, los responsables políticos y la comunidad global de IA»
Señaló la empresa.
Anthropic dijo que los esfuerzos de destilación fueron «campañas a escala industrial» que incluyeron aproximadamente 24.000 cuentas fraudulentas de Claude que generaron más de 16 millones de intercambios «en violación de nuestros términos de servicio y restricciones de acceso regional«.
La destilación es el proceso de entrenar un modelo menos potente con la salida de un modelo más potente. La práctica es una forma legítima que muchas empresas de EE. UU. utilizan para entrenar sus modelos para su lanzamiento público. Cada vez más, las principales empresas de EE. UU. también afirman que sus competidores chinos están utilizando incorrectamente la práctica para robar su trabajo.
Competencia desleal y riesgos de seguridad en la Inteligencia Artificial
En enero de 2025, OpenAI dijo que DeepSeek puede haber utilizado «inapropiadamente» los resultados de OpenAI para entrenar sus modelos. A principios de este mes, Google (GOOGL) reveló que había «identificado un aumento en los intentos de extracción de modelos o ‘ataques de destilación‘».
«Los competidores pueden usarlo para adquirir capacidades poderosas de otros laboratorios en una fracción del tiempo, y a una fracción del costo, que tomaría desarrollarlas de forma independiente»
Dijo Anthropic el lunes.
En este entorno de competencia asimétrica y altos costes de desarrollo, la eficiencia en la gestión de carteras tecnológicas se vuelve un factor determinante para el inversor. Plataformas como Quantfury permiten operar acciones de empresas líderes en IA y semiconductores a precios spot reales y sin comisiones de gestión, facilitando el ajuste de posiciones ante la volatilidad que generan estas disputas por la propiedad intelectual y el liderazgo técnico. (Para más información click aquí)
Anthropic reveló detalles notables sobre el grado en que DeepSeek, MiniMax y Moonshot AI utilizaron «ilícitamente» sus sistemas. Claude no está disponible para acceso comercial en China, aunque Anthropic dijo que los laboratorios rivales encontraron soluciones alternativas.
Vigilancia y contramedidas ante el robo de datos
Entre los hallazgos notables, Anthropic dijo que DeepSeek buscó crear «alternativas seguras a la censura para consultas sensibles a las políticas«. La compañía también dijo que detectó la campaña de MiniMax «mientras aún estaba activa«, dándoles una mirada profunda a lo que estaba haciendo su competidor.
«Cuando lanzamos un nuevo modelo durante la campaña activa de MiniMax, ellos pivotaron en 24 horas, redirigiendo casi la mitad de su tráfico para capturar capacidades de nuestro último sistema»
Dijo Anthropic.
Los representantes de DeepSeek, MiniMax y Moonshot AI no respondieron de inmediato a la solicitud de comentarios de Business Insider.
Riesgos biológicos y controles de exportación en la Inteligencia Artificial
Más allá de hacer trampa en la IA, Anthropic dijo que la destilación inadecuada plantea riesgos de seguridad porque los modelos menos entrenados pueden carecer de las salvaguardas adecuadas, como las destinadas a prevenir el desarrollo de armas biológicas.
En respuesta a tales campañas de destilación, Anthropic dijo que ha construido «sistemas de huellas dactilares de comportamiento«, comparte datos con otras empresas de IA sobre qué buscar y continúa desarrollando contramedidas adicionales.
El CEO de Anthropic, Dario Amodei, escribió recientemente que los modelos líderes se están acercando al punto en que, sin las salvaguardas adecuadas, podrían ayudar a dirigir a alguien en la construcción de un arma biológica.
El debate sobre los chips y el pasado de Anthropic
Amodei también es un defensor abierto de los controles de exportación de EE. UU., un tema que divide a algunos de los principales directores ejecutivos tecnológicos. El CEO de Nvidia (NVDA) ha dicho repetidamente que restringir a las empresas de EE. UU., incluida la suya, de vender chips avanzados a China no frenará los avances de IA de China.
«Los ataques de destilación, por lo tanto, refuerzan la lógica de los controles de exportación: el acceso restringido a los chips limita tanto el entrenamiento directo del modelo como la escala de la destilación ilícita»
Dijo Anthropic.
Anthropic también ha enfrentado acusaciones de usar material con derechos de autor para entrenar sus modelos. En enero, el Washington Post informó nuevos detalles sobre un esfuerzo en la empresa llamado Proyecto Panamá, que la empresa supuestamente describió como «nuestro esfuerzo por escanear destructivamente todos los libros del mundo«. El año pasado, Anthropic resolvió una demanda colectiva presentada por los autores y editores de algunos de los libros por 1.500 millones de dólares. Como parte del acuerdo, la empresa no admitió ninguna irregularidad.
FAQs
Anthropic afirma que empresas como DeepSeek y MiniMax utilizan «destilación ilícita» para entrenar sus propios modelos usando las respuestas de Claude. Este proceso les permite obtener capacidades avanzadas en una fracción del tiempo y costo que requiere el desarrollo original.
La operación involucró aproximadamente 24.000 cuentas fraudulentas que generaron más de 16 millones de intercambios de datos en violación de los términos de servicio. Anthropic detectó que los competidores eran capaces de pivotar sus ataques en menos de 24 horas tras el lanzamiento de nuevos sistemas.
El robo de modelos permite evadir salvaguardas críticas, aumentando el riesgo de que la IA sea utilizada para desarrollar armas biológicas sin supervisión. Además, estos ataques refuerzan la lógica de los controles de exportación de chips para limitar la escala de procesamiento de los actores infractores.
Descargo de responsabilidad: Toda la información encontrada en Bitfinanzas es dada con la mejor intención, esta no representa ninguna recomendación de inversión y es solo para fines informativos. Recuerda hacer siempre tu propia investigación.














