Última actualización: 23/02/2026

En una de las controversias más relevantes de 2026 en el sector de la inteligencia artificial, Anthropic acusa a laboratorios de IA chinos. Esto ha captado la atención de la industria tecnológica global. La empresa estadounidense Anthropic, desarrolladora del modelo de lenguaje Claude, denunció públicamente que al menos tres compañías chinas habrían accedido de manera masiva a su sistema para extraer respuestas y así mejorar sus propias IA, utilizando técnicas que Anthropic considera una violación de sus términos de servicio y una amenaza para la competitividad tecnológica occidental.
Detalles de que Anthropic acusa a laboratorios de IA chinos: cuentas falsas y distilación de modelos
La acusación se centra en que tres laboratorios chinos —DeepSeek, Moonshot AI y MiniMax— crearon más de 24 000 cuentas fraudulentas para interactuar con Claude, el avanzado sistema de inteligencia artificial de Anthropic, con el objetivo de generar más de 16 millones de intercambios que serían luego usados para mejorar sus propios modelos.
El método presuntamente empleado se basa en una técnica conocida como “distillation” (destilación de modelos). Este proceso consiste en entrenar un modelo menos avanzado sobre las salidas generadas por un modelo más potente, lo que permite —en teoría— replicar capacidades sin contar con los mismos recursos computacionales ni datos de entrenamiento originales. Es una práctica que, aunque legítima en ciertos contextos de investigación interna, se convierte en objeto de controversia cuando se utiliza para adquirir capacidades de un rival sin autorización expresa.
Anthropic alega que las campañas estaban dirigidas específicamente a extraer las capacidades más avanzadas de Claude, incluyendo razonamiento complejo, uso de herramientas y funciones de programación, aspectos en los que la firma considera que su sistema tiene una ventaja competitiva.
Cifras y alcance de la supuesta campaña
La empresa estadounidense afirma que las interacciones generadas por los laboratorios chinos con Claude no fueron aisladas, sino que constituyeron una operación a gran escala. Según Anthropic, la técnica utilizada no solo permitía simular perfiles de usuario legítimos, sino que también violaba los términos de servicio y las barreras de acceso regionales que restringen el uso del modelo para fines que no sean aquellos estipulados por la compañía.
Las cifras citadas por Anthropic —más de 16 millones de consultas generadas desde 24 000 cuentas— sugieren un esfuerzo sistemático de extracción de información, lo que la compañía considera no solo una práctica desleal, sino una forma de “acelerar el desarrollo de capacidades competitivas” a una fracción del costo y tiempo que se requeriría con desarrollo propio.
Repercusiones técnicas y legales en la industria
La acusación de Anthropic se produce además en un contexto más amplio de tensiones tecnológicas entre Estados Unidos y China, donde el acceso a chips avanzados, datos y talento especializado se ha convertido en un punto de fricción geopolítica. Parte de las críticas de Anthropic incluyen que esta práctica de distilación, si quedase sin control, podría minar los esfuerzos de regulación internacional y desacelerar la innovación responsable.
El debate se intensifica cuando se considera que otros gigantes de la IA como OpenAI también han acusado a DeepSeek y otras entidades de aprovechar respuestas de sus modelos para entrenar sistemas competidores sin autorización. Esta dinámica, según analistas, podría influir en cómo se diseñen futuras políticas y acuerdos de exportación de tecnología entre bloques tecnológicos rivales.
Qué es la distilación de modelos y por qué genera controversia
La distilación de modelos es una técnica reconocida en el ámbito de la inteligencia artificial que permite crear versiones más ligeras o eficientes de modelos complejos mediante el uso de datos generados por sistemas de mayor capacidad. Su aplicación dentro de un mismo equipo de investigación suele ser legítima y útil, ya que contribuye a ahorrar recursos y acelerar implementaciones de IA.
Sin embargo, cuando esta técnica se aplica sin permiso sobre modelos de terceros con propiedad intelectual protegida, como Anthropic sostiene que ocurrió, se genera una zona gris legal y ética. Esto se vuelve especialmente sensible cuando las capacidades extraídas incluyen funciones avanzadas que las empresas han desarrollado tras inversiones significativas de tiempo, talento y capital.
Posiciones de las partes implicadas y respuestas públicas
Hasta el momento de redactar esta noticia, ninguna de las tres compañías chinas mencionadas —DeepSeek, Moonshot AI y MiniMax— ha emitido una respuesta oficial detallada a la acusación pública de Anthropic, según informes de medios de alcance internacional. Por su parte, Anthropic ha argumentado que si esta práctica se generaliza, podría representar riesgos no solo comerciales sino de seguridad debido a la falta de mecanismos de seguridad y alineación que empresas como Anthropic aplican a sus modelos.
El contexto geopolítico de estas acusaciones también ha intensificado los debates sobre exportaciones de chips de IA y restricciones a la transferencia de tecnologías avanzadas, impulsando a algunos legisladores en Washington a considerar controles más estrictos sobre hardware y software de inteligencia artificial con el objetivo de preservar ventajas competitivas.
Implicaciones para el futuro de la IA global
La acusación de Anthropic a laboratorios de IA chinos marca un punto de inflexión en la conversación sobre los límites entre competencia tecnológica legítima y prácticas que pueden considerarse apropiación indebida de conocimiento técnico. Más allá de la disputa legal o reglamentaria, esta controversia revela la importancia de definir normas claras de uso de modelos de inteligencia artificial y de manejo de datos generados por estos sistemas.
A medida que las capacidades de los modelos de IA se vuelven centrales para sectores tan diversos como la automatización industrial, la investigación científica y la defensa cibernética, este tipo de enfrentamientos entre actores globales puede sentar precedentes sobre cómo se protegen, comparten o regulan tecnologías clave en la próxima década.
Fuentes
Esta noticia se basa en información de fuentes confiables:
- Fuente original: The Verge
- Verificación: Contenido verificado y ampliado.
