Tencent usó a Claude para entrenar su nueva IA rival Hy3

Tencent usó a Claude para entrenar su nueva IA rival Hy3

Tencent utilizó el chatbot Claude de Anthropic para ajustar su nuevo modelo open-source Hy3 de 295 mil millones.

Por Humberto Toledo el 28 abril, 2026 a las 15:30 PDT

✨︎ Resumen (TL;DR):

  • Empleados de Tencent utilizaron la tecnología de Claude para perfeccionar su reciente modelo de lenguaje abierto.
  • El modelo Hy3 cuenta con 295 mil millones de parámetros y alcanzó 74.4% en la evaluación técnica SWE-bench Verified.
  • La revelación revive el debate sobre el uso ilícito de tecnología rival, ya que Anthropic prohíbe entrenar a la competencia.

Un reporte de The Information publicado este martes reveló que empleados de Tencent utilizaron el chatbot Claude, desarrollado por Anthropic, para afinar los detalles de su nuevo modelo de inteligencia artificial Hy3. El caso reactiva las alertas sobre el uso de sistemas estadounidenses para entrenar productos competidores desde China.

Tencent lanzó la versión preview de Hy3 como código abierto el pasado 23 de abril. Distintos desarrolladores reportan evaluaciones positivas sobre el software, y atribuyen parte de esta mejora de rendimiento a la participación directa de la tecnología de Anthropic.

Hy3 es un modelo tipo Mixture-of-Experts que opera con 295 mil millones de parámetros, pero activa únicamente 21 mil millones por cada token. La arquitectura soporta una ventana de contexto de 256K y se construyó sobre una infraestructura de preentrenamiento y aprendizaje por refuerzo reestructurada en febrero de 2026.

Yao Shunyu, exinvestigador de OpenAI reclutado por Tencent, lideró el proyecto. El equipo logró llevar la IA desde cero hasta su lanzamiento open-source en menos de tres meses.

En la prueba de ingeniería de software SWE-bench Verified, la IA registró una puntuación de 74.4%, un incremento claro frente al 53% que obtuvo la versión anterior Hy2. La compañía ya ofrece el modelo mediante su propia plataforma en la nube y a través de Hugging Face.

Bancos en alerta por la IA hacker Claude Mythos de Anthropic
Te podría interesar:
Bancos en alerta por la IA hacker Claude Mythos de Anthropic
Fotos de stock gratuitas de ambiente nocturno, arquitectura, arte callejero
Foto: 征宇 郑 / Pexels

El problema de la destilación a escala industrial

La intervención de Claude ocurre en un ecosistema de alta presión para las empresas de hardware y software:

  • En febrero, Anthropic acusó a las firmas chinas DeepSeek, Moonshot AI y MiniMax de ejecutar campañas de destilación a “escala industrial”.
  • Estas compañías generaron más de 16 millones de interacciones contra Claude utilizando cerca de 24,000 cuentas fraudulentas.
  • Anthropic advirtió que la destilación ilícita elimina los protocolos de seguridad de los modelos y genera un riesgo directo para la seguridad nacional.

Todavía se desconoce si la táctica de Tencent constituye una violación formal a los términos de servicio o si califica como uso permitido. Las políticas de Anthropic prohíben estrictamente que sus competidores empleen los resultados de Claude para entrenar modelos rivales, además de que sus servicios están restringidos en territorio chino.

El cruce tecnológico expone una red compleja donde un gigante tech de China absorbe propiedad intelectual de una compañía de seguridad en IA de Estados Unidos. Tencent ahora enfrenta el posible escrutinio de los reguladores estadounidenses, mientras Anthropic evalúa si sus contratos de uso tienen peso real para frenar la fuga de información.

Fuentes: 1, 2, 3

+ Temas Relacionados

Más de AI

Feed