Anthropic frena el lanzamiento público de Claude Mythos por riesgos de seguridad
Anthropic ha desarrollado un nuevo modelo llamado Claude Mythos, pero decidió no lanzarlo públicamente debido a serias preocupaciones de seguridad.
Anthropic ha desarrollado un nuevo modelo llamado Claude Mythos, pero decidió no lanzarlo públicamente debido a serias preocupaciones de seguridad.
El director ejecutivo de Anthropic, Dario Amodei, ha reafirmado la postura de la empresa en una declaración pública.
Anthropic ha suavizado una política clave de seguridad, alegando la necesidad de mantener su competitividad. Al mismo tiempo, la empresa está bajo presión del Pentágono, que exige permiso para utilizar la IA en la vigilancia de ciudadanos estadounidenses y en la creación de armas autónomas.
Anthropic está ampliando las capacidades de trabajo agéntico de Claude, permitiendo que el modelo cambie de forma autónoma entre Excel y PowerPoint —por ejemplo, realizar un análisis en una hoja de cálculo y convertirlo directamente en una presentación.
La startup china de IA Deepseek habría entrenado su modelo más reciente utilizando los chips Blackwell de Nvidia, los más potentes de la compañía, a pesar de las restricciones de exportación de Estados Unidos. Así lo informa Reuters, citando a un alto funcionario de la administración Trump, quien señaló que el modelo podría publicarse tan pronto como la próxima semana. Los rumores sobre contrabando de chips ya habían surgido a finales del año pasado.
OpenAI ha anunciado dos actualizaciones de su API dirigidas a desarrolladores. El nuevo modelo gpt-realtime-1.5 para la Realtime API está diseñado para ejecutar comandos de voz de forma más fiable. Según pruebas internas de OpenAI, la precisión en la transcripción de números y letras mejoró en más de un 10%, el rendimiento en tareas lógicas de audio aumentó un 5% y el seguimiento de instrucciones creció un 7%. El modelo de audio subyacente también fue actualizado a la versión 1.5.
Meta y AMD han cerrado una alianza plurianual que cubre hasta seis gigavatios de GPUs de AMD, con un claro enfoque en inferencia de IA. El acuerdo incluye además un componente accionarial poco habitual y busca reducir la dependencia de Meta de un único proveedor de chips.
Anthropic acusó a tres startups chinas de IA — DeepSeek, Moonshot y MiniMax — de ejecutar una campaña a gran escala para usar las salidas de Claude y mejorar sus propios modelos. Según la empresa, estos grupos generaron más de 16 millones de interacciones a través de unas 24.000 cuentas fraudulentas, violando las condiciones de uso y las restricciones regionales.
La investigadora de seguridad de Meta AI, Summer Yue, encargó al agente de IA OpenClaw que limpiara su bandeja de entrada saturada, decidiendo qué correos eliminar y cuáles archivar. En lugar de eso, el agente comenzó a borrar correos de forma indiscriminada y a gran velocidad, e ignoró los comandos de detención enviados desde su teléfono.
OpenAI afirma que el benchmark de programación SWE-bench Verified ha perdido gran parte de su valor como indicador fiable de capacidad para programar. La empresa menciona dos razones principales. En primer lugar, una revisión interna concluyó que al menos el 59,4% de las tareas evaluadas eran defectuosas, ya que las pruebas rechazaban soluciones correctas por exigir detalles específicos de implementación o comprobar funciones no documentadas.