Anthropic frena el lanzamiento público de Claude Mythos por riesgos de seguridad
Anthropic ha desarrollado un nuevo modelo llamado Claude Mythos, pero decidió no lanzarlo públicamente debido a serias preocupaciones de seguridad.
Anthropic ha desarrollado un nuevo modelo llamado Claude Mythos, pero decidió no lanzarlo públicamente debido a serias preocupaciones de seguridad.
Anthropic ha suavizado una política clave de seguridad, alegando la necesidad de mantener su competitividad. Al mismo tiempo, la empresa está bajo presión del Pentágono, que exige permiso para utilizar la IA en la vigilancia de ciudadanos estadounidenses y en la creación de armas autónomas.
La startup china de IA Deepseek habría entrenado su modelo más reciente utilizando los chips Blackwell de Nvidia, los más potentes de la compañía, a pesar de las restricciones de exportación de Estados Unidos. Así lo informa Reuters, citando a un alto funcionario de la administración Trump, quien señaló que el modelo podría publicarse tan pronto como la próxima semana. Los rumores sobre contrabando de chips ya habían surgido a finales del año pasado.
La investigadora de seguridad de Meta AI, Summer Yue, encargó al agente de IA OpenClaw que limpiara su bandeja de entrada saturada, decidiendo qué correos eliminar y cuáles archivar. En lugar de eso, el agente comenzó a borrar correos de forma indiscriminada y a gran velocidad, e ignoró los comandos de detención enviados desde su teléfono.
Anthropic afirma haber detectado ataques de destilación a gran escala contra Claude por parte de laboratorios chinos de IA como DeepSeek, Moonshot y MiniMax. En la destilación, un modelo más débil se entrena con las salidas de uno más potente. Según Anthropic, más de 24.000 cuentas falsas generaron más de 16 millones de solicitudes, enfocadas en las fortalezas de Claude, como razonamiento, programación y uso de herramientas. La empresa también sostiene que estos laboratorios utilizaron servicios proxy para eludir restricciones de acceso relacionadas con China.
NewsGuard evaluó si los bots de audio — ChatGPT Voice (OpenAI), Gemini Live (Google) y Alexa+ (Amazon) — reproducen afirmaciones falsas en respuestas de audio realistas. Este tipo de contenido puede compartirse fácilmente en redes sociales y ser utilizado para difundir desinformación
El protocolo de préstamos Moonwell perdió 1,78 millones de dólares debido a un error en la configuración de un oráculo. El auditor de contratos inteligentes Pashov vinculó el incidente al llamado vibe coding mediante Claude Opus 4.6.
SpaceX, la empresa aeroespacial de Elon Musk, y su recientemente creada filial de inteligencia artificial xAI participan en un nuevo concurso clasificado del Pentágono para desarrollar enjambres de drones autónomos con control por voz, según informa Bloomberg, citando fuentes.
Las organizaciones de Hollywood han criticado duramente al generador de video con IA Seedance 2.0, calificándolo como una herramienta que “rápidamente se ha convertido en un vehículo de flagrante infracción de derechos de autor”.
El Ejército de Estados Unidos utilizó Claude de Anthropic en una operación para capturar al presidente de Venezuela, Nicolás Maduro, según informa The Wall Street Journal, citando fuentes.