Según el monitoreo de 1M AI News, el fin de semana pasado, Anthropic prohibió el uso de herramientas de terceros como OpenClaw para suscriptores de Claude; la forma en que su mecanismo de detección de abuso funciona ha provocado una nueva ronda de controversia.
El fundador de OpenClaw, Peter Steinberger, realizó un experimento el 5 de abril en X: no usó OpenClaw, sino que envió una solicitud normal usando el parámetro -p de la propia herramienta de línea de comandos de Claude (una interfaz de automatización integrada que permite a los desarrolladores llamar a Claude en lotes mediante scripts, sin necesidad de introducirlo manualmente una por una). La única “infracción” fue haber escrito una frase en el prompt del sistema: “A personal assistant running inside OpenClaw”. Como resultado, Claude se bloqueó de inmediato y mostró que las aplicaciones de terceros deben descontar el cobro por un uso adicional. En otras palabras, el sistema de detección no determina con qué herramienta real el usuario llama a Claude; en su lugar, escanea el contenido del prompt y, al ver “OpenClaw”, lo bloquea.
El CEO de Y Combinator, Garry Tan, reenviò la acusación con una pregunta: «¿Cuándo se detendrá la ofensiva? ¿Anthropic solo considera como uso de suscripción si una persona real presiona Enter? ¿A partir de ahora habrá que usar FaceID para verificar?»
El responsable de Claude Code, Boris Cherny, respondió el 7 de abril diciendo que el equipo considera que esto fue un disparo excesivo del sistema de detección de abuso y que están investigando y reparando el problema, mientras mejoran los términos de uso del parámetro -p.