La nueva guía de Anthropic no presenta las skills como un truco para personalizar Claude, sino como una capa operativa para empaquetar procesos, instrucciones y conocimiento reutilizable en Claude.ai, Claude Code y la API.
Anthropic ha publicado un documento que, leído con calma, dice bastante más sobre hacia dónde quiere llevar Claude que muchas notas de producto. The Complete Guide to Building Skills for Claude, un PDF de 33 páginas distribuido desde los recursos oficiales de la compañía, no es solo una chuleta para usuarios avanzados: es, en realidad, una declaración de intenciones sobre cómo Anthropic imagina la siguiente fase de uso de los modelos. Ya no se trata únicamente de conversar con una IA generalista ni de pedirle tareas sueltas. La apuesta es otra: encapsular procedimientos, estilo, criterios de calidad y secuencias de trabajo en “skills” reutilizables, capaces de activarse cuando el contexto lo requiere y de convertir a Claude en un sistema más consistente, menos dependiente del prompting improvisado y más cercano a una herramienta operativa de verdad.
La idea de skill, tal y como la define Anthropic, es aparentemente simple. Una skill es una carpeta que contiene un archivo principal, SKILL.md, y opcionalmente scripts ejecutables, referencias documentales y activos como plantillas, iconos o recursos de salida. Pero esa simplicidad formal esconde una ambición mayor: enseñar a Claude una manera estable de abordar tareas o flujos específicos sin tener que reexplicarlo en cada conversación. La compañía lo plantea con ejemplos muy concretos: generar diseños frontend a partir de especificaciones, hacer investigación con una metodología consistente, producir documentos alineados con una guía de estilo o coordinar procesos de varios pasos. En otras palabras, Anthropic quiere que Claude deje de depender tanto del talento puntual del usuario para redactar prompts y empiece a trabajar con “recetas” reutilizables.
Ese matiz importa porque desplaza el valor desde el modelo puro hacia la organización del trabajo alrededor del modelo. El documento insiste en que las skills son especialmente potentes cuando existen procesos repetibles. Y esa palabra, repetibles, es la clave. Durante mucho tiempo, la IA generativa se ha vendido por su flexibilidad casi ilimitada. El problema de esa flexibilidad es la inconsistencia. Dos usuarios pueden pedir lo mismo de maneras distintas y obtener resultados estructuralmente diferentes. Incluso el mismo usuario puede tener que ir corrigiendo a la herramienta en cada sesión. La guía de Anthropic intenta resolver justamente ese cuello de botella: convertir experiencia tácita, preferencias y conocimiento de dominio en una estructura que Claude pueda cargar y aplicar de forma recurrente.
La parte más interesante del documento no es, sin embargo, la definición básica, sino el modelo de diseño que propone. Anthropic articula las skills a partir de un sistema de “progressive disclosure” en tres niveles. El primero es el frontmatter YAML, siempre cargado en el prompt de sistema de Claude y destinado a decirle, con el mínimo coste de contexto posible, cuándo una skill es relevante. El segundo es el cuerpo completo de SKILL.md, que se carga cuando Claude considera que la skill puede servir para la tarea en cuestión. El tercero son los archivos enlazados dentro de la carpeta, que Claude puede consultar solo si los necesita. Esta arquitectura no es un detalle técnico menor: responde a una de las obsesiones estructurales del trabajo con modelos, la gestión del contexto. Anthropic está diciendo, en la práctica, que personalizar bien no consiste en meter todo el conocimiento dentro del prompt, sino en dosificarlo con precisión.
Esa lógica de descarga progresiva conecta además con otra idea de fondo: la composabilidad. La guía insiste en que Claude puede cargar varias skills simultáneamente y que, por tanto, cada una de ellas debe diseñarse para convivir con otras, no para comportarse como si fuera la única capa de especialización disponible. Es una señal relevante porque revela que Anthropic no concibe las skills como macros aisladas, sino como módulos de comportamiento que pueden combinarse. En términos de producto, eso acerca a Claude a una plataforma de capacidades ensamblables. En términos de uso profesional, acerca el modelo a algo más robusto que un chatbot: una superficie de trabajo donde la experiencia se empaqueta, se activa y se coordina.
La guía también deja claro que Anthropic no está pensando solo en usuarios individuales. El documento se dirige expresamente a desarrolladores, usuarios avanzados y equipos que quieren estandarizar cómo Claude trabaja dentro de una organización. Esa vocación empresarial atraviesa todo el PDF. Cuando la compañía explica para quién es la guía, cuando habla de documentos con estilo de equipo, cuando plantea procesos multi-step o cuando recomienda métricas de éxito para comprobar si la skill se activa en el 90% de las consultas relevantes, está dibujando una herramienta para la normalización operativa. El mensaje implícito es nítido: la ventaja competitiva no vendrá solo de usar IA, sino de institucionalizar la forma en que esa IA trabaja.
Uno de los apartados más útiles del documento es el de planificación y diseño. Anthropic recomienda empezar no por el código, sino por dos o tres casos de uso concretos. La guía propone describir el disparador, los pasos del flujo, las herramientas necesarias y el resultado esperado. Parece una obviedad, pero ahí hay una pequeña corrección al entusiasmo típico del sector. Muchas implementaciones de IA fracasan porque parten del deseo de “hacer algo con IA” antes de concretar qué tarea se quiere resolver y cómo debería verse un buen resultado. Anthropic fuerza el movimiento inverso: primero el flujo, luego la skill. Y a partir de ahí clasifica los usos más comunes en tres categorías: creación de documentos y activos, automatización de flujos de trabajo y mejora de integraciones MCP. Esa taxonomía es interesante porque cubre casi todo el mapa actual de adopción útil de modelos generativos.
En la primera categoría, la de documentos y activos, la guía pone el foco en crear salidas consistentes y de alta calidad: documentos, presentaciones, aplicaciones, diseños o código. Ahí la skill actúa como contenedor de estilo, estructura y control de calidad. En la segunda, la de automatización de flujos, se trabaja sobre procesos de varios pasos que se benefician de una metodología estable, con validaciones, plantillas y refinamiento iterativo. En la tercera, la de mejora de MCP, la skill se entiende como la capa de conocimiento que enseña a Claude a usar una integración externa con criterio y buenas prácticas. Esta clasificación tiene una lectura estratégica clara: Anthropic no quiere que las skills se entiendan como una función marginal, sino como una interfaz para convertir herramientas, conectores y conocimiento interno en trabajo repetible de alto valor.
El documento resulta especialmente revelador cuando entra en los requisitos técnicos. Anthropic reduce la estructura mínima a lo esencial: una carpeta con nombre en kebab-case y un SKILL.md llamado exactamente así, con mayúsculas y minúsculas correctas. No admite variantes. También prohíbe incluir un README.md dentro de la carpeta de la skill y concentra toda la lógica documental en SKILL.md o en references/. Parece una norma trivial, pero forma parte de una obsesión visible en toda la guía: minimizar ambigüedad y evitar convenciones blandas. La IA funciona mejor cuando el entorno es más determinista, y Anthropic está diseñando sus skills con esa filosofía.
Más importante aún es el peso que la compañía da al frontmatter YAML. La guía lo llama directamente “the most important part”. Tiene sentido: esa pequeña pieza de metadatos es la que permite a Claude decidir si debe cargar o no una skill. Anthropic exige dos campos obligatorios, name y description, y subraya que la descripción debe contener tanto lo que hace la skill como cuándo debe utilizarse, incluyendo frases o tareas que un usuario podría mencionar. También fija restricciones de seguridad, como la prohibición de etiquetas XML en el frontmatter y el veto a usar “claude” o “anthropic” en el nombre de la skill por tratarse de términos reservados. La razón es explícita: ese frontmatter aparece en el prompt del sistema, por lo que contenido malicioso podría inyectar instrucciones. Esta parte del PDF tiene un valor adicional porque muestra hasta qué punto Anthropic ve las skills no solo como una función de productividad, sino como una superficie nueva de seguridad y gobernanza del comportamiento del modelo.
La guía insiste además en la importancia de escribir instrucciones específicas y accionables. Frente a fórmulas vagas como “valida los datos antes de proceder”, Anthropic propone instrucciones del tipo “ejecuta python scripts/validate.py --input {filename}” y enumera errores comunes, causas y soluciones. El mensaje de fondo es contundente: cuanto más crítica sea una validación, menos conviene dejarla en manos de una interpretación puramente lingüística. De hecho, el documento llega a recomendar que, para comprobaciones importantes, se empaqueten scripts programáticos, porque el código es determinista y el lenguaje no. Esta recomendación es una de las más reveladoras del texto. Anthropic reconoce, implícitamente, que el lenguaje natural no basta como capa de control cuando el flujo requiere fiabilidad real.
Otro punto fuerte del PDF es que no se queda en la escritura de instrucciones, sino que dedica un bloque a pruebas e iteración. La guía propone medir el éxito con criterios cuantitativos y cualitativos: que la skill se active en el 90% de las consultas relevantes, que complete el flujo con menos llamadas a herramientas, que no haya errores de API, que el usuario no tenga que indicar continuamente el siguiente paso o que los resultados sean consistentes entre sesiones. Anthropic admite que parte de esta evaluación sigue siendo algo aproximada, incluso “vibes-based”, pero el simple hecho de incluir métricas ya supone una señal de madurez. El objetivo no es solo construir skills; es tratarlas como artefactos que pueden evaluarse, compararse y mejorarse.
En el apartado de distribución y uso programático, la compañía abre otra pista estratégica. La guía explica que las skills pueden gestionarse a través del endpoint /v1/skills, añadirse a solicitudes de la Messages API mediante container.skills y utilizarse con el Claude Agent SDK. También aclara que, para uso por API, las skills requieren la beta de Code Execution Tool, el entorno seguro en el que pueden ejecutarse. Esta sección es importante porque sitúa las skills fuera del perímetro puramente interactivo de Claude.ai o Claude Code. Anthropic no las concibe solo para el usuario que trabaja manualmente, sino también para aplicaciones, agentes y despliegues productivos a escala. Eso las convierte en una pieza de infraestructura más que en un mero atajo de usuario avanzado.
La recomendación práctica que acompaña esta parte también es significativa. Anthropic sugiere alojar las skills en GitHub con repositorios públicos, README claro para humanos, ejemplos de uso y capturas, y enlazarlas desde la documentación del MCP correspondiente. Hay aquí una intención clara de ecosistema. Las skills no se quedan dentro de Claude: pueden convertirse en objetos distribuibles, versionables y comunitarios. Esa orientación encaja con la estrategia más amplia de Anthropic de fomentar capas de conocimiento reutilizable alrededor del modelo. Si los prompts eran conocimiento tácito y efímero, las skills aspiran a ser conocimiento portable, mantenible y compartible.
Donde el documento gana más profundidad es en la sección de patrones. Anthropic describe estrategias como el refinamiento iterativo, la selección de herramientas según el contexto o la incorporación de inteligencia específica de dominio. El patrón de refinamiento iterativo, por ejemplo, propone generar un primer borrador, validarlo con scripts, detectar errores y repetir el ciclo hasta alcanzar un umbral de calidad. El de selección contextual de herramientas plantea decidir entre almacenamiento en nube, documentos colaborativos, GitHub o almacenamiento local según tipo y tamaño del archivo. El de inteligencia de dominio muestra cómo una skill puede incorporar reglas de cumplimiento financiero antes de ejecutar un pago. Estos ejemplos revelan algo esencial: Anthropic no está enseñando solo a “hacer prompts largos”, sino a diseñar comportamiento procedural con criterios de decisión, validación y contexto.
También merece atención el apartado de troubleshooting, porque muestra dónde cree Anthropic que van a romperse estas implementaciones en el mundo real. La guía enumera problemas de skills que no cargan, instrucciones que no se siguen, lenguaje ambiguo, nombres de herramientas MCP incorrectos, exceso de contexto y degradación de rendimiento. Entre las recomendaciones destaca una especialmente práctica: mantener SKILL.md por debajo de 5.000 palabras, mover el detalle a references/ y evitar habilitar demasiadas skills simultáneamente, con una mención explícita a revisar si se está por encima del rango de 20 a 50 skills activas a la vez. Es una observación casi de ingeniería de sistemas: la personalización mal diseñada también puede sobrecargar el modelo.
Todo esto permite leer la guía desde una perspectiva más amplia. Anthropic está empujando una transición desde el uso ad hoc de la IA hacia una lógica de estandarización operativa. Las skills son, en esencia, la institucionalización del prompting. Recogen lo que antes estaba disperso en mensajes, notas internas o memoria individual y lo convierten en una estructura reusable. Para equipos, esto significa preservación de conocimiento. Para desarrolladores, significa encapsular flujos. Para el ecosistema, significa empezar a construir encima del modelo una capa intermedia de procedimientos compartidos. Y para Anthropic, probablemente, significa algo aún mayor: fijar a Claude como entorno donde no solo se conversa, sino donde se empaqueta y ejecuta trabajo especializado.
Esa es la verdadera importancia del PDF. No porque tenga 33 páginas ni porque enumere reglas de nomenclatura, sino porque deja ver una dirección de producto muy clara. Si los modelos se commoditizan cada vez más en capacidades básicas, la diferenciación empieza a desplazarse hacia la facilidad para capturar flujos, distribuirlos y activarlos de forma confiable. Anthropic está intentando que Claude gane terreno precisamente ahí: en la transformación de conocimiento operativo en componentes utilizables. La skill ya no es solo una personalización. Es una unidad de trabajo empaquetada. Y, en un mercado donde la utilidad real vale más que la espectacularidad de una demo, esa capa puede terminar siendo mucho más decisiva de lo que parece.