AI Architecture Audit: Systematic Assessment of AI-Enabled Systems | Skills Pool
스킬 파일
AI Architecture Audit: Systematic Assessment of AI-Enabled Systems
Audits existing AI system architectures against best practices — structural integrity, AI quality attributes, pattern adherence, anti-pattern detection, security compliance, and technical debt inventory. This skill should be used when the user asks to "audit AI architecture", "review ML system quality", "assess AI technical debt", "evaluate AI compliance", "detect AI anti-patterns", "review AI security posture", or mentions AI architecture review, AI system assessment, AI quality audit, drift monitoring audit, or AI governance review.
JaviMontano0 스타2026. 3. 28.
직업
카테고리
금융 및 투자
스킬 내용
Auditar arquitecturas de sistemas de IA existentes contra mejores prácticas, identificando gaps en calidad,
seguridad, patrones, y deuda técnica. Produce un informe de auditoría con findings categorizados por severidad,
evidencia por cada hallazgo, y un roadmap de remediación priorizado por impacto y urgencia.
Principio Rector
Evidence-based, not opinion-based. Cada finding debe tener evidencia adjunta — código, configuración, métricas, o entrevista. Un hallazgo sin evidencia es una opinión, no un resultado de auditoría.
Severity drives priority, not sequence. No auditar linealmente de arriba a abajo. Empezar por las dimensiones de mayor riesgo para el sistema específico (seguridad en regulados, quality attributes en producción, deuda en sistemas legacy).
Remediation is part of the audit. Un informe que solo lista problemas sin soluciones ejecutables es un documento de quejas. Cada finding incluye patrón de remediación, esfuerzo estimado, y dependencias.
Inputs
관련 스킬
Parámetros:
MODO: [express | standard | deep]
FORMATO: [ejecutivo | técnico | híbrido]
VARIANTE: [structural | quality | security | debt | genai | full]
FOCO: [pipeline | model | serving | monitoring | all]
Detección automática:
- Si existe codebase con ML code → FOCO=all (scan completo)
- Si el input menciona "seguridad" o "compliance" → VARIANTE=security
- Si el input menciona "deuda" o "legacy" → VARIANTE=debt
- Si existe LangChain/LlamaIndex/Bedrock → VARIANTE incluye genai
- Default: MODO=standard, VARIANTE=full, FOCO=all
When to Use
Evaluar la salud arquitectónica de un sistema AI existente antes de escalar
Detectar anti-patrones (Training-Serving Skew, YOLO Deploy, Silent Degradation) en producción
Auditar compliance y seguridad de sistemas AI para requisitos regulatorios
Inventariar deuda técnica específica de AI (model drift, pipeline jungle, feature sprawl)
Evaluar readiness de un sistema AI para migración, upgrade, o modernización
Due diligence técnica de sistemas AI en adquisiciones o partnerships
Preparar un sistema AI para auditoría externa (SOC2, HIPAA, PCI-DSS)
When NOT to Use
Diseñar una nueva arquitectura AI → metodologia-ai-software-architecture
Diseñar pipelines AI nuevos → metodologia-ai-pipeline-architecture
Seleccionar patrones de diseño → metodologia-ai-design-patterns
Definir estrategia de testing → metodologia-ai-testing-strategy
NO genera código de tests — define qué testear (ver metodologia-ai-testing-strategy)
Edge Cases
Sistema sin monitoreo: Muchas métricas de quality attributes serán "desconocidas". El primer finding es "implementar observabilidad básica antes de poder auditar quality attributes".
Sistema legacy sin documentación: La auditoría debe hacer reverse engineering. Aumentar esfuerzo de S1 (structural). Usar import analysis y dependency graphs como fuente primaria de evidencia.
Sistema pre-producción: No hay métricas de producción. Auditar diseño y tests, no runtime. Reducir peso de S2 (quality attributes en producción) y aumentar S3 (pattern adherence) y S4 (security).
Multi-team ownership: Findings pueden cruzar boundaries de equipo. Documentar ownership por finding. Roadmap debe considerar coordinación cross-team.
Post-incident audit: Foco en la cadena causal del incidente. S4 (security) y S2 (quality) tienen prioridad. Remediation roadmap empieza por la causa raíz del incidente.
Validation Gate
Cada finding tiene evidencia etiquetada ([CÓDIGO], [CONFIG], [MÉTRICA], [DOC], [ENTREVISTA], [HERRAMIENTA])
Findings clasificados por severidad (CRITICAL, HIGH, MEDIUM, LOW, INFO)
Las 6 dimensiones evaluadas (o justificación explícita si alguna se omitió)
Anti-patrones escaneados con método de detección documentado
Quality attributes medidos contra thresholds (o "desconocido" documentado)
Security controls evaluados contra matriz de controles requeridos