O GENEFIC Cloudworks é um ecossistema de engenharia de carreira AI-Native, operando sob uma arquitetura 100% Serverless Event-Driven. Esta documentação é o registro definitivo de cada decisão, algoritmo e protocolo que compõe a plataforma.
- Visão Estratégica & Contexto de Negócio
- Arquitetura de Sistemas: O Blueprint Serverless
- Rationale: O Porquê das Decisões de Engenharia
- Implementação do Backend: O Motor de Análise
- Deep Content Analysis (DCA): Algoritmos de Auditoria
- Motor de Inteligência Artificial: Inferência e Prompting
- Dicionário de Dados e Persistência NoSQL
- Infraestrutura como Código (IaC): Terraform Modular
- Segurança da Informação e Gestão de Segredos
- Estratégia de Resiliência e Rate Limit Management
- Frontend: UX de Alta Performance e SPA
- DevOps: Pipeline de CI/CD e Automação Local
- Matriz de Erros e Troubleshooting
- Manual do Desenvolvedor: Onboarding e Debugging
- Roadmap de Engenharia e Visão de Futuro
No mercado de recrutamento de software, existe um abismo entre o que um desenvolvedor constrói e o que um recrutador percebe. Repositórios GitHub são provas de conceito vivas, mas sua complexidade os torna invisíveis para sistemas de triagem (ATS).
O GENEFIC atua como uma camada de inteligência que audita o código bruto, identifica padrões de design (ex: SOLID, Clean Architecture), maturidade de testes e complexidade de infraestrutura, convertendo esses dados em uma narrativa profissional validada por evidências técnicas reais.
O sistema foi desenhado para ser Event-Driven, Stateless e Altamente Desacoplado.
graph TD
%% Atores
User((Usuário)) -->|Interação SPA| WebUI[Frontend - S3 Website]
%% Camada de API
WebUI -->|API Calls| APIGW[Amazon API Gateway]
subgraph "Camada de Orquestração (AWS Lambda)"
APIGW -->|POST /upload| LambdaTrigger[Lambda Analyse: Trigger]
LambdaTrigger -->|Evento Assíncrono| LambdaWorker[Lambda Analyse: Worker]
%% Workflow do Worker
LambdaWorker -->|1. Fetch Docs| GitHub[GitHub API v3]
LambdaWorker -->|2. Inference| AI[Groq Cloud / Llama 3]
LambdaWorker -->|3. Persistence| DDB[(DynamoDB: Metadata)]
end
%% Detalhes de Redes e Observabilidade
LambdaWorker -->|Logs| CW[CloudWatch Logs / LocalStack]
- PROCESSING: Registro inicial no DynamoDB. O Worker assume a tarefa e inicia o fetch.
- COMPLETED: Análise concluída, JSON estruturado e Score gerado.
- FAILED: Erro capturado (ex: Rate Limit, Timeout ou IA) e persistido para feedback.
- Isolamento: Cada análise roda em um ambiente de execução isolado.
- Performance: Configurada com 256MB para equilibrar custo e velocidade de processamento de contexto de IA.
- Single Table Design: Chaves
user_idetimestamppermitem recuperação instantânea do histórico de análises. - TTL (Time to Live): Metadados temporários expiram automaticamente, reduzindo custos de armazenamento.
- Baixa Latência: A Groq oferece a inferência mais rápida do mercado, essencial para um feedback de UX em tempo real.
- Capacidade de Contexto: Permite analisar múltiplos arquivos (README, Pom.xml, etc.) simultaneamente sem degradação de performance.
- Fallback Strategy: Alternância automática entre modelos
versatileeinstant.
- Trigger: Valida a URL do GitHub e agenda o trabalho. Retorna
202 Acceptedimediatamente. - Worker: Executa a extração densa (
fetch_docs) e a auditoria de IA.
Os clientes AWS e Groq são inicializados apenas sob demanda (padrão Singleton/Lazy), otimizando o tempo de Cold Start da Lambda.
O motor de auditoria não olha apenas nomes de arquivos, ele extrai o DNA técnico:
- Mapeamento de Estrutura: Analisa a árvore completa do repo (até 100 caminhos).
- Extração Prioritária (DCA v2): Captura até 8 arquivos críticos incluindo:
- Java/Spring:
pom.xml,build.gradle,application.yml. - Node/Python:
package.json,requirements.txt. - Infra:
Dockerfile,docker-compose.yml.
- Java/Spring:
- Análise de Documentação: Lê até 4000 caracteres do
README.mdpara entender a proposta de valor do projeto.
O motor da Groq opera sob o modo 'GENEFIC AUDITOR':
- Fato vs Sugestão: Se uma tecnologia já está no código, a IA é proibida de sugeri-la como melhoria.
- Evidências: Cada conquista deve ser baseada em um arquivo ou trecho detectado.
- JSON Only: Resposta pura em JSON, sem formatação Markdown para integração direta com o frontend.
tech_score: 0-100 (Rubrica baseada em complexidade e maturidade).ats_summary: Narrativa profissional densa para cargos Senior/Staff.key_achievements: Lista de conquistas comprovadas.improvements: Melhorias reais que ainda não foram implementadas.
Organização modular em Terraform:
api_gateway: Interface REST com CORS e Gateway Responses resilientes.lambda: Gestão de lifecycle, empacotamento automatizado e injeção de env vars.dynamodb: Tabelas NoSQL com auto-scaling simulado via LocalStack.
- Token-Aware: O uso do
GITHUB_TOKENeleva o limite para 5.000 req/h. - Retry Logic: Backoff exponencial para erros temporários do GitHub (502/503/504).
O pipeline local automatiza:
- Limpeza completa do ambiente (
.localstacketerraform.tfstate). - Orquestração via
docker-compose. - Packaging da Lambda com
chmodrecursivo para permissões de runtime. - Apply do Terraform e Sync do S3 Website.
- Teste de Consistência: Execução do script
verify_consistency.pypara validar a API.
| Código | Descrição | Ação |
|---|---|---|
IA-500 |
Falha na Inferência Groq | Verifique a validade da GROQ_API_KEY. |
GRL-403 |
GitHub Rate Limit | Configure um novo Token clássico no .env. |
502 Bad Gateway |
Crash na Lambda | Verifique os logs: docker logs genefic-localstack. |
- Docker & Docker Compose.
- Terraform (v1.5+).
- Conta na Groq Cloud para obter a API Key.
GROQ_API_KEY=gsk_...
GITHUB_TOKEN=ghp_...
PRIMARY_MODEL=llama-3.3-70b-versatile
FALLBACK_MODEL=llama-3.1-8b-instantPara monitorar a Lambda em tempo real:
docker logs -f genefic-localstackGenefic Cloudworks - Engenharia de Elite. Auditoria com Propósito.