Agente de IA para Análise de Desempenho Docente

18 de December de 2025 • Tempo de leitura: 5 min

Como criar um agente de IA que coleta e analisa dados de avaliações de professores, fornecendo insights.

1. Propósito e Escopo

Este documento define todos os prompts, configurações de memória, transição entre estados, ferramentas como chamadas a sistemas externos, busca online, consulta a documentos e demais requisitos funcionais para o agente de IA de Análise de Desempenho Docente. Esta documentação é um modelo de PRD ou Documento de Requisitos de Produto específico para construção de Agentes de IA.

O objetivo principal é coletar e analisar dados de avaliações de professores, fornecendo insights sobre práticas de ensino eficazes e áreas para desenvolvimento.

2. Contexto e Problema

Cenário Atual

Atualmente, as instituições de ensino enfrentam desafios significativos na consolidação de dados sobre o desempenho docente. Isso impede a identificação de práticas de ensino eficazes e áreas que necessitam de desenvolvimento. Os dados são frequentemente dispersos em várias fontes, como avaliações de alunos, autoavaliações, feedback de pares e observações diretas.


Problemas Identificados

  • Falta de Dados Consolidados: A ausência de um sistema unificado para coletar e analisar dados sobre o desempenho docente dificulta a melhoria contínua da qualidade do ensino.
  • Dificuldade em Identificar Práticas Eficazes: Sem uma análise eficaz dos dados disponíveis, é desafiador identificar quais práticas de ensino são mais eficazes.
  • Necessidade de Desenvolvimento: Áreas que precisam de melhoria podem passar despercebidas sem uma análise estruturada dos dados.

3. Impactos Esperados

A implementação deste agente de IA visa alcançar os seguintes impactos:

  • Melhoria da Qualidade de Ensino: Ao fornecer insights acionáveis, espera-se uma melhoria contínua nas práticas de ensino.
  • Identificação de Práticas Eficazes: A análise de dados permitirá destacar práticas de ensino que resultam em melhores desempenhos.
  • Desenvolvimento Docente: Áreas que precisam de desenvolvimento serão identificadas e abordadas de forma estruturada.

4. Visão Geral da Solução

O agente de IA para análise de desempenho docente coleta dados de diversas fontes sobre o desempenho dos professores, analisa esses dados para identificar padrões de sucesso e áreas de melhoria, e fornece insights claros e acionáveis para os professores aprimorarem suas práticas de ensino. A seguir são detalhadas todas as regras de negócio e especificações funcionais necessárias para que esse agente atue como um assistente útil e autônomo na análise e melhoria do desempenho docente.

A solução consiste em um fluxo de automação composto por 7 agentes de IA. O processo inicia com a definição do escopo e esquema de dados e termina com a geração de insights e planos de ação.

A execução dos agentes é sequencial e linear, seguindo a ordem definida na tabela abaixo. O fluxo inclui etapas condicionais que são executadas apenas se critérios específicos forem atendidos, conforme detalhado após a tabela.

Agentes Função Principal
Agente de Definição de Escopo e Esquema de Dados (RF 1) Planejar a coleta e padronização, definindo o esquema canônico de dados e os parâmetros de consulta por fonte.
Agente de Execução de Chamada à API (RF 2) Realizar chamadas às APIs dos sistemas fontes para obter dados de desempenho docente.
Agente de Execução de Consulta a Documento (RF 3) Realizar consultas a documentos para extrair informações relevantes.
Agente de Busca Online (RF 4) Executar buscas online quando fontes públicas complementares forem necessárias.
Agente de Consolidação e Padronização de Dados (RF 5) Unificar, limpar, deduplicar, anonimizar e padronizar dados das diversas fontes no esquema canônico.
Agente de Análise de Desempenho Docente (RF 6) Identificar padrões de sucesso e áreas de melhoria a partir do dataset padronizado.
Agente de Geração de Insights e Plano de Ação (RF 7) Transformar achados analíticos em insights claros e acionáveis para desenvolvimento docente.

5. Protótipos

Para proporcionar uma visão clara e tangível da solução proposta, criamos protótipos interativos que demonstram tanto o fluxo de trabalho dos agentes quanto o resultado final que a instituição receberá. Explore os links abaixo para entender melhor a solução em ação.

6. Requisitos Funcionais

RF 1. Agente de Definição de Escopo e Esquema de Dados

1.1 Tarefa do Agente

Planejar a coleta e padronização, definindo o esquema canônico de dados e os parâmetros de consulta por fonte.

1.2 Prompt ou Instruções do Agente
 # 1. Contexto e explicações sobre inputs iniciais
Você está recebendo um briefing do projeto contendo objetivos, período de análise, lista preliminar de fontes disponíveis, políticas de privacidade da instituição e requisitos de anonimização.

# 2. Objetivo
Planejar a coleta e padronização, definindo o esquema canônico de dados e os parâmetros de consulta por fonte.

# 3. Regras que você deve seguir para gerar sua resposta
- Defina campos obrigatórios no data_schema: professor_id_hash, professor_id_original (não retornado a agentes posteriores), disciplina, curso, modalidade (presencial/EAD/híbrida), turma_id, periodo_referencia (YYYY-MM), avaliacao_tipo (alunos/pares/auto/observacao/LMS/outros), escala_origem (descrição), nota_origem, nota_padronizada_0_100, n_respostas, mediana_padronizada, desvio_padronizado, p10_padronizado, p90_padronizado, comentarios_texto (quando aplicável), flags_qualidade[], fonte.
- Mapeie escalas Likert 1–5, 1–7 ou 0–10 para 0–100 por regra linear: nota_padronizada_0_100 = (nota_origem - min_origem) / (max_origem - min_origem) * 100; registre escala_origem e preserve nota_origem.
- Restrinja consultas ao período solicitado; inclua filtros de data em todos os payloads; defina regra de agregação mensal se granularidade diária/por aula for recebida (agregue por professor_id e periodo_referencia).
- Estabeleça hashing determinístico de professor_id_original → professor_id_hash (ex.: concat(instituicao_salt + id) antes do hash); não exponha professor_id_original nos outputs subsequentes; marque campos sensíveis como não exportáveis.
- Defina thresholds mínimos por tipo de fonte: avaliações de alunos n_respostas_min=8 por período/turma; autoavaliação n_respostas_min=1; pares n_respostas_min=2; observações n_respostas_min=1; LMS defina presença mínima de 4 semanas de dados. Regra de descarte: se n_respostas < mínimo, marque flag baixa_amostra e mantenha somente para contexto, excluindo de métricas comparativas.
- Parâmetros de dedup por chave composta [fonte, professor_id_original, turma_id, avaliacao_tipo, periodo_referencia, respondente_id_opt, created_at]; em duplicidade, retenha o registro mais recente por created_at.
- Marque como outlier valores de nota_origem fora de [min_origem, max_origem] e corrija para limites; para métricas derivadas padronizadas, sinalize pontos além de 3 IQRs para análise mas não remova automaticamente.
- Gere api_payloads/doc_queries/search_queries com: endpoint/coleção, filtros (datas, curso, turma, avaliacao_tipo), paginação (page/size ou cursor), seleção de campos mapeados ao data_schema, ordenação (created_at asc), limites de taxa sugeridos (ex.: 10 req/s). Cada payload deve referenciar o nome da fonte e formato esperado.
- Inclua somente campos estritamente necessários ao data_schema; exclua PII de respondentes; agregue comentários apenas quando explicitamente requerido no briefing.
- Produza o plano em JSON com chaves exatamente como descritas em expected_output. 
1.3 Configurações do Agente

1.3.1 Especificação do Input

  • Mecanismo de Acionamento: Este agente é o ponto de partida do fluxo e deve ser acionado pelo envio do briefing do projeto via API. Na fase de testes, o fluxo será iniciado pelo envio manual dos dados, que serão enviados para o agente diretamente por upload do briefing na interface da Prototipe AI, para acelerar o processo de validação.
  • Tipo do input: O input inicial para o fluxo é um documento de texto contendo o briefing do projeto.
  • Formatos Suportados: Esse agente deve ser capaz de receber briefing nos formatos: .docx, .pdf.
  • Número de caracteres esperado: Este agente deve ter capacidade para processar um input de texto com até 15.000 caracteres.

1.3.2 Especificação do Output

  • Formato de output: O output deve ser um plano estruturado em JSON com chaves como data_schema, fontes_plan, api_payloads, doc_queries, search_queries, regras_de_qualidade, normalizacao_escalas, janela_temporal, identificadores.
  • Exemplo de Estrutura de Output:
     {
      "data_schema": {...},
      "fontes_plan": [...],
      "api_payloads": [...],
      "doc_queries": [...],
      "search_queries": [...],
      "regras_de_qualidade": {...},
      "normalizacao_escalas": {...},
      "janela_temporal": "YYYY-MM",
      "identificadores": {...}
    } 
  • Número de caracteres esperado: O JSON gerado deve ser claro e estruturado, com um tamanho estimado em 5.000 caracteres.

1.3.3 Parâmetros de Geração

  • Modelo: GPT-5
  • Temperatura: 0.6

1.3.4 Ferramentas do Agente

  • Documentos: Não consulta documentos externos.
  • Calculadora: Não utiliza.
  • Busca Online: Não utiliza.
  • Sistemas Externos: Não se conecta a sistemas externos.

1.3.5 Memória

1.3.6 Regras de Orquestração e Transição

Ao concluir sua execução, esse agente aciona o Agente de Execução de Chamada à API (RF 2).

RF 2. Agente de Execução de Chamada à API

2.1 Tarefa do Agente

Realizar chamadas às APIs dos sistemas fontes para obter dados de desempenho docente.

2.2 Prompt ou Instruções do Agente
 # 1. Contexto e explicações sobre inputs iniciais
Você está recebendo api_payloads gerados, contendo endpoint, autenticação (token/chave), filtros de data, seleção de campos, paginação e limites de taxa.

# 2. Objetivo
Realizar chamadas às APIs dos sistemas fontes para obter dados de desempenho docente.

# 3. Regras que você deve seguir para gerar sua resposta
- Este agente executa chamadas conforme parâmetros fornecidos, sem regras de LLM adicionais.
- Garanta que todas as chamadas respeitam os limites de taxa e autenticação fornecidos.
- Registre logs de sucesso ou falha para cada chamada API realizada.
- Em caso de falha, retente a chamada até três vezes antes de registrar como erro e seguir para o próximo payload.
- Não altere os dados retornados pelas APIs; entregue-os no formato original para o próximo agente.

# 4. Exemplo de Output que você deve produzir
{
  "dados_api_brutos": [
    {
      "fonte": "LMS",
      "dados": [...]
    },
    {
      "fonte": "CRM Acadêmico",
      "dados": [...]
    }
  ]
} 
2.3 Configurações do Agente

2.3.1 Especificação do Input

  • Mecanismo de Acionamento: Este agente deve ser acionado automaticamente após a conclusão do agente anterior (RF 1).
  • Tipo do input: Este agente deve ser apto a receber api_payloads gerados pelo agente anterior.
  • Formatos Suportados: Esse agente deve ser capaz de processar inputs no formato JSON.
  • Número de caracteres esperado: Este agente deve ter capacidade para processar um input de até 10.000 caracteres.

2.3.2 Especificação do Output

  • Formato de output: O output deve ser um JSON contendo dados brutos retornados pelas APIs, organizados por fonte.
  • Exemplo de Estrutura de Output:
     {
      "dados_api_brutos": [
        {
          "fonte": "LMS",
          "dados": [...]
        },
        {
          "fonte": "CRM Acadêmico",
          "dados": [...]
        }
      ]
    } 
  • Número de caracteres esperado: O JSON gerado deve ser proporcional ao número de fontes e registros, com um tamanho estimado em 20.000 caracteres.

2.3.3 Parâmetros de Geração

  • Modelo: Não se aplica (uso de ferramenta)
  • Temperatura: Não se aplica

2.3.4 Ferramentas do Agente

  • Documentos: Não consulta documentos externos.
  • Calculadora: Não utiliza.
  • Busca Online: Não utiliza.
  • Sistemas Externos: O agente deverá usar as APIs listadas nos api_payloads para obter os dados necessários.

2.3.5 Memória

2.3.6 Regras de Orquestração e Transição

Ao concluir sua execução, esse agente aciona o Agente de Execução de Consulta a Documento (RF 3).

RF 3. Agente de Execução de Consulta a Documento

3.1 Tarefa do Agente

Realizar consultas a documentos para extrair informações relevantes.

3.2 Prompt ou Instruções do Agente
 # 1. Contexto e explicações sobre inputs iniciais
Você está recebendo doc_queries contendo origem do documento, escopo de busca, termos-chave e campos-alvo mapeados ao data_schema.

# 2. Objetivo
Realizar consultas a documentos para extrair informações relevantes.

# 3. Regras que você deve seguir para gerar sua resposta
- Este agente executa consultas a documentos conforme parâmetros fornecidos, sem regras de LLM adicionais.
- Garanta que todos os documentos sejam processados na íntegra e que os dados extraídos correspondam aos campos-alvo definidos.
- Registre logs de sucesso ou falha para cada consulta realizada.
- Em caso de falha, retente a consulta até três vezes antes de registrar como erro e seguir para o próximo documento.
- Não altere os dados extraídos; entregue-os no formato original para o próximo agente.

# 4. Exemplo de Output que você deve produzir
{
  "dados_documento_brutos": [
    {
      "fonte": "Relatórios de Observação",
      "dados": [...]
    },
    {
      "fonte": "Planilhas de Avaliação",
      "dados": [...]
    }
  ]
} 
3.3 Configurações do Agente

3.3.1 Especificação do Input

  • Mecanismo de Acionamento: Este agente deve ser acionado automaticamente após a conclusão do agente anterior (RF 2).
  • Tipo do input: Este agente deve ser apto a receber doc_queries gerados pelo agente anterior.
  • Formatos Suportados: Esse agente deve ser capaz de processar inputs no formato JSON.
  • Número de caracteres esperado: Este agente deve ter capacidade para processar um input de até 8.000 caracteres.

3.3.2 Especificação do Output

  • Formato de output: O output deve ser um JSON contendo dados extraídos dos documentos, organizados por fonte.
  • Exemplo de Estrutura de Output:
     {
      "dados_documento_brutos": [
        {
          "fonte": "Relatórios de Observação",
          "dados": [...]
        },
        {
          "fonte": "Planilhas de Avaliação",
          "dados": [...]
        }
      ]
    } 
  • Número de caracteres esperado: O JSON gerado deve ser proporcional ao número de documentos e registros, com um tamanho estimado em 15.000 caracteres.

3.3.3 Parâmetros de Geração

  • Modelo: Não se aplica (uso de ferramenta)
  • Temperatura: Não se aplica

3.3.4 Ferramentas do Agente

  • Documentos: O agente deverá acessar e processar documentos conforme especificado nas doc_queries.
  • Calculadora: Não utiliza.
  • Busca Online: Não utiliza.
  • Sistemas Externos: Não utiliza.

3.3.5 Memória

3.3.6 Regras de Orquestração e Transição

Ao concluir sua execução, esse agente aciona o Agente de Busca Online (RF 4).

RF 4. Agente de Busca Online

4.1 Tarefa do Agente

Executar buscas online quando fontes públicas complementares forem necessárias.

4.2 Prompt ou Instruções do Agente
 # 1. Contexto e explicações sobre inputs iniciais
Você está recebendo search_queries com termos, filtros de data, domínios permitidos e campos de interesse.

# 2. Objetivo
Executar buscas online quando fontes públicas complementares forem necessárias.

# 3. Regras que você deve seguir para gerar sua resposta
- Este agente executa buscas online conforme parâmetros fornecidos, sem regras de LLM adicionais.
- Garanta que todas as buscas respeitam os filtros de data e domínios permitidos.
- Registre logs de sucesso ou falha para cada busca realizada.
- Em caso de falha, retente a busca até três vezes antes de registrar como erro e seguir para o próximo termo.
- Não altere os resultados das buscas; entregue-os no formato original para o próximo agente.

# 4. Exemplo de Output que você deve produzir
{
  "dados_busca_brutos": [
    {
      "termo": "Resultados Avaliações Institucionais",
      "dados": [...]
    }
  ]
} 
4.3 Configurações do Agente

4.3.1 Especificação do Input

  • Mecanismo de Acionamento: Este agente deve ser acionado automaticamente após a conclusão do agente anterior (RF 3).
  • Tipo do input: Este agente deve ser apto a receber search_queries gerados pelo agente anterior.
  • Formatos Suportados: Esse agente deve ser capaz de processar inputs no formato JSON.
  • Número de caracteres esperado: Este agente deve ter capacidade para processar um input de até 5.000 caracteres.

4.3.2 Especificação do Output

  • Formato de output: O output deve ser um JSON contendo resultados de buscas online, organizados por termo.
  • Exemplo de Estrutura de Output:
     {
      "dados_busca_brutos": [
        {
          "termo": "Resultados Avaliações Institucionais",
          "dados": [...]
        }
      ]
    } 
  • Número de caracteres esperado: O JSON gerado deve ser proporcional ao número de termos e resultados, com um tamanho estimado em 10.000 caracteres.

4.3.3 Parâmetros de Geração

  • Modelo: Não se aplica (uso de ferramenta)
  • Temperatura: Não se aplica

4.3.4 Ferramentas do Agente

  • Documentos: Não consulta documentos externos.
  • Calculadora: Não utiliza.
  • Busca Online: O agente deverá realizar buscas online conforme especificado nas search_queries.
  • Sistemas Externos: Não utiliza.

4.3.5 Memória

4.3.6 Regras de Orquestração e Transição

Ao concluir sua execução, esse agente aciona o Agente de Consolidação e Padronização de Dados (RF 5).

RF 5. Agente de Consolidação e Padronização de Dados

5.1 Tarefa do Agente

Unificar, limpar, deduplicar, anonimizar e padronizar dados das diversas fontes no esquema canônico.

5.2 Prompt ou Instruções do Agente
 # 1. Contexto e explicações sobre inputs iniciais
Você está recebendo data_schema, regras_de_qualidade, normalizacao_escalas, janela_temporal do plano; dados_api_brutos, dados_documento_brutos e/ou dados_busca_brutos.

# 2. Objetivo
Unificar, limpar, deduplicar, anonimizar e padronizar dados das diversas fontes no esquema canônico.

# 3. Regras que você deve seguir para gerar sua resposta
- Converta cada campo de origem para o data_schema; se campo obrigatório ausente, marque flag campo_ausente e registre no data_quality_report.
- Aplique a chave composta definida no plano; retenha registro mais recente; registre contagem de removidos por fonte.
- Converta todas as escalas para 0–100 conforme mapeamento do plano; calcule mediana, desvio, p10 e p90 por agrupamento [professor_id_hash, avaliacao_tipo, periodo_referencia, turma_id opcional].
- Para grupos com n_respostas abaixo do limiar da fonte, marque baixa_amostra e exclua de comparações e rankings; mantenha para contexto descritivo.
- Limite valores fora do domínio da escala ao mínimo/máximo; não remova dados padronizados sinalizados por IQR; apenas marque flag outlier_suspeito.
- Substitua professor_id_original por professor_id_hash; remova respondente_id; reduza comentários_texto se contiver PII (marque pii_redacted=true) mantendo sentido pedagógico.
- Agregue ao período mensal; se múltiplas turmas, calcule métricas por turma e global por professor; registre pesos por n_respostas.
- Gere data_quality_report com: cobertura_por_fonte (% registros mapeados), % com baixa_amostra, % com outlier_suspeito, campos_ausentes por fonte, total_deduplicado.
- Ordene registros por [professor_id_hash, periodo_referencia, avaliacao_tipo] para estabilidade de resultados.

# 4. Exemplo de Output que você deve produzir
{
  "dataset_unificado": [...],
  "data_quality_report": {...},
  "dicionario_de_dados_final": {...}
} 
5.3 Configurações do Agente

5.3.1 Especificação do Input

  • Mecanismo de Acionamento: Este agente deve ser acionado automaticamente após a conclusão do agente anterior (RF 4).
  • Tipo do input: Este agente deve ser apto a receber múltiplos artefatos como input, incluindo data_schema, regras_de_qualidade, normalizacao_escalas, janela_temporal do plano, dados_api_brutos, dados_documento_brutos e/ou dados_busca_brutos.
  • Formatos Suportados: Esse agente deve ser capaz de processar inputs no formato JSON.
  • Número de caracteres esperado: Este agente deve ter capacidade para processar um input combinado de até 50.000 caracteres.

5.3.2 Especificação do Output

  • Formato de output: O output deve ser um JSON contendo dataset unificado, relatório de qualidade de dados e dicionário de dados final.
  • Exemplo de Estrutura de Output:
     {
      "dataset_unificado": [...],
      "data_quality_report": {...},
      "dicionario_de_dados_final": {...}
    } 
  • Número de caracteres esperado: O JSON gerado deve ser claro e estruturado, com um tamanho estimado em 50.000 caracteres.

5.3.3 Parâmetros de Geração

  • Modelo: Não se aplica (uso de ferramenta)
  • Temperatura: Não se aplica

5.3.4 Ferramentas do Agente

  • Documentos: Não consulta documentos externos.
  • Calculadora: Não utiliza.
  • Busca Online: Não utiliza.
  • Sistemas Externos: Não utiliza.

5.3.5 Memória

  • Visibilidade das Instruções (Prompt): As instruções deste agente não devem ser visíveis para nenhum agente subsequente.
  • Visibilidade da Resposta: A resposta gerada por este agente deve ser visível para o Agente de Análise de Desempenho Docente (RF 6).

5.3.6 Regras de Orquestração e Transição

Ao concluir sua execução, esse agente aciona o Agente de Análise de Desempenho Docente (RF 6).

RF 6. Agente de Análise de Desempenho Docente

6.1 Tarefa do Agente

Identificar padrões de sucesso e áreas de melhoria a partir do dataset padronizado.

6.2 Prompt ou Instruções do Agente
 # 1. Contexto e explicações sobre inputs iniciais
Você está recebendo dataset_unificado e data_quality_report.

# 2. Objetivo
Identificar padrões de sucesso e áreas de melhoria a partir do dataset padronizado.

# 3. Regras que você deve seguir para gerar sua resposta
- Calcule para cada professor e global: média_0_100, mediana_0_100, desvio_padrao, n_respostas, intervalos [p10,p90], separadas por avaliacao_tipo e consolidadas ponderando por n_respostas.
- Defina benchmark institucional por curso e modalidade como mediana do grupo com n_respostas válido; compute desvio_relativo = média_prof - benchmark_curso.
- Marque melhoria/queda relevante se |desvio_relativo| ≥ 5 p.p. e n_respostas_total ≥ 30; em amostras 10–29, sinalize como tendência a confirmar.
- Gere cortes por: tamanho_turma (pequena <30, média 30–59, grande ≥60), modalidade, nível (graduação/pós), turno; identifique consistência do padrão entre cortes.
- Compare últimos 3 períodos; classifique tendência como ascendente, estável (variação <2 p.p.) ou descendente.
- Alerte viés potencial se concentrações extremas de notas ocorrerem com n_respostas baixo, se comentários indicarem fatores não pedagógicos recorrentes, ou se uma única fonte contradizer fortemente as demais.
- Para cada insight, associe evidencias com: fonte, período, estatística (média/mediana), n_respostas e comparação com benchmark; não produza recomendações sem evidência explícita.
- Exclua de rankings qualquer professor com baixa_amostra em mais de 50% das observações do período; registre no output a justificativa.

# 4. Exemplo de Output que você deve produzir
{
  "analise_metricas": {
    "visao_geral": {...},
    "resultados_por_professor": [...],
    "comparativos": {...},
    "padroes_identificados": [...],
    "alertas": [...],
    "recomendacoes_preliminares": [...]
  }
} 
6.3 Configurações do Agente

6.3.1 Especificação do Input

  • Mecanismo de Acionamento: Este agente deve ser acionado automaticamente após a conclusão do agente anterior (RF 5).
  • Tipo do input: Este agente deve ser apto a receber dataset_unificado e data_quality_report gerados pelo agente anterior.
  • Formatos Suportados: Esse agente deve ser capaz de processar inputs no formato JSON.
  • Número de caracteres esperado: Este agente deve ter capacidade para processar um input combinado de até 60.000 caracteres.

6.3.2 Especificação do Output

  • Formato de output: O output deve ser um JSON contendo análise de métricas, resultados por professor, comparativos, padrões identificados, alertas e recomendações preliminares.
  • Exemplo de Estrutura de Output:
     {
      "analise_metricas": {
        "visao_geral": {...},
        "resultados_por_professor": [...],
        "comparativos": {...},
        "padroes_identificados": [...],
        "alertas": [...],
        "recomendacoes_preliminares": [...]
      }
    } 
  • Número de caracteres esperado: O JSON gerado deve ser claro e estruturado, com um tamanho estimado em 60.000 caracteres.

6.3.3 Parâmetros de Geração

  • Modelo: Não se aplica (uso de ferramenta)
  • Temperatura: Não se aplica

6.3.4 Ferramentas do Agente

  • Documentos: Não consulta documentos externos.
  • Calculadora: Não utiliza.
  • Busca Online: Não utiliza.
  • Sistemas Externos: Não utiliza.

6.3.5 Memória

6.3.6 Regras de Orquestração e Transição

Ao concluir sua execução, esse agente aciona o Agente de Geração de Insights e Plano de Ação (RF 7).

RF 7. Agente de Geração de Insights e Plano de Ação

7.1 Tarefa do Agente

Transformar achados analíticos em insights claros e acionáveis para desenvolvimento docente.

7.2 Prompt ou Instruções do Agente
 # 1. Contexto e explicações sobre inputs iniciais
Você está recebendo analise_metricas com padrões, comparativos e alertas.

# 2. Objetivo
Transformar achados analíticos em insights claros e acionáveis para desenvolvimento docente.

# 3. Regras que você deve seguir para gerar sua resposta
- Use matriz impacto vs. esforço: impacto alto = desvios ≥ 7 p.p. ou queda consistente em 2+ períodos; esforço estimado baixo = intervenções de curto ciclo (≤4 semanas).
- Formule ações específicas, observáveis e mensuráveis (ex.: substituir 'melhorar participação' por 'aplicar técnica X nas 2 primeiras aulas de cada semana e medir presença'). Evite julgamentos pessoais.
- Incluir pelo menos um quick win e uma ação de médio prazo por professor quando houver evidência suficiente; associar cada ação a um recurso_sugerido concreto.
- Para cada ação, defina indicador_de_sucesso alinhado à métrica afetada (ex.: +5 p.p. em engajamento no período seguinte, redução do desvio em relação ao benchmark para <2 p.p.).
- Não gere plano de ação se a área estiver marcada com baixa_amostra; nesse caso, recomendar coleta adicional ou ajuste de instrumento.
- Organize os insights por professor e tema; liste evidência com fonte e período; inclua follow_up padrão de 8–12 semanas salvo motivo contrário devidamente registrado.

# 4. Exemplo de Output que você deve produzir
{
  "insights_acionaveis": [
    {
      "professor_id_hash": "...",
      "prioridade": "alta",
      "tema": "Engajamento",
      "evidencia_resumida": "Desvio de -8 p.p. em relação ao benchmark",
      "acao_recomendada": "Aplicar técnica X nas 2 primeiras aulas de cada semana e medir presença",
      "recurso_sugerido": "Curso de técnicas de engajamento",
      "prazo_sugerido": "4 semanas",
      "indicador_de_sucesso": "+5 p.p. em engajamento",
      "follow_up": "10 semanas"
    }
  ]
} 
7.3 Configurações do Agente

7.3.1 Especificação do Input

  • Mecanismo de Acionamento: Este agente deve ser acionado automaticamente após a conclusão do agente anterior (RF 6).
  • Tipo do input: Este agente deve ser apto a receber analise_metricas gerados pelo agente anterior.
  • Formatos Suportados: Esse agente deve ser capaz de processar inputs no formato JSON.
  • Número de caracteres esperado: Este agente deve ter capacidade para processar um input de até 40.000 caracteres.

7.3.2 Especificação do Output

  • Formato de output: O output deve ser um JSON contendo insights acionáveis por professor e institucionais, com campos como prioridade, tema, evidência resumida, ação recomendada, recurso sugerido, prazo sugerido, indicador de sucesso e follow-up.
  • Exemplo de Estrutura de Output:
     {
      "insights_acionaveis": [
        {
          "professor_id_hash": "...",
          "prioridade": "alta",
          "tema": "Engajamento",
          "evidencia_resumida": "Desvio de -8 p.p. em relação ao benchmark",
          "acao_recomendada": "Aplicar técnica X nas 2 primeiras aulas de cada semana e medir presença",
          "recurso_sugerido": "Curso de técnicas de engajamento",
          "prazo_sugerido": "4 semanas",
          "indicador_de_sucesso": "+5 p.p. em engajamento",
          "follow_up": "10 semanas"
        }
      ]
    } 
  • Número de caracteres esperado: O JSON gerado deve ser claro e estruturado, com um tamanho estimado em 40.000 caracteres.

7.3.3 Parâmetros de Geração

  • Modelo: Não se aplica (uso de ferramenta)
  • Temperatura: Não se aplica

7.3.4 Ferramentas do Agente

  • Documentos: Não consulta documentos externos.
  • Calculadora: Não utiliza.
  • Busca Online: Não utiliza.
  • Sistemas Externos: Não utiliza.

7.3.5 Memória

  • Visibilidade das Instruções (Prompt): As instruções deste agente não devem ser visíveis para nenhum agente subsequente.
  • Visibilidade da Resposta: A resposta gerada por este agente representa o entregável final do fluxo de agentes.

7.3.6 Regras de Orquestração e Transição

A execução deste agente finaliza o fluxo. Os insights gerados são o resultado que deve ser disponibilizado ao usuário.

© 2025 prototipe.ai. Todos os direitos reservados.