Pular para o conteúdo principal
O bloco Avaliador utiliza IA para pontuar e avaliar a qualidade do conteúdo através de métricas de avaliação personalizáveis que você define. Perfeito para controle de qualidade, testes A/B e para garantir que seus resultados de IA atendam a padrões específicos.
API

Visão Geral

O bloco Avaliador permite:
1
Pontuar a qualidade do conteúdo: Usa IA para avaliar conteúdo de acordo com métricas personalizadas com pontuações numéricas
2
Definir métricas personalizadas: Cria critérios de avaliação específicos adaptados ao seu caso de uso
3
Automatizar o controle de qualidade: Constrói fluxos de trabalho que avaliam e filtram conteúdo automaticamente
4
Acompanhar o desempenho: Monitora melhorias e consistência ao longo do tempo com pontuações objetivas

Como funciona

O bloco Avaliador processa conteúdo através de avaliação impulsionada por IA:
1
Recebe conteúdo - Obtém o conteúdo de entrada de blocos anteriores no seu fluxo de trabalho
2
Aplica métricas - Avalia o conteúdo de acordo com suas métricas personalizadas definidas
3
Gera pontuações - O modelo de IA atribui pontuações numéricas para cada métrica
4
Fornece resumo - Retorna uma avaliação detalhada com pontuações e explicações

Opções de configuração

Métricas de avaliação

Defina métricas personalizadas para avaliar o conteúdo. Cada métrica inclui:
  • Nome: Um identificador curto para a métrica
  • Descrição: Uma explicação detalhada do que a métrica mede
  • Intervalo: O intervalo numérico para a pontuação (ex.: 1-5, 0-10)
Exemplos de métricas:
Accuracy (1-5): How factually accurate is the content?
Clarity (1-5): How clear and understandable is the content?
Relevance (1-5): How relevant is the content to the original query?

Conteúdo

O conteúdo a avaliar. Isso pode ser:
  • Fornecido diretamente na configuração do bloco
  • Conectado a partir da saída de outro bloco (tipicamente um bloco de Agente)
  • Gerado dinamicamente durante a execução do fluxo de trabalho

Seleção de modelo

Escolha um modelo de IA para realizar a avaliação:
  • OpenAI: GPT-4o, o1, o3, o4-mini, gpt-4.1
  • Anthropic: Claude 3.7 Sonnet
  • Google: Gemini 2.5 Pro, Gemini 2.0 Flash
  • Outros provedores: Groq, Cerebras, xAI, DeepSeek
  • Modelos locais: Qualquer modelo executando no Ollama
Recomendação: Use modelos com fortes capacidades de raciocínio como GPT-4o ou Claude 3.7 Sonnet para avaliações mais precisas.

Chave API

Sua chave API para o provedor de LLM selecionado. Esta é armazenada de forma segura e utilizada para autenticação.

Como funciona

  1. O bloco Avaliador obtém o conteúdo fornecido e suas métricas personalizadas
  2. Gera um prompt especializado que instrui o LLM a avaliar o conteúdo
  3. O prompt inclui diretrizes claras sobre como pontuar cada métrica
  4. O LLM avalia o conteúdo e retorna pontuações numéricas para cada métrica
  5. O bloco Avaliador formata essas pontuações como saída estruturada para uso no seu fluxo de trabalho

Exemplos de casos de uso

Avaliação de qualidade de conteúdo

Cenário: Avaliar a qualidade de um artigo de blog antes de sua publicação

  1. O bloco de Agente gera o conteúdo do artigo
  2. O Avaliador avalia a precisão, legibilidade e engajamento
  3. O bloco de Condição verifica se as pontuações atendem aos limites mínimos
  4. Pontuações altas → Publicar, Pontuações baixas → Revisar e tentar novamente

Testes A/B de conteúdo

Cenário: Comparar múltiplas respostas geradas por IA

  1. O bloco paralelo gera múltiplas variações de resposta
  2. O avaliador pontua cada variação de acordo com clareza e relevância
  3. O bloco de função seleciona a resposta com maior pontuação
  4. O bloco de resposta retorna o melhor resultado

Controle de qualidade de atendimento ao cliente

Cenário: Garantir que as respostas de suporte atendam aos padrões de qualidade

  1. O agente de suporte gera uma resposta à consulta do cliente
  2. O avaliador pontua a utilidade, empatia e precisão
  3. As pontuações são registradas para treinamento e monitoramento de desempenho
  4. Pontuações baixas ativam um processo de revisão humana

Entradas e saídas

  • Configuração
  • Variáveis
  • Resultados
  • Conteúdo: O texto ou dados estruturados a avaliar
  • Métricas de avaliação: Critérios personalizados com intervalos de pontuação
  • Modelo: Modelo de IA para análise de avaliação
  • Chave API: Autenticação para o provedor de LLM selecionado

Melhores práticas

  • Usar descrições específicas de métricas: Defina claramente o que cada métrica mede para obter avaliações mais precisas
  • Escolher intervalos apropriados: Selecione intervalos de pontuação que forneçam detalhes suficientes sem serem excessivamente complexos
  • Conectar com blocos de agente: Use blocos avaliadores para avaliar as saídas de blocos de agente e criar loops de feedback
  • Usar métricas consistentes: Para análises comparativas, mantenha métricas consistentes em avaliações similares
  • Combinar múltiplas métricas: Use várias métricas para obter uma avaliação abrangente