Entenda como funcionam os agentes LLM e como configurá-los para diferentes casos de uso
Agente LLM
é não-determinístico. Ele usa o LLM para interpretar instruções e contexto, decidindo dinamicamente como proceder, quais ferramentas usar (se houver) ou se deve transferir controle para outro agente.
1. Iniciar criação do agente
2. Configurar informações básicas
3. Selecionar modelo e API Key
Modelo | Características | Melhor para |
---|---|---|
GPT-4 | Raciocínio avançado, criativo | Tarefas complexas, análise |
GPT-3.5-turbo | Rápido, econômico | Conversas gerais, suporte |
Claude-3-Sonnet | Equilibrado, seguro | Análise de documentos |
Gemini-Pro | Multimodal, rápido | Processamento de imagens |
Llama2-70b | Open source, customizável | Casos específicos |
4. Definir instruções detalhadas
5. Configurar Agent Settings
Agent Settings
- Configure funcionalidades avançadas:Para nosso assistente de vendas, recomendamos:✅ Load Memory:produtos
, tecnologia
, precos
6. Salvar e ativar
transfer_to_agent
é disponibilizada. Esta função permite que o agente principal delegue a execução da sessão para um dos seus sub-agentes especializados, transferindo o controle completo da conversa.1. Hierarquia de Agentes (Parent-Child)
2. Exemplo Prático: Equipe de Vendas
lead_qualifier
Qualifica leads e identifica orçamento e necessidades
product_demo
Demonstra produtos e explica benefícios técnicos
closer
Especialista em fechamento e negociação
sales_team_coordinator
lead_qualifier
, product_demo
, closer
Função transfer_to_agent
Estado Compartilhado
{{user_input}}
para input inicial e {{output_key}}
para dados salvoscustomer_name
, budget
, preferences
{{user_input}}
e use dados do cliente: {{customer_data}}
”Delegação Inteligente
Agentes como Ferramentas
Configuração na Plataforma
customer_service_dispatcher
Configuração na Plataforma
data_enricher
enriched_data
lead_scorer
{{user_input}}
e calcule score baseado em: {{enriched_data}}
”lead_score
lead_classifier
{{lead_score}}
”lead_classification
lead_router
{{lead_classification}}
”assignment_result
Configuração na Plataforma
content_generator
generated_content
content_critic
feedback
content_refiner
refined_content
Acessar interface de chat
Selecionar o agente
Testar cenários diversos
Avaliar performance
Nome (Obrigatório)
Name
na interface:user
assistente_vendas
suporte_tecnico
analista_financeiro
Descrição (Recomendado)
Description
na interface:Modelo (Obrigatório)
Model
na interface:gpt-4
- Raciocínio avançadoclaude-3-sonnet
- Equilibrado e segurogemini-2.0-flash
- Rápido e multimodalElementos essenciais
Instructions
na interface:Dicas para instruções eficazes
Variáveis dinâmicas e compartilhamento de estado
{{var}}
para inserir valores dinâmicos nas instruções do agente:Variáveis automáticas disponíveis:{{user_input}}
- A mensagem completa do usuário que iniciou a conversa{{output_key_name}}
- Resultado salvo por outros agentes (onde output_key_name é o nome da chave configurada){{analise_cliente}}
, agora faça uma recomendação personalizada.”Agent Settings
Agent Settings
na interface:Load Memory:Parâmetros de Geração
Advanced Settings
na interface:Temperature (0.0 - 1.0):0.0
: Respostas determinísticas0.7
: Balanceado (recomendado)1.0
: Máxima criatividade0.1
: Respostas focadas0.9
: Mais diversidadeOutput Key - Compartilhamento de Estado
Output Key
na interface:O Output Key permite que o agente LLM salve sua resposta em uma variável específica no estado compartilhado, tornando o resultado disponível para outros agentes ou iterações futuras.Como funciona:Output Key
com um nome descritivo{{output_key_name}}
exit_loop
resultado_analise
, dados_processados
feedback_qualidade
em vez de feedback
exit_loop
Definição clara de objetivos
Otimização de conversas
Agent Settings - Boas Práticas
Segurança e confiabilidade