Agente LLM
Entenda como funcionam os agentes LLM e como configurá-los para diferentes casos de uso
Visão Geral
O Agente LLM é o componente central do Evo AI, atuando como a parte “pensante” da sua aplicação. Ele aproveita o poder de um Large Language Model (LLM) para raciocínio, compreensão de linguagem natural, tomada de decisões, geração de respostas e interação com ferramentas.
Diferentemente dos agentes de workflow determinísticos que seguem caminhos de execução predefinidos, o comportamento do Agente LLM
é não-determinístico. Ele usa o LLM para interpretar instruções e contexto, decidindo dinamicamente como proceder, quais ferramentas usar (se houver) ou se deve transferir controle para outro agente.
Baseado no Google ADK: Esta implementação segue os padrões estabelecidos pelo Google Agent Development Kit, garantindo compatibilidade e melhores práticas.
Características Principais
Raciocínio Dinâmico
Usa LLMs para interpretação contextual e tomada de decisões inteligentes
Uso de Ferramentas
Integra com APIs, bancos de dados e serviços externos através de tools
Multi-turn
Mantém contexto em conversas longas e complexas
Flexibilidade
Adapta-se a diferentes cenários sem reprogramação
Criando seu Primeiro Agente LLM
Passo a Passo na Plataforma
Vamos criar um agente LLM completo usando a interface do Evo AI:
Sistemas Multi-Agente (Sub-Agents)
Conceitos Fundamentais
Baseado no Google Agent Development Kit, sistemas multi-agente permitem criar aplicações complexas através da composição de múltiplos agentes especializados.
Função transfer_to_agent: Quando você configura sub-agentes para um agente LLM, automaticamente uma ferramenta transfer_to_agent
é disponibilizada. Esta função permite que o agente principal delegue a execução da sessão para um dos seus sub-agentes especializados, transferindo o controle completo da conversa.
Hierarquia de Agentes
Estrutura pai-filho onde agentes coordenam sub-agentes especializados
Agentes de Workflow
Orquestradores que gerenciam fluxo de execução entre sub-agentes
Comunicação
Mecanismos para compartilhar estado e delegar tarefas entre agentes
Especialização
Cada agente foca em uma responsabilidade específica
Configurando Sub-Agentes na Plataforma
Mecanismos de Comunicação
Padrões Comuns de Multi-Agente
1. Padrão Coordenador/Dispatcher
2. Padrão Pipeline Sequencial
3. Padrão Gerador-Crítico
Testando seu Agente
Primeira Conversa
Componentes Essenciais na Interface
1. Identidade e Propósito
2. Instruções (Instructions)
3. Configurações Avançadas
Casos de Uso Comuns
Atendimento ao Cliente
Configuração recomendada:
- Model: GPT-3.5-turbo (rápido)
- Temperature: 0.3 (consistente)
- Sub-agents: Especialistas por área
- Tools: Base de conhecimento
- Agent Settings:
- Load Memory: ✅ (lembrar preferências)
- Load Knowledge: ✅ (FAQ e políticas)
- Output Schema: ✅ (tickets estruturados)
Assistente de Vendas
Configuração recomendada:
- Model: GPT-4 (raciocínio avançado)
- Temperature: 0.7 (criativo)
- Sub-agents: Qualificador, demonstrador
- Tools: Catálogo de produtos
- Agent Settings:
- Load Memory: ✅ (histórico cliente)
- Planner: ✅ (processo vendas)
- Output Schema: ✅ (dados estruturados)
Análise de Dados
Configuração recomendada:
- Model: Claude-3-Sonnet (analítico)
- Temperature: 0.2 (preciso)
- Sub-agents: Coletores de dados
- Tools: APIs de dados
- Agent Settings:
- Planner: ✅ (análises complexas)
- Output Schema: ✅ (relatórios padronizados)
- Load Knowledge: ✅ (metodologias)
Assistente Pessoal
Configuração recomendada:
- Model: Gemini-Pro (multimodal)
- Temperature: 0.5 (equilibrado)
- Sub-agents: Agenda, tarefas
- Tools: Calendário, email
- Agent Settings:
- Load Memory: ✅ (preferências pessoais)
- Preload Memory: ✅ (contexto completo)
- Planner: ✅ (organização tarefas)
Melhores Práticas
Próximos Passos
Agentes de Workflow
Aprenda sobre agentes determinísticos para processos estruturados
Configurações Avançadas
Explore configurações avançadas de agentes e ferramentas
Protocolo A2A
Integre com outros sistemas usando o protocolo Agent-to-Agent
Ferramentas Personalizadas
Crie ferramentas específicas para suas necessidades
Os agentes LLM são a base para criar experiências de IA verdadeiramente inteligentes e adaptáveis. Com a configuração adequada via interface da plataforma, você pode construir assistentes poderosos que atendem às necessidades específicas do seu negócio.