⚙️ Painel Administrativo

Configuração de Prompts e Monitoramento de Custos

← Voltar para Interface Principal | 📖 API Docs

System Prompt

Define o comportamento geral do assistente (persona, regras, tom de voz)

User Prompt Template

Use {context} e {query} como placeholders. Define como a pergunta é formatada.

Parâmetros do LLM

Criatividade: 0.0 = conservador, 1.0 = criativo
Tamanho máximo da resposta

Cálculo de Custos - DeepInfra (Llama-3-8B)

Modelo: meta-llama/Meta-Llama-3-8B-Instruct
Preço Input: $0.055 / milhão de tokens
Preço Output: $0.055 / milhão de tokens

Input: $0.000000
Output: $0.000000
Total por Query: $0.000000

Projeções

100 queries/dia: -
1.000 queries/dia: -
10.000 queries/mês: -

Estimativa de Tokens

Gerenciar Hotéis

📋 Hotéis Disponíveis

Carregando...

➕ Indexar Hotel

O hotel deve existir no banco de dados MSSQL
⚠️ Use quando os dados do MSSQL mudaram significativamente. Mais lento mas garante sincronização 100%.

Versões e Rollback

Digite um código de hotel e clique em "Listar Versões"

Estatísticas

📊 Sistema

Total de Hotéis: -
Hotéis Indexados: -
Status Serviço: ✅ Online

💾 Armazenamento

Diretório VectorDB: /opt/rag-multitenant/vectordb
Arquivo Config: prompts.json

🎯 Intent Classification Ativo

O sistema detecta automaticamente a intenção das perguntas para melhorar as respostas.

✅ CHECK-IN
entrada, chegada, que horas posso entrar
🚪 CHECK-OUT
saída, partida, que horas preciso sair
🚗 ESTACIONAMENTO
garagem, vaga, posso deixar meu carro
🍽️ ALIMENTAÇÃO
cardápio, restaurante, comida, menu
🏊 SERVIÇOS
piscina, wifi, academia, comodidades
🏨 RESERVA
disponibilidade, preço, valor, tarifa
📍 LOCALIZAÇÃO
endereço, onde fica, como chegar
📋 POLÍTICAS
cancelamento, pagamento, regras

Testar Configurações

Selecione para filtrar respostas treinadas específicas

Resultado Principal

Aguardando teste...