AI-Native Product Studio · Lab
Contexto
En CruiseFinder tenemos un agente WhatsApp que vende cruceros. Usa 13 tools para buscar inventario, calcular precios, generar cotizaciones y escalar a humanos. Probamos tanto Claude (Anthropic) como GPT-4 (OpenAI) en produccion.
La arquitectura
Implementamos un ChatProviderInterface que abstrae el provider de LLM. Esto nos permite cambiar entre Claude y GPT-4 sin tocar la logica de negocio:
interface ChatProviderInterface
{
public function chat(array $messages, array $tools): ChatResponse;
}
Los resultados
| Metrica | Claude Sonnet | GPT-4o-mini | |---------|--------------|-------------| | Precision de tool selection | 94% | 87% | | Latencia promedio | 2.1s | 1.8s | | Costo por conversacion | $0.03 | $0.02 | | Manejo de contexto largo | Excelente | Bueno |
Conclusion
Claude gana en precision de tool-calling. GPT-4o-mini gana en latencia y costo. Nuestra solucion: Claude como provider principal, GPT-4 como fallback con circuit breaker.