• Nuestros productos:
  • BSP chattigo • Proveedor oficial de whatsapp
  • chattigo Bot • Atención automatizada
  • Atención humana • Conversaciones en un solo lugar
read

Flujos de atención en WhatsApp para soporte nivel 1, 2 y 3

By chattigo

La mayoría de las áreas de servicio al cliente en LATAM ya dependen de WhatsApp como canal principal. Sin embargo, operar WhatsApp “a pulso” con un solo inbox y agentes resolviendo de todo termina generando colas largas, tiempos irregulares y poca previsibilidad. 

La solución es llevar al chat el mismo rigor que usamos en contact centers maduros: flujos de soporte por niveles (L1/L2/L3) combinados con automatización inteligente y reglas de escalamiento que protegen los SLA. Este artículo te mostrará cómo diseñar y operar esos flujos en WhatsApp con un enfoque práctico: mapeo de casos, triage con bot, handoff con contexto, ruteo por skills, base de conocimientos, métricas y mejora continua.

En el modelo por niveles, L1 resuelve motivos simples y repetitivos, L2 atiende casos que requieren herramientas o conocimiento especializado, y L3 aborda incidentes complejos o de plataforma que usualmente involucran a TI o a un product owner. Diseñar el flujo así no solo reduce tiempos; también estandariza la experiencia y hace predecible el staffing.

Mapeo de casos por nivel

Todo parte con clasificar la demanda real. No uses la intuición: revisa conversaciones históricas y extrae los “motivos top”.

Cómo clasificar

  • Frecuencia y repetición: motivos que aparecen todos los días suelen pertenecer a L1 (FAQs, estado de pedido, cambios de datos básicos, reenvío de comprobantes).

  • Complejidad funcional: pasos que requieren validaciones múltiples, acceso a sistemas internos o intervención de áreas (logística, finanzas) suelen ser L2.

  • Riesgo y criticidad: incidentes, fraude, fallas de plataforma, errores de facturación crítica o temas regulatorios son L3.

Criterios de decisión

  • Datos necesarios: si el caso puede resolverse con datos que el usuario aporta en un formulario conversacional, probablemente sea L1.

  • Herramientas requeridas: si el agente debe usar un backoffice o credenciales especiales, clasifícalo en L2.

  • Tiempo objetivo: define un SLA por motivo. Ejemplo: L1 ≤ 15 min, L2 ≤ 8 horas, L3 ≤ 24–48 horas (según severidad).

Skills y rutas

  • L1: agentes generalistas, macros, scripts y acceso mínimo.

  • L2: agentes con permisos a sistemas, conocimiento de procesos y contacto directo con áreas de apoyo.

  • L3: especialistas o escuadras técnicas con calendario de guardias, on-call y criterios de severidad.

Triaging automático con bot

El bot es la “puerta” del flujo. Su objetivo no es resolverlo todo, sino clasificar, capturar datos y validar para que cada conversación llegue lista al nivel correcto.

Captura de datos

  • Identificación: nombre, documento/ID, teléfono normalizado, correo si aplica.

  • Contexto del caso: número de pedido, fecha, canal de compra, tienda/país.

  • Pruebas y adjuntos: foto de boleta, captura de error, guía de despacho.

  • Consentimientos: acepta términos, compartir datos, tratamiento de PII.

Detección de intent y validaciones

  • Intent detection: entrenar intents por motivo top (p. ej., “cambiar dirección”, “reprogramar cita”, “factura no llega”, “error de pago”).

  • Validaciones: formatos (RUT/RFC, email), catálogos (ciudades, tiendas), obligatoriedad (sin ese dato no se deriva).

  • Reglas de negocio: por ejemplo, reprogramar solo si el pedido no está “en ruta”.

Ruteo inicial

  • Si el intent está por encima del umbral de confianza y cumple reglas, el bot decide: resolver (L1 automatizado) o derivar a la cola L1/L2 correspondiente.

  • Ante baja confianza o señales de frustración, handoff inmediato a agente.

Handoff a agente con contexto

El handoff es donde se suele perder tiempo y calidad. La regla de oro: ningún agente debería volver a pedir datos que el bot ya capturó.

Paquete de contexto mínimo

  • Identidad normalizada (E.164, documento, email si aplica).

  • Intent detectado + score.

  • Datos capturados (pedido, dirección, adjuntos).

  • Tags: motivo, submotivo, país/tienda, idioma.

  • Prioridad (VIP, severidad, plazos).

  • Historial breve: qué hizo el bot y qué falta.

  • Consentimientos y políticas aceptadas.

Experiencia del usuario

  • Mensaje de transición claro: “Te conecto con un agente especializado en . Tiempo estimado .”

  • Estado visible: “En cola L1/L2”, “Reasignado”, “En resolución”.

  • Si no hay agentes disponibles, ofrecer opciones: dejar caso abierto, callback, o derivar a canal alterno.

Notas internas y colaboración

  • El agente debe poder anotar acciones, adjuntar evidencia, escalar con un clic y mencionar a supervisores o equipos L2/L3.

  • Toda acción queda auditada: quién cambió estado, quién envió plantilla, quién reabrió el caso.

Reglas de escalamiento y prioridades

Con el tráfico real, el milagro no es que no haya cuellos, sino que no se queden ocultos. Para eso sirven las reglas y los umbrales.

SLA por nivel

  • L1: primera respuesta en minutos, resolución dentro de la sesión (ventana de 24 h).

  • L2: primera respuesta dentro de la hora, resolución en la misma jornada laboral o menos de 8 h.

  • L3: acknowledge inmediato, resolución según severidad (S1 crítico, S2 alto, S3 medio).

Colas y horarios

  • Colas por skill/idioma/país y horarios con calendario de feriados locales.

  • Overflow programado: si la cola L1 supera X conversaciones o FRT>umbral, activar refuerzo desde otra cola de mismo skill.

Escalamiento forzado

  • Por tiempo: si el caso L1 no se resuelve en Y minutos, sube a L2.

  • Por regla: si el bot detecta señal de fraude, salta directo a L3.

  • Por sentimiento/severidad: palabras clave o adjuntos (boletas de monto alto, “denuncia”, “demanda”).

Base de conocimientos y macros

La estandarización es el antídoto contra respuestas inconsistentes y TMO altos.

Base de conocimientos

  • Artículos cortos y accionables con pasos numerados.

  • Variantes por país/idioma y por sistema (ERP A vs ERP B).

  • Mantenla viva: botón de “reportar desactualizado” y responsable por tema.

Macros y snippets

  • L1: respuestas listas para FAQs, estados, condiciones, formularios.

  • L2: scripts para diagnósticos, solicitudes a backoffice, evidencias.

  • L3: comunicaciones de incidentes, mensajes de contención y plazos.

Gobierno de contenidos

  • Propietario por dominio (logística, pagos, facturación).

  • Revisión mensual/quarterly.

  • Métrica por artículo/macro: uso, éxito, tasa de recontacto.

Medición operativa

Lo que no mides, no mejorará. Define un tablero diario y uno ejecutivo.

Contención por nivel

  • % de conversaciones resueltas por el bot (L1 automatizado).

  • % resueltas por L1 humano sin escalar a L2.

  • % que escalan a L2 y % que llegan a L3.

  • Objetivo: aumentar contención en L1 sin sacrificar CSAT.

Tiempos y resoluciones

  • FRT (First Response Time) por nivel y cola.

  • TMO/AHT por nivel y motivo.

  • FCR (First Contact Resolution) global y por rama.

  • Requeue rate: cuántas veces rebota un caso entre colas.

Backlog y aging

  • Casos abiertos por cola/nivel.

  • Antigüedad promedio y distribución (0–2 h, 2–8 h, 8–24 h, +24 h).

  • Alertas automáticas cuando cierto % cruza el SLA.

Calidad percibida

  • CSAT/CES por motivo y por nivel.

  • Comentarios abiertos con análisis de sentimiento ligero para detectar nuevas fricciones.

Mejora continua

Una operación por niveles es un organismo vivo: aprende si alimentas el ciclo.

Reentrenamiento de intents

  • Revisa semanalmente falsos positivos/negativos.

  • Añade ejemplos reales, sinónimos y negativas por intent.

  • Ajusta umbrales y reordena jerarquías de enrutamiento.

A/B de flujos

  • Cambia microcopys, orden de pasos, número de opciones en menús.

  • Prueba horarios de plantillas proactivas (recuperación, recordatorios).

  • Define tamaño de muestra y criterio de éxito antes de lanzar.

Retroalimentación con analítica

  • Cruza abandono por paso con comentarios de agentes.

  • Si un artículo de conocimiento tiene alta tasa de recontacto, reescríbelo o añade un flow de validación automática.

  • Si una macro dispara quejas, revísala o limita su uso.

Ejemplo práctico de diseño L1/L2/L3 en WhatsApp

Imagina un retail de eCommerce con picos en campañas. Así podría verse el flujo:

L1 (bot + agentes generalistas)

  • Entrada por WhatsApp con menús y quick replies: “Mi pedido”, “Cambiar dirección”, “Devoluciones”, “Pagos”.

  • El bot captura ID de pedido y valida estado en ERP. Si está “en preparación”, permite “cambiar dirección” dentro de una ventana; si está “en ruta”, ofrece opciones de reprogramación o retiro.

  • Casos resueltos automáticamente: comprobante, estado, reenvío de boleta, FAQ envíos. Si hay excepción, handoff a L1 humano con contexto.

L2 (especialistas de backoffice)

  • Reciben casos con validaciones listas (pedido, comuna, método de pago).

  • Acceden a herramientas: cambio de dirección en ERP, reemisión de factura, nota de crédito.

  • Si el ERP rechaza la acción o hay inconsistencia, escalan a L3 con toda la trazabilidad.

L3 (incidentes y TI)

  • Gestionan incidencias: caída de integraciones, error en cálculo de tarifas, indisponibilidad de pasarela.

  • Comunican estados en el mismo hilo (plantillas de incidente), definen workarounds y tiempos de recuperación.

  • Una vez resuelto, envían cierre con instrucción al usuario y encuesta CSAT.

Roles y responsabilidades

Para que funcione, el gobierno debe ser claro.

Agente

  • Ejecuta playbooks y macros.

  • Actualiza estado y cierra casos documentando solución.

  • Reporta huecos en conocimiento y fallas de flujo.

Supervisor

  • Monitorea SLA, backlog y aging en tiempo real.

  • Reasigna y equilibra carga entre colas/skills.

  • Realiza coaching con scorecards y 1:1 breves.

Admin

  • Gobierna plantillas, Flows, integraciones y permisos.

  • Publica cambios post-QA y audita bitácoras.

  • Mantiene el catálogo de motivos y taxonomía de etiquetas.

Checklist de implementación

  • Motivos top identificados y clasificados en L1/L2/L3.

  • Bot con intents y formularios conversacionales para triage.

  • Handoff con paquete de contexto mínimo definido.

  • Colas por skill/idioma/país y reglas de escalamiento por tiempo y severidad.

  • Base de conocimientos y macros versionadas por país.

  • Dashboards con FRT, TMO, FCR, contención, backlog y CSAT/CES.

  • Alertas por SLA, picos y aging.

  • Ciclo de mejora: retraining semanal, A/B de pasos, limpieza de macros.

Conclusión

Operar WhatsApp con flujos L1/L2/L3 te permite ordenar la demanda, bajar tiempos, evitar re-trabajo y proteger los SLA incluso en picos. La clave no es automatizar todo, sino automatizar lo correcto, derivar con contexto completo y medir de forma obsesiva para mejorar cada semana. Con un inbox omnicanal, ruteo inteligente y una base de conocimientos viva, tu operación gana velocidad sin perder calidad.

Solicita un blueprint L1/L2/L3 en chattigo y acelera tu tiempo de resolución.

Etiquetas: API oficial WhatsApp