Tipos de Hallucination
- Citas falsas — El modelo inventa fuentes o atribuye incorrectamente
- Datos fabricados — Estadísticas, fechas o números inventados
- Personas inexistentes — Referencias a expertos o autores que no existen
- Eventos ficticios — Describir sucesos que nunca ocurrieron
- Mezcla de información — Combinar datos de diferentes contextos incorrectamente
Por qué ocurren las hallucinations
Los LLMs no "saben" información—predicen la siguiente palabra más probable:
- Son modelos predictivos — Generan texto estadísticamente probable, no factualmente verificado
- No tienen modelo del mundo — No verifican contra una "verdad" externa
- Entrenamiento incompleto — Pueden no tener datos sobre temas específicos
- Presión por completar — Prefieren dar una respuesta que decir "no sé"
- Patrones de lenguaje — A veces el patrón lingüístico lleva a completar con información falsa
Hallucination y GEO
Las hallucinations tienen implicaciones directas para tu estrategia GEO:
Riesgos
- Cita incorrecta de tu marca — El modelo puede atribuirte cosas que no dijiste
- Información falsa sobre tu empresa — Datos inventados sobre productos o servicios
- Competidores citados en tu lugar — El modelo puede confundir fuentes
Cómo reducir hallucinations sobre tu marca
- Información clara y estructurada — Datos fáciles de extraer y verificar
- Schema Markup completo — Datos estructurados que el modelo puede leer claramente
- llms.txt — Instrucciones explícitas para LLMs sobre tu marca
- Consistencia multi-fuente — La misma información en múltiples sitios reduce hallucinations
- Corroboración externa — Estrategia Surround Sound
Plataformas y hallucination
| Plataforma | Tendencia a hallucinations | Por qué |
|---|---|---|
| ChatGPT (sin Browse) | Alta | Solo usa conocimiento base |
| ChatGPT (con Browse) | Media | Verifica contra web pero puede mezclar |
| Perplexity | Baja | Siempre busca en tiempo real y cita |
| Google AI Overviews | Baja-Media | Usa Search pero sintetiza |
| Claude | Media | Diseñado para ser más cauto |
Por qué Perplexity es importante: Al siempre citar fuentes verificables, Perplexity reduce significativamente el riesgo de hallucinations. Esto hace que la optimización para Perplexity sea especialmente valiosa para proteger la integridad de tu marca.