Saltar al contenido principal

Hallucination

Alucinación de Modelos de IA

Hallucination (Alucinación) es el fenómeno donde un modelo de lenguaje (LLM) genera información que parece plausible y confiable pero es factualmente incorrecta o completamente inventada. Puede incluir citas falsas, estadísticas inventadas, o atribuir declaraciones a personas que nunca las dijeron.

Tipos de Hallucination

  • Citas falsas — El modelo inventa fuentes o atribuye incorrectamente
  • Datos fabricados — Estadísticas, fechas o números inventados
  • Personas inexistentes — Referencias a expertos o autores que no existen
  • Eventos ficticios — Describir sucesos que nunca ocurrieron
  • Mezcla de información — Combinar datos de diferentes contextos incorrectamente

Por qué ocurren las hallucinations

Los LLMs no "saben" información—predicen la siguiente palabra más probable:

  1. Son modelos predictivos — Generan texto estadísticamente probable, no factualmente verificado
  2. No tienen modelo del mundo — No verifican contra una "verdad" externa
  3. Entrenamiento incompleto — Pueden no tener datos sobre temas específicos
  4. Presión por completar — Prefieren dar una respuesta que decir "no sé"
  5. Patrones de lenguaje — A veces el patrón lingüístico lleva a completar con información falsa

Hallucination y GEO

Las hallucinations tienen implicaciones directas para tu estrategia GEO:

Riesgos

  • Cita incorrecta de tu marca — El modelo puede atribuirte cosas que no dijiste
  • Información falsa sobre tu empresa — Datos inventados sobre productos o servicios
  • Competidores citados en tu lugar — El modelo puede confundir fuentes

Cómo reducir hallucinations sobre tu marca

  1. Información clara y estructurada — Datos fáciles de extraer y verificar
  2. Schema Markup completo — Datos estructurados que el modelo puede leer claramente
  3. llms.txt — Instrucciones explícitas para LLMs sobre tu marca
  4. Consistencia multi-fuente — La misma información en múltiples sitios reduce hallucinations
  5. Corroboración externa — Estrategia Surround Sound

Plataformas y hallucination

Plataforma Tendencia a hallucinations Por qué
ChatGPT (sin Browse) Alta Solo usa conocimiento base
ChatGPT (con Browse) Media Verifica contra web pero puede mezclar
Perplexity Baja Siempre busca en tiempo real y cita
Google AI Overviews Baja-Media Usa Search pero sintetiza
Claude Media Diseñado para ser más cauto
Por qué Perplexity es importante: Al siempre citar fuentes verificables, Perplexity reduce significativamente el riesgo de hallucinations. Esto hace que la optimización para Perplexity sea especialmente valiosa para proteger la integridad de tu marca.