¿Qué Son los Embeddings?
Los embeddings son representaciones vectoriales numéricas de texto que capturan el significado semántico. Textos similares producen vectores similares, habilitando la búsqueda semántica — encontrar documentos relevantes basándose en significado en lugar de coincidencias exactas de palabras clave. Los embeddings son el motor que impulsa la recuperación de RAG.
Conceptos Clave de Embedding
- Dimensiones: El número de valores en el vector (256 a 3072). Más dimensiones pueden capturar más matices pero cuestan más almacenar
- Métricas de Similitud: Similitud coseno, producto punto o distancia euclidiana para comparar vectores
- Ventana de Contexto: Máximo de tokens que el modelo puede embeber a la vez (512 a 8192)
- Normalización: La mayoría de los modelos normalizan vectores a longitud unitaria para similitud coseno consistente
Mejores Prácticas de Embedding
- Coincide modelos de consulta y documento: Siempre usa el mismo modelo de embedding para consultas y documentos
- Agrupa tus embeddings: Las llamadas API son más eficientes en lotes de 100-2000 textos
- Cachea embeddings: No re-embebas documentos sin cambios — almacena y reutiliza vectores
- Normaliza vectores: Asegúrate de que todos los vectores estén normalizados L2 para similitud coseno consistente
- Evalúa con tus datos: Las puntuaciones MTEB son generales — prueba en tu dominio específico para mejores resultados
Resumen
El modelo de embedding que elijas impacta directamente la calidad de recuperación de RAG. El text-embedding-3-small de OpenAI ofrece el mejor equilibrio de costo y calidad para la mayoría de aplicaciones. Para máxima calidad, considera Voyage AI o Cohere. Para privacidad o uso offline, los modelos de código abierto como BGE-large funcionan bien. Siempre evalúa en tus datos y caso de uso específicos antes de comprometerte con un modelo.