Memorystore para Redis admite el almacenamiento y las consultas de datos vectoriales. En esta página, se proporciona información sobre la búsqueda de vectores en Memorystore para Redis.
La búsqueda de vectores en Memorystore para Redis es compatible con el framework de LLM de código abierto LangChain. Usar la búsqueda de vectores con LangChain te permite crear soluciones para los siguientes casos de uso:
- Generación mejorada por recuperación (RAG)
- Caché de LLM
- Motor de recomendaciones
- Búsqueda semántica
- Búsqueda de imágenes similares
La ventaja de usar Memorystore para almacenar tus datos de IA generativa es su velocidad. La búsqueda de vectores en Memorystore para Redis aprovecha las consultas de subprocesos múltiples, lo que genera una alta capacidad de procesamiento de consultas (QPS) con baja latencia.
Memorystore también proporciona dos enfoques de búsqueda distintos para ayudarte a encontrar el equilibrio adecuado entre velocidad y precisión. La opción HNSW (navegación jerárquica de mundo pequeño) ofrece resultados rápidos y aproximados, ideal para grandes conjuntos de datos en los que una coincidencia cercana es suficiente. Si necesitas precisión absoluta, el enfoque "FLAT" produce respuestas exactas, aunque el procesamiento puede tardar un poco más.
Si deseas optimizar tu aplicación para obtener las velocidades de lectura y escritura de datos vectoriales más rápidas, es probable que Memorystore para Redis sea la mejor opción para ti.