Word2vec es un modelo matemático desarrollado por Google que representa palabras en un espacio vectorial de N dimensiones de tal forma que palabras con contextos similares quedan próximas unas de otras. Word2vec utiliza redes neuronales para proyectar cada palabra en un vector, usando como entrada el contexto de la palabra (modelo CBOW) o la palabra como entrada y el contexto como salida (modelo skip-gram). Esto permite realizar operaciones como calcular la capital de un país a partir de su nombre.