SlideShare una empresa de Scribd logo
Caso práctico con Hadoop: Un
buscador vertical escalable	
Iván de Prado Alonso, Cofundador de Datasalt	
Twitter: @ivanprado
Contenidos	

§  El problema	
§  La solución obvia	
§  Cuando la solución obvia falla…	
§  … Hadoop viene al rescate	
§  Ventajas y Desventajas	
§  Mejoras
¿Qué es un buscador vertical?	
Proveedor 1

                      Buscador Vertical


              Feed
                                               ue   das
                                          Búsq




Proveedor 2

                                           Búsq
                                                  ueda
                 ed                                       s
               Fe
Algunos de ellos
Arquitectura “obvia”
                                 	
                 Lo primero que llega a la cabeza



   Feed

                     Existe?
                  Ha cambiado?
                Inserta/actualiza   Base de Datos
Descargar y
 Procesar
              Inserta/actualiza



                                       Indice       Search Page
                                    Lucene/Solr
Funcionamiento	

§  Descarga del feed	
§  Para cada registro en el feed	
  •  Comprobar si ya lo tenemos en la BD	
  •  Si ya existe y ha cambiado, actualizar	
     ª la BD	
     ª El índice	
  •  Si no existe, insertar en	
     ª la BD	
     ª el índice
Funcionamiento (II)
                            	
§  La BD proporciona	
  •  Un sistema para comprobar la existencia o no
     de un registro (evitar duplicados)	
  •  Gestión de los datos vía SQL	
§  Lucene/Solr proporciona	
  •    Alta velocidad de búsqueda	
  •    Búsquedas por campos estructurados	
  •    Búsquedas textuales	
  •    Faceting
Pero si todo va bien…	


                                                                       Feed           Feed
                 Feed                 Feed
 Feed                                                           Feed

                                                         Feed                                Feed
                               Feed                                                  Feed
        Feed
                                             Feed                             Feed
                               Feed
Feed
                 Feed Feed                                Feed Feed
                                                       Feed                          Feed
                                      Feed                                                   Feed
                                                                                     Feed
                    Feed
                                                    Feed
                                                Feed                             Feed
                        Feed                                                                        Feed
Feed      Feed                                                  Feed
                                         Feed                                        Feed
Atasco Monumental
“Swiss army knife of the 21st
                                            century”	
                                                         	
Media Guardian Innovation Awards
                                                                                          	




http://www.guardian.co.uk/technology/2011/mar/25/media-guardian-innovation-awards-apache-hadoop
Hadoop	
    “The Apache Hadoop
     software library is a
 framework that allows for
the distributed processing
  of large data sets across
clusters of computers using
   a simple programming
           model”  	
               De la página de Hadoop
Sistema de Ficheros
                         	

§  Sistema de ficheros distribuido (HDFS)	
  •  Bloques grandes: 64 Mb	
  •  Tolerante a Fallos (replicación)	
  •  Habitualmente ristras de pares [clave,
     valor]
MapReduce	
§  Dos funciones (Map y Reduce)	
   •  Map(k, v) : [z,w]*	
   •  Reduce(k, v*) : [z, w]*	
§  Ejemplo: contar palabras	
   •  Map([documento, null]) -> [palabra, 1]*	
   •  Reduce(palabra, 1*) -> [palabra, total]	
§  MapReduce y SQL	
   •  SELECT palabra, count(*) GROUP BY palabra	
§  Ejecución distribuida en un cluster con
    escalabilidad horizontal
Vale, mola mucho, pero…
¿cómo soluciona esto mi
       problema?
Y es que…	


§ Hadoop no es una DB	
§ Hadoop “aparentemente” sólo
   procesa datos	
§ Hadoop no permite “lookups”	
    Hadoop supone un cambio de paradigma
                               	
             que cuesta asimilar
Arquitectura
Filosofía	
§  Reprocesarlo todo siempre. ¡TODO!	
§  ¿Por qué?	
     •  Más tolerante a fallos	
     •  Más flexible	
     •  Más eficiente. Ej:	
       ª    Con un HD de 7200 RPM	
               –  Random IOPS – 100 	
               –  Lectura secuencial – 40 MB/s	
               –  Tamaño de registro: 5 Kb	
       ª    … con que un 1,25% de los registros cambien, es más rápido reescribirlo
             todo que hacer accesos aleatorios de actualización.	
               –  100 MB, 20.000 registros	
                    »  Lectura secuencial: 2,5 sg	
                    »  Lectura aleatoria: 200 sg
Fetcher
                                       	
    Se descarga los feeds y los almacena en el HDFS	

§  MapReduce	
   •  Input: [feed_url, null]*	
            Reducer Task


   •  Mapper: identidad	
   •  Reducer(feed_url,                     Reducer Task

      null*)	
                                             HDFS


       ª  Descargar el feed y
                                            Reducer Task
         subirlo a un
         directorio en el HDFS
Processor
                          	
  Parsea los feeds, los convierte en documentos y los
                        deduplica	
§  MapReduce	
  •  Input: [ruta_feed, null]*	
  •  Map(ruta_feed, null) : [id, documento]*	
     ª Parsea el feed y lo convierte en una serie de
       documentos	
  •  Reducer(id, [documento]*): [id, documento]	
     ª Recibe una lista de documentos y se queda con el
        más reciente (deduplicación)	
     ª Necesidad de un identificador único global
        (idProveedor + idInterno)	
  •  Output: [id, documento]*
Processor (II)
                              	

§  Posible problema:	
   •  Feeds de tamaño muy grande	
      ª No escala, pues no se puede dividir el trabajo	

§  Solución	
   •  Escribir un InputFormat que sea capaz de
      dividir cada feed en cachos procesables
      más pequeños
Serialización	

§  Writables	
   •  Serialización nativa de Hadoop	
   •  De muy bajo nivel	
   •  Tipos básicos: IntWritable, Text, etc.	
§  Otras	
   •  Thrift, Avro, Protostuff	
   •  Compatibilidad hacia atrás.
Indexer
                                 	
                                               Solr en producción




                                  Despliegue
                                      en
Reducer Task                       caliente
                                                Indice - Shard 1
               Indice - Shard 1

                                                                    Servidor Web
                                  Despliegue
Reducer Task                          en
                                   caliente
                                                Indice - Shard 2
               Indice - Shard 2

Reducer Task
                                  Despliegue
                                                                    Servidor Web
                                      en
                                   caliente
                                                Indice - Shard 3
               Indice - Shard 3
Indexer (II)
                                    	
§  SOLR-1301	
   •    https://issues.apache.org/jira/browse/SOLR-1301	
   •    SolrOutputFormat	
   •    1 índice por cada reducer	
   •    Se usa el Partitioner para controlar dónde colocar
        cada documento	
§  Otra opción	
   •  Escribir tu propio código de indexación	
         ª  Creando un nuevo output format	
         ª  Indexado a nivel de reducer. En cada llamada al reducer:	
             –  Abres un índice	
             –  Escribes todos los registros recibidos	
             –  Cierras el índice
Búsqueda y Particionado	
§  Posible particionado	
   •  Horizontal	
      ª Las búsquedas implican todos los shards	
   •  Vertical: por tipo de anuncio, país, etc.	
      ª Las búsquedas se pueden restringir al shard
        implicado	
§  Solr para servir los índices. Posibilidades	
      ª Solr no federado	
          –  En caso de particionamiento vertical	
      ª Distributed Solr	
      ª Solr Cloud
Reconciliado	

                                              Reconciliado                               Siguientes
                     Del Fetcher                                                           pasos
                                                                        Documentos
                                                                        reconciliados
                                      Fichero de la última ejecución



§  ¿Cómo registrar cambios?	
    •    Cambios en el precio, características, etc	
§  Reconciliando.	
    •    MapReduce:	
           ª    Input: [id, documento]*	
                    –  De la anterior ejecución	
                    –  De la ejecución actual	
           ª    Map: identidad	
           ª    Reduce(id, [documento]*) : [id, documento]	
                    –    Te llegan todos los documentos con el mismo ID	
                    –    Comparas los registros nuevos con los viejos	
                    –    Almacenas en el nuevo objeto la información relevante (ej, si ha subido o bajado el precio)	
                    –    Emites un solo documento.	
§  Esto es el patrón más parecido a una BD que se puede ver en Hadoop
Ventajas de la arquitectura	
§  Escala horizontalmente	
    •  Si se programa adecuadamente	
§  Alta tolerancia a fallos y bugs	
    •  Siempre se reprocesa todo	
§  Flexible	
    •  Por su alto desacople, es fácil hacer grandes cambios	
§  Alto desacople	
    •  Los índices son la única interacción entre los
       servidores web y el back-end	
    •  Los servidores web pueden continuar funcionando
       aún en el caso de que el back-end esté roto.
Desventajas
                        	

§  Procesamiento por Lotes (batch
    oriented)	
  •  No es real-time ni “near” real-time	
  •  Ciclos de actualización de horas	
§  Paradigma de programación
    completamente diferente	
  •  Alta curva de aprendizaje
Mejoras
                                	
§  Sistema para las imágenes	
§  Detección difusa de duplicados	
§  Plasam:	
   •  Combinación de esta arquitectura con un sistema que
      actúe como by-pass para proveer actualizaciones
      “near real-time”	
      ª  Implementando un by-pass sobre los Solrs	
      ª  Sistema para mantener la coherencia de los datos	
          –  Sin saltos hacia atrás en el tiempo	
   •  Combina las ventajas de esta arquitectura, pero le
      dota de real-time	
   •  En Datasalt tenemos un prototipo que realiza esta
      función.
Gracias	
Ivan de Prado, 	
ivan@datasalt.com	
@ivanprado

Más contenido relacionado

PPTX
Monta una Infraestructura Big Data para tu Empresa - Sesión I
PPTX
Arianna Becerril UAEMex UAM
PPTX
MIERCODSGDSGDGDGDSGHSDGDGDSDGASDGLE.pptx
PDF
Introducción a Hadoop
PDF
SolidQ Business Analytics Day | Como de grandes son tus datos
PDF
Sistemas distribuidos
PPTX
Cloud Computing y MapReduce
PPT
Presentación Plataformas Educativas 2012
Monta una Infraestructura Big Data para tu Empresa - Sesión I
Arianna Becerril UAEMex UAM
MIERCODSGDSGDGDGDSGHSDGDGDSDGASDGLE.pptx
Introducción a Hadoop
SolidQ Business Analytics Day | Como de grandes son tus datos
Sistemas distribuidos
Cloud Computing y MapReduce
Presentación Plataformas Educativas 2012

Similar a Buscador vertical escalable con Hadoop (20)

PDF
Hadoop barcamp 2011
PDF
Como de grandes son tus datos
PPTX
Clase Hadoop
PDF
Introducción a la ingeniería dirigida por modelos
PPTX
TRTRTRTRTRTcxfsdfasdfasfasfzasfgsdvfxgbRTRTR.pptx
PPTX
Gesdocgle2 - General
PDF
Liferay Symposium 2012 - Ponencia iSOCO 'Plataformas OpenData con Liferay' Is...
PDF
Embrapa ribda-2009-es2
PDF
Presentación TT Javier Calvo
PPT
Presentacion scorm
PPTX
Presentación liferay symposium 2012
PPTX
lunedgfdsgfdfgdgdsgdsgdsgdgdsgdsgdsgs.pptx
ODP
Hadoop, Cloud y Spring
PDF
Arquitecturas de referencia para los repositorios y preservacion de archivos
PDF
Arquitecturas de Referencia para los Repositorios y Preservación de Archivos
PDF
SQL Server 2008 R2 StreamInsight
Hadoop barcamp 2011
Como de grandes son tus datos
Clase Hadoop
Introducción a la ingeniería dirigida por modelos
TRTRTRTRTRTcxfsdfasdfasfasfzasfgsdvfxgbRTRTR.pptx
Gesdocgle2 - General
Liferay Symposium 2012 - Ponencia iSOCO 'Plataformas OpenData con Liferay' Is...
Embrapa ribda-2009-es2
Presentación TT Javier Calvo
Presentacion scorm
Presentación liferay symposium 2012
lunedgfdsgfdfgdgdsgdsgdsgdgdsgdsgdsgs.pptx
Hadoop, Cloud y Spring
Arquitecturas de referencia para los repositorios y preservacion de archivos
Arquitecturas de Referencia para los Repositorios y Preservación de Archivos
SQL Server 2008 R2 StreamInsight
Publicidad

Más de datasalt (6)

PPTX
Splout SQL - Web latency SQL views for Hadoop
PDF
Tuple map reduce: beyond classic mapreduce
ODP
Big data, map reduce and beyond
PDF
Datasalt - BBVA case study - extracting value from credit card transactions
PDF
Introducción a hadoop
PDF
Scalable vertical search engine with hadoop
Splout SQL - Web latency SQL views for Hadoop
Tuple map reduce: beyond classic mapreduce
Big data, map reduce and beyond
Datasalt - BBVA case study - extracting value from credit card transactions
Introducción a hadoop
Scalable vertical search engine with hadoop
Publicidad

Último (20)

PDF
Diapositiva proyecto de vida, materia catedra
PDF
Instrucciones simples, respuestas poderosas. La fórmula del prompt perfecto.
PDF
programa-de-estudios-2011-guc3ada-para-el-maestro-secundarias-tecnicas-tecnol...
PPTX
Propuesta BKP servidores con Acronis1.pptx
PDF
Documental Beyond the Code (Dossier Presentación - 2.0)
DOCX
TRABAJO GRUPAL (5) (1).docxjesjssjsjjskss
PPTX
Sesion 1 de microsoft power point - Clase 1
PPTX
unidad 3 tecnología 8° básico: planificación y elaboración de un objeto
PPTX
CLAASIFICACIÓN DE LOS ROBOTS POR UTILIDAD
PPT
Protocolos de seguridad y mecanismos encriptación
PDF
capacitación de aire acondicionado Bgh r 410
DOCX
Guía 5. Test de orientación Vocacional 2.docx
PPTX
la-historia-de-la-medicina Edna Silva.pptx
PDF
CyberOps Associate - Cisco Networking Academy
PPTX
Historia Inteligencia Artificial Ana Romero.pptx
PDF
MANUAL de recursos humanos para ODOO.pdf
PDF
ADMINISTRACIÓN DE ARCHIVOS - TICS (SENA).pdf
PPTX
Mecanismos-de-Propagacion de ondas electromagneticas
PPTX
Curso de generación de energía mediante sistemas solares
DOCX
TRABAJO GRUPAL (5) (1).docxsjjsjsksksksksk
Diapositiva proyecto de vida, materia catedra
Instrucciones simples, respuestas poderosas. La fórmula del prompt perfecto.
programa-de-estudios-2011-guc3ada-para-el-maestro-secundarias-tecnicas-tecnol...
Propuesta BKP servidores con Acronis1.pptx
Documental Beyond the Code (Dossier Presentación - 2.0)
TRABAJO GRUPAL (5) (1).docxjesjssjsjjskss
Sesion 1 de microsoft power point - Clase 1
unidad 3 tecnología 8° básico: planificación y elaboración de un objeto
CLAASIFICACIÓN DE LOS ROBOTS POR UTILIDAD
Protocolos de seguridad y mecanismos encriptación
capacitación de aire acondicionado Bgh r 410
Guía 5. Test de orientación Vocacional 2.docx
la-historia-de-la-medicina Edna Silva.pptx
CyberOps Associate - Cisco Networking Academy
Historia Inteligencia Artificial Ana Romero.pptx
MANUAL de recursos humanos para ODOO.pdf
ADMINISTRACIÓN DE ARCHIVOS - TICS (SENA).pdf
Mecanismos-de-Propagacion de ondas electromagneticas
Curso de generación de energía mediante sistemas solares
TRABAJO GRUPAL (5) (1).docxsjjsjsksksksksk

Buscador vertical escalable con Hadoop

  • 1. Caso práctico con Hadoop: Un buscador vertical escalable Iván de Prado Alonso, Cofundador de Datasalt Twitter: @ivanprado
  • 2. Contenidos §  El problema §  La solución obvia §  Cuando la solución obvia falla… §  … Hadoop viene al rescate §  Ventajas y Desventajas §  Mejoras
  • 3. ¿Qué es un buscador vertical? Proveedor 1 Buscador Vertical Feed ue das Búsq Proveedor 2 Búsq ueda ed s Fe
  • 5. Arquitectura “obvia” Lo primero que llega a la cabeza Feed Existe? Ha cambiado? Inserta/actualiza Base de Datos Descargar y Procesar Inserta/actualiza Indice Search Page Lucene/Solr
  • 6. Funcionamiento §  Descarga del feed §  Para cada registro en el feed •  Comprobar si ya lo tenemos en la BD •  Si ya existe y ha cambiado, actualizar ª la BD ª El índice •  Si no existe, insertar en ª la BD ª el índice
  • 7. Funcionamiento (II) §  La BD proporciona •  Un sistema para comprobar la existencia o no de un registro (evitar duplicados) •  Gestión de los datos vía SQL §  Lucene/Solr proporciona •  Alta velocidad de búsqueda •  Búsquedas por campos estructurados •  Búsquedas textuales •  Faceting
  • 8. Pero si todo va bien… Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed Feed
  • 10. “Swiss army knife of the 21st century” Media Guardian Innovation Awards http://www.guardian.co.uk/technology/2011/mar/25/media-guardian-innovation-awards-apache-hadoop
  • 11. Hadoop “The Apache Hadoop software library is a framework that allows for the distributed processing of large data sets across clusters of computers using a simple programming model” De la página de Hadoop
  • 12. Sistema de Ficheros §  Sistema de ficheros distribuido (HDFS) •  Bloques grandes: 64 Mb •  Tolerante a Fallos (replicación) •  Habitualmente ristras de pares [clave, valor]
  • 13. MapReduce §  Dos funciones (Map y Reduce) •  Map(k, v) : [z,w]* •  Reduce(k, v*) : [z, w]* §  Ejemplo: contar palabras •  Map([documento, null]) -> [palabra, 1]* •  Reduce(palabra, 1*) -> [palabra, total] §  MapReduce y SQL •  SELECT palabra, count(*) GROUP BY palabra §  Ejecución distribuida en un cluster con escalabilidad horizontal
  • 14. Vale, mola mucho, pero… ¿cómo soluciona esto mi problema?
  • 15. Y es que… § Hadoop no es una DB § Hadoop “aparentemente” sólo procesa datos § Hadoop no permite “lookups” Hadoop supone un cambio de paradigma que cuesta asimilar
  • 17. Filosofía §  Reprocesarlo todo siempre. ¡TODO! §  ¿Por qué? •  Más tolerante a fallos •  Más flexible •  Más eficiente. Ej: ª  Con un HD de 7200 RPM –  Random IOPS – 100 –  Lectura secuencial – 40 MB/s –  Tamaño de registro: 5 Kb ª  … con que un 1,25% de los registros cambien, es más rápido reescribirlo todo que hacer accesos aleatorios de actualización. –  100 MB, 20.000 registros »  Lectura secuencial: 2,5 sg »  Lectura aleatoria: 200 sg
  • 18. Fetcher Se descarga los feeds y los almacena en el HDFS §  MapReduce •  Input: [feed_url, null]* Reducer Task •  Mapper: identidad •  Reducer(feed_url, Reducer Task null*) HDFS ª  Descargar el feed y Reducer Task subirlo a un directorio en el HDFS
  • 19. Processor Parsea los feeds, los convierte en documentos y los deduplica §  MapReduce •  Input: [ruta_feed, null]* •  Map(ruta_feed, null) : [id, documento]* ª Parsea el feed y lo convierte en una serie de documentos •  Reducer(id, [documento]*): [id, documento] ª Recibe una lista de documentos y se queda con el más reciente (deduplicación) ª Necesidad de un identificador único global (idProveedor + idInterno) •  Output: [id, documento]*
  • 20. Processor (II) §  Posible problema: •  Feeds de tamaño muy grande ª No escala, pues no se puede dividir el trabajo §  Solución •  Escribir un InputFormat que sea capaz de dividir cada feed en cachos procesables más pequeños
  • 21. Serialización §  Writables •  Serialización nativa de Hadoop •  De muy bajo nivel •  Tipos básicos: IntWritable, Text, etc. §  Otras •  Thrift, Avro, Protostuff •  Compatibilidad hacia atrás.
  • 22. Indexer Solr en producción Despliegue en Reducer Task caliente Indice - Shard 1 Indice - Shard 1 Servidor Web Despliegue Reducer Task en caliente Indice - Shard 2 Indice - Shard 2 Reducer Task Despliegue Servidor Web en caliente Indice - Shard 3 Indice - Shard 3
  • 23. Indexer (II) §  SOLR-1301 •  https://issues.apache.org/jira/browse/SOLR-1301 •  SolrOutputFormat •  1 índice por cada reducer •  Se usa el Partitioner para controlar dónde colocar cada documento §  Otra opción •  Escribir tu propio código de indexación ª  Creando un nuevo output format ª  Indexado a nivel de reducer. En cada llamada al reducer: –  Abres un índice –  Escribes todos los registros recibidos –  Cierras el índice
  • 24. Búsqueda y Particionado §  Posible particionado •  Horizontal ª Las búsquedas implican todos los shards •  Vertical: por tipo de anuncio, país, etc. ª Las búsquedas se pueden restringir al shard implicado §  Solr para servir los índices. Posibilidades ª Solr no federado –  En caso de particionamiento vertical ª Distributed Solr ª Solr Cloud
  • 25. Reconciliado Reconciliado Siguientes Del Fetcher pasos Documentos reconciliados Fichero de la última ejecución §  ¿Cómo registrar cambios? •  Cambios en el precio, características, etc §  Reconciliando. •  MapReduce: ª  Input: [id, documento]* –  De la anterior ejecución –  De la ejecución actual ª  Map: identidad ª  Reduce(id, [documento]*) : [id, documento] –  Te llegan todos los documentos con el mismo ID –  Comparas los registros nuevos con los viejos –  Almacenas en el nuevo objeto la información relevante (ej, si ha subido o bajado el precio) –  Emites un solo documento. §  Esto es el patrón más parecido a una BD que se puede ver en Hadoop
  • 26. Ventajas de la arquitectura §  Escala horizontalmente •  Si se programa adecuadamente §  Alta tolerancia a fallos y bugs •  Siempre se reprocesa todo §  Flexible •  Por su alto desacople, es fácil hacer grandes cambios §  Alto desacople •  Los índices son la única interacción entre los servidores web y el back-end •  Los servidores web pueden continuar funcionando aún en el caso de que el back-end esté roto.
  • 27. Desventajas §  Procesamiento por Lotes (batch oriented) •  No es real-time ni “near” real-time •  Ciclos de actualización de horas §  Paradigma de programación completamente diferente •  Alta curva de aprendizaje
  • 28. Mejoras §  Sistema para las imágenes §  Detección difusa de duplicados §  Plasam: •  Combinación de esta arquitectura con un sistema que actúe como by-pass para proveer actualizaciones “near real-time” ª  Implementando un by-pass sobre los Solrs ª  Sistema para mantener la coherencia de los datos –  Sin saltos hacia atrás en el tiempo •  Combina las ventajas de esta arquitectura, pero le dota de real-time •  En Datasalt tenemos un prototipo que realiza esta función.
  • 29. Gracias Ivan de Prado, ivan@datasalt.com @ivanprado