SlideShare una empresa de Scribd logo
Descargado por Fernando Green (greenfer30@gmail.com)
FACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE INGENIERÍA DE SISTEMAS
Implementación de Inteligencia de Negocios haciendo uso del
Data Warehouse aplicado a una editorial
GRUPO:
AUTORES:
ASESOR:
EXPERIENCIA CURRICULAR:
Business Intelligence and Big Data
LIMA – PERÚ
2025
Descargado por Fernando Green (greenfer30@gmail.com)
Índice
I. Introducción ....................................................................................................1
II. Problema..........................................................................................................2
III. Objetivos ......................................................................................................3
3.1. Objetivo general...........................................................................................3
3.2. Objetivos específicos..................................................................................3
IV. Antecedentes ...............................................................................................3
4.1. Antecedentes nacionales............................................................................3
4.2. Antecedentes internacionales ....................................................................5
V. Marco teórico ...............................................................................................6
VI. Desarrollo de trabajo...................................................................................9
6.1. Base de datos...............................................................................................9
6.2. Requerimientos..........................................................................................10
6.3. Hoja de análisis: estudio de mercado y captación de clientes..............10
6.4. Creación del modelo físico en Erwin: ......................................................12
6.5. Creación de las dimensiones en SQL Server..........................................13
6.6. Migración de datos ....................................................................................13
6.6.1. Código.....................................................................................................13
6.6.2. Data Tools...............................................................................................16
6.7. Migración de datos Incremental ...............................................................19
6.7.1. Código.....................................................................................................19
6.7.2. Data Tools...............................................................................................23
6.8. Realización de Cubo..................................................................................27
6.9. Reportes de requerimientos .....................................................................28
6.9.1. Power BI..................................................................................................28
6.9.2. Excel........................................................................................................34
6.10. Predicción de ventas SPSS Modeler.....................................................36
ii
VII. Conclusiones .............................................................................................37
Descargado por Fernando Green (greenfer30@gmail.com)
VIII. Recomendaciones .....................................................................................38
IX. Referencias bibliográficas ........................................................................39
Lista de figuras
Figura 1. Diagrama de base de datos PUBS.......................................................... 9
Figura 2. Modelo estrella en ERWIN .....................................................................12
Figura 3. Diagrama de Data Mart SQL Server.......................................................13
Figura 4. Código de migración Store_Dim.............................................................13
Figura 5. Código de migración Employee_Dim......................................................14
Figura 6. Código de migración Titles_Dim .............................................................14
Figura 7. Código de migración Time_Dim..............................................................14
Figura 8. Código de migración Sales_fact .............................................................15
Figura 9. Data Tools migración..............................................................................16
Figura 10. Data Tools migración Store_Dim ..........................................................16
Figura 11. Data Tools migración Employee_Dim...................................................17
Figura 12. Data Tools migración Titles_Dim ..........................................................17
Figura 13. Data Tools migración Time_Dim...........................................................18
Figura 14. Data Tools migración Sales_fact ..........................................................18
Figura 15. Código migración incremental Store_Dim.............................................19
Figura 16. Código migración incremental Employee_Dim .....................................20
Figura 17. Código migración incremental Titles_Dim.............................................20
Figura 18. Código migración incremental Time_Dim .............................................21
Figura 19. Código migración incremental Sales_fact.............................................22
Figura 20. Data Tools migración incremental.........................................................23
Figura 21. Data Tools migración incremental Employee_Dim................................23
Figura 22. Data Tools migración incremental Store_Dim.......................................24
Figura 23. Data Tools migración incremental Time_Dim .......................................24
Figura 24. Data Tools migración incremental Titles_Dim.......................................25
Figura 25. Data Tools migración incremental Sales_Fact......................................26
Figura 26. 1er requerimiento: reporte de la cantidad de libros vendidos por tipo. 28
iii
Descargado por Fernando Green (greenfer30@gmail.com)
Figura 27. 2do requerimiento: reporte del total vendido según el autor. ................28
Figura 28. 3er requerimiento: reporte de la cantidad de libros actuales en la
biblioteca clasificado por autores...........................................................................29
Figura 29. 4to requerimiento: reporte de ingresos según mes y año .....................29
Figura 30. 5to requerimiento: reporte de la cantidad de editoras registrados por
estado....................................................................................................................30
Figura 31. 6to requerimiento: reporte de los títulos menos vendidos por trimestres.
..............................................................................................................................30
Figura 32. 7mo requerimiento: reporte de ingresos por estado de editora.............31
Figura 33. 8vo requerimiento: reporte cantidad de empleados registrados por año
de contratación ......................................................................................................31
Figura 34. 9no requerimiento: reporte de las tiendas que más vendieron por meses.
..............................................................................................................................32
Figura 35. 10mo requerimiento: reporte del total de ventas de libros por ciudad de
tiendas...................................................................................................................32
Figura 36. 1er, 2do y 3er requerimiento Excel .......................................................34
Figura 37. 4to, 5to y 6to requerimiento Excel ........................................................34
Figura 38. 7mo, 8vo y 9no requerimiento Excel.....................................................35
Figura 39. 10mo requerimiento Excel ....................................................................35
Figura 40. Predicción de ingresos a 3 años...........................................................36
iv
Descargado por Fernando Green (greenfer30@gmail.com)
I. Introducción
Sabemos que la información es el activo más importante de todas las
empresas hoy en día, independientemente de su tamaño. El éxito de un
negocio depende de nuestro conocimiento de nuestros clientes, nuestra
comprensión de los procesos internos y la eficiencia con la que llevamos a
cabo todas las actividades que requiere. La información precisa es
actualmente el único medio por el cual una organización puede aprender
sobre los temas mencionados anteriormente. La mayoría de las empresas
tienen muchos datos e información, pero a la vez falta de conocimiento, la
mayoría de estas empresas tienen sistemas separados, cada uno con sus
propias características, capa privada de datos e infraestructura, lo que hace
que actualizar la información sea complicado. Cuanto más organizada e
integrada esté una empresa, más fácil será para cualquier usuario o
colaborador de esa empresa obtener la información que necesita y con ello
encontrar la mejor oportunidad para tomar una decisión al respecto.
Según Villalobos (2021). Ahora que las organizaciones tienen la capacidad de
recopilar y almacenar cantidades masivas de información con datos
operativos y de clientes, el desafío es cómo utilizarlos para que la información
fluya en el momento adecuado, en todos los niveles de la organización,
ampliar la visión estratégica, reducir el riesgo y la incertidumbre. y apoyar
mejor la toma de decisiones. En este sentido, señala que la inteligencia de
negocios no es solo una actitud empresarial o tecnológica, es un marco para
gestionar de manera efectiva las operaciones comerciales que ayuda a los
gerentes a tomar mejores decisiones a nivel corporativo, estratégico y
operativo.
Por tal motivo, las aplicaciones de inteligencia empresarial son útiles para
cualquier negocio, ya que permiten a los gerentes consultar, interpretar y
estimar los datos existentes en su organización para conseguir conocimientos
funcionales que luego los ayudarán a tomar mejores decisiones informadas.
Además, Data Warehouse (DW) es esencial para las aplicaciones de BI
porque integra varias fuentes de datos diversas, especialmente bases de
datos transaccionales estructuradas. Por consiguiente, la capacidad de
1
Descargado por Fernando Green (greenfer30@gmail.com)
gestionar esta información existente es fundamental para el éxito del proceso
de toma de decisiones de una empresa. Por lo tanto, en el presente trabajo
buscamos implementar lo que es inteligencia de negocios para una editorial,
mediante el uso de Data Warehouse.
II. Problema
Actualmente, diversas empresas buscan la forma de gestionar la información
que manejan de una manera más eficiente para que puedan aprovechar todos
los beneficios que les traería ello, por eso mismo, la inteligencia de negocios
surge como una ayuda altamente calificada para realizar dichas tareas.
De esta forma, se buscado representar está problemática por medio de una
editorial, la cual maneja archivos grandes como los autores, tipo de obras,
revistas, etc.
Las editoriales deben mejorar cada día la calidad de los materiales a publicar,
el saber académico y posibilitar la elaboración de grandes obras científicas y
culturales con vistas a contrarrestar los numerosos desafíos de la ciber
sociedad.
El desarrollo de las nuevas tecnologías no implica un cambio radical de la
sociedad, pero sí contribuye a condicionar una nueva sociedad. Las
tendencias y transformaciones antes expuestas han obligado también a
redimensionar las competencias profesionales de los trabajadores del sector
editorial. Estos se han visto en la necesidad de buscar nuevos conocimientos,
idear nuevas formas de trabajo y gestión, adaptarse a la demanda de nuevos
productos y servicios, enfrentarse a los novedosos métodos de impresión y al
tratamiento de recursos digitales con sus constantes cambios.
Por ello, dedicamos varios módulos para repasar todas las bases de datos y
herramientas de gestión de la información que enlazan nuestro producto con
la que hoy en día son agentes imprescindibles de la puesta en venta o el orden
de un libro.
2
Descargado por Fernando Green (greenfer30@gmail.com)
III. Objetivos
3.1. Objetivo general
Diseñar un Data Mart en el que se pueda gestionar adecuadamente la
información de la editorial
3.2. Objetivos específicos
• Analizar la información de la base de datos e identificar las fuentes de datos
requeridas por la editorial.
• Generar reportes a partir del Data Mart implementado.
• Facilitar la toma de decisiones, en base a la Información presentada por el
Data Mart.
IV. Antecedentes
4.1. Antecedentes nacionales
Hurtado y Bernabé (2019) realizaron una investigación titulada “Solución de
inteligencia de negocios que permita una mejor integración de datos y soporte en
la toma de decisiones en el proceso de ventas de la empresa librería crisol S.A.C.
sucursal Trujillo”, donde se tuvo como objetivo mejorar la integración de datos y dar
un mejor soporte en la toma de decisiones para el proceso de ventas de la empresa
Crisol S.A.C. sucursal Trujillo, usando la arquitectura tecnológica MS SQL Server,
la metodología de Ralph Kimball y Qlik Sense, el tipo de investigación es aplicada
y el diseño cuasi-experimental en el cual se evaluará la eficiencia de la nueva
solución (BI) para el soporte en la toma de decisiones del área de ventas, el análisis
de los datos se llevó a cabo por medio de cuadros estadísticos descriptivos
(Pruebas hipótesis nula y alternativa y las Pruebas t de Student siendo la mejor
opción por el tamaño de la muestra = 10 reportes), ya que la información obtenida
será analizada y mostrada por medio de cuadros y gráficos, el tamaño de la muestra
(10) se obtuvo del total de requerimientos de los usuarios finales (Tomadores de
decisión) obtenidos de las entrevistas, en los resultados, primero se realizó un
análisis de todos los requerimientos para luego llegar a elaborar un modelo de datos
dimensional, luego se implementó el modelo dimensional en MS SQL Server
integrando las distintas fuentes de datos de la empresa con una solución ETL, para
3
Descargado por Fernando Green (greenfer30@gmail.com)
después implementar los cubos OLAP de acuerdo con el esquema dimensional en
SQL Server permitiendo tener una mejor vista de análisis y navegabilidad de la
información. Finalmente se pasó a construir los reportes dinámicos en Qlik sense
de acuerdo con las necesidades del usuario final. Como conclusión se logró crear
los reportes de cada requerimiento (10) a través de la herramienta de Qlik Sense
permitiendo una mayor flexibilidad en la elaboración de reportes con una mejor
visualización de la información y se desarrolló el proceso ETL del proyecto
utilizando la herramienta Integration Service el cual permitió mejorar la extracción
de los datos de las fuentes transaccionales para poblar la base de datos
dimensional en la Nube de Azure, poblando las 09 dimensiones y la tabla de
hechos.
Chumpitaz (2021) en su tesis titulada “Análisis diseño e implementación de un Data
Mart de ventas para una empresa de servicios”, tuvo como objetivo generar una
solución informática capaz de almacenar la data histórica de las ventas de la
empresa, que permita explotar la información con reportes y dashboards que ayude
a la empresa a tomar decisiones estratégicas, se usó el método exploratorio como
la metodología para el análisis, en el cual se recopila, analiza y presentan los
resultados sobre la mejor herramienta tecnológica que permita almacenar la data
generada por el negocio, explotar la información y generar. Con este estudio se
obtuvo la información necesaria sobre las necesidades de la empresa LEVA
TRASER SAC y cómo cubrirlas haciendo uso de las tecnologías existentes. Para
realizar este estudio se recopiló información sobre las necesidades urgentes de la
empresa y los datos que tenían relevancia para la generación de reportes y
dashboards. También se evaluó la cantidad de información que manejaban y la
calidad de esta. Como conclusión, La implementación del Data Mart de Ventas
permitió a la empresa almacenar toda la data histórica de ventas del año 2019 en
una base datos. Esto fue muy importante para la empresa, ya que, anteriormente
no tenían un sistema donde se almacene toda esta información y a su vez este
consolidada.
4
Descargado por Fernando Green (greenfer30@gmail.com)
4.2. Antecedentes internacionales
Flacón (2012) desarrolló la tesis titulada “Desarrollo de una solución de
Inteligencia de Negocios en el manejo de estadísticas de control en la venta de
repuestos de la empresa talleres Ambamazda de la ciudad de Ambato”, cuyo
objetivo fue Desarrollar una solución de Inteligencia de Negocios para el manejo
de estadísticas de control en la venta de repuestos de la empresa Talleres
Ambamazda S.A.
La metodología fue descriptiva y el tipo de investigación fue exploratoria, la técnica
que se utilizó fue la encuesta y el instrumento fue el cuestionario, en el que se
tomó como muestra a 15 personas, ello incluye al personal involucrado en el
ingreso de información como los departamentos de Venta, Administrativo y
Gerencial. Los resultados obtenidos indican que el 66.67% creen que mejoraría
totalmente el desempeño en su puesto de trabajo con las estadísticas de control
de ventas de repuestos, el 33.33% creen que mejoraría parcialmente, mientras
que el 0% responde que no mejoraría nada, por lo que se concluye que la empresa
Talleres Ambamazda S.A., tiene problemas en el análisis e interpretación de las
ventas a nivel gerencial, debido a que la información se lleva manualmente y el
volumen de los datos no ayuda a tener resultados reales y oportunos, tanto para
el crecimiento de las ventas, como para un mejor manejo de stock en bodega y
satisfacción de los clientes.
Ríos et al. (2020) publicaron una investigación llamada “Inteligencia de negocios
como estrategia para la toma de decisiones en una empresa financiera”, con el fin
de identificar la importancia del análisis de los sentimientos y a su vez el
comportamiento de los clientes a través de sus preferencias, mediante la
integración de datos de medios sociales basándose en su rentabilidad
optimizando las estrategias de inteligencia de negocio.
Se empleó una metodología descriptiva con diseño no experimental de campo
transversal. El 71% de los profesionales respondieron que la institución financiera
no cuenta con un departamento de análisis de sentimientos. Por lo tanto, se
concluye que las empresas financieras no les conviene dejar de lado el desarrollo
de sistemas inteligentes, debido a que se evidencia deficiencia de estrategias en
5
Descargado por Fernando Green (greenfer30@gmail.com)
las empresas financieras por la falta de utilización de inteligencia artificial y la poca
base de datos que mantienen las mismas, dándole poca importancia a este
aspecto.
V. Marco teórico
Inteligencia de Negocios
Se le conoce también como Business Inteligence (por sus siglas en inglés BI). De
acuerdo a Rouse (2018), esto combina análisis de negocios, minería de datos,
visualización de datos, herramientas e infraestructura de datos, y las prácticas que
son recomendadas para ser capaces de ayudar a las organizaciones a tomar
decisiones más basadas en los datos. Debemos tener en cuenta que esta definición
es algo “moderna” bajo el contexto actual de lo que es la inteligencia de negocios.
……………………………………………………………..
Data Warehouse
Según IBM, es un sistema que combina y agrega información de múltiples fuentes
en un almacén de datos centralizado y único. En otras palabras. Es consistente
para respaldar la minería de datos, análisis empresarial, machine learning y la
inteligencia artificial. Esto permite a las empresas u organizaciones ejecutar análisis
en enormes volúmenes de datos históricos de maneras que una base de datos
común no podría hacer. Estos data warehouses siempre han sido parte de las
6
Descargado por Fernando Green (greenfer30@gmail.com)
soluciones de inteligencia de negocios por más de 30 años, pero en los últimos
años fueron mejorando significativamente. Anteriormente, un data warehouse tenía
una implementación on-premises, …………………………………………………
Procesos ETL
Según Bello (2022), los procesos ETL (Extract, Transform, Load) se refieren a un
conjunto de herramientas, técnicas y tecnologías que nos permiten extraer datos
……………………………………….
Power BI
De acuerdo a Camprovin (2019), Power BI son múltiples aplicaciones y servicios
basados en la nube que permiten a las organizaciones a administrar, recopilar,
analizar y administrar datos de múltiples fuentes a través de una interfaz sencilla
de usar. Este programa recopila los datos y los procesa, transformándolos en
información intangible, siempre utilizando gráficos y tablas convincentes a primera
……………………………………
Descargado por Fernando Green (greenfer30@gmail.com)
8
Descargado por Fernando Green (greenfer30@gmail.com)
VI. Desarrollo de trabajo
6.1. Base de datos
Figura 1. Diagrama de base de datos PUBS
Se observa el diagrama de base de datos de la editorial Pubs, está compuesto por
11 tablas donde se almacenan los datos correspondientes a la misma, la tabla de
títulos representa los libros de la editorial, asimismo, la unión de las tablas se ve
representada por las llaves primarias y llaves foráneas. Esta base de datos contiene
diversos registros de la editorial, no solo la información básica de los libros o autores
de estos mismos, sino también la información de los empleados, editoras, regalías,
tiendas a la que se distribuyen los libros y las ventas.
9
Descargado por Fernando Green (greenfer30@gmail.com)
6.2. Requerimientos.
1. Reporte de la cantidad de libros vendidos por tipo.
2. Reporte del total vendido según el autor.
3. Reporte de la cantidad de libros actuales en la biblioteca clasificado por
autores.
4. Reporte de ingresos según mes y año.
5. Reporte de la cantidad de editoras registrados por estado.
6. Reporte de los títulos menos vendidos por trimestres.
7. Reporte de ingresos por estado de editora.
8. Reporte cantidad de empleados registrados por año de contratación.
9. Reporte de las tiendas que más vendieron por meses.
10.Reporte del total de ventas de libros por ciudad de tiendas.
6.3. Hoja de análisis: estudio de mercado y captación de clientes
PROCESO Estudio de mercado y captación
de empleados
OBJETIVOS Captar futuras personas para el perfil
sugerido y analizado.
Definir los diferentes segmentos
a quien sea dirigido.
Agregar opciones de apoyo para los
empleados
Administrar diferentes canales a
utilizar en cada persona.
INTERROGANTE DIMENSIÓN FORMAS DE ANALIZAR LAS DIMENSIONES
¿Quién? EMPLEADO Código Nombre Contrato
¿Qué? TITULO Titulo Código Tipo País Estado Ciudad Nombre
autor
Año Ventaja
¿Dónde? TIENDA Código Nombre Dirección Ciudad
¿Cuándo? TIEMPO Código Fecha Año/Mes Mes Año Trimestre
10
Descargado por Fernando Green (greenfer30@gmail.com)
Definir dimensiones
DIMENSIONES DESCRIPCIONES
Employee_Dim
Se registra la información de las
personas contratadas y de las
personas extras.
Stores_dim
Se registra el nombre de la tienda y
sus campos del local.
Time_dim
Contiene inscrita las fechas de
venta.
Titles_Dim
Se registra la información de los
títulos de los autores.
Cuadro de dimensiones y jerarquías
Cuadro de dimensiones vs. niveles
NIVELES
Dimensiones NIVEL 1 NIVEL 2 NIVEL 3
Empleado
Tienda
Tiempo
Titulo
Nombre Edad Genero
Nombretienda
Fecha Mes Año
Nombretitulo
Cuadro de medidas y dimensiones
EMPLEADO TIENDA TIEMPO TITULO
qty
total
X X X
X X X
Definir la tabla
HECHOS MEDIDAS TIPO
SALES_FACT qty Simple
total Calculada
11
6.4. Creación del modelo físico en Erwin:
Figura 2. Modelo estrella en ERWIN
Se aprecia la creación del modelo estrella de la base de datos Pubs, dicha representación se realizó en el software Erwin. Este
modelo contiene la información más relevante para analizar en base a los requerimientos establecidos, además, se puede
observar el tipo de dato de cada campo y la distribución de cada una de estas dimensiones.
12
Descargado por Fernando Green (greenfer30@gmail.com)
Descargado por Fernando Green (greenfer30@gmail.com)
6.5. Creación de las dimensiones en SQL Server.
Figura 3. Diagrama de Data Mart SQL Server
Se puede observar el diagrama de la base de datos con sus respectivas
dimensiones, cada uno teniendo su llave primaria y en la tabla hechos Sales_fact
la unión por medio de estas mismas y las medidas respectivas.
6.6. Migración de datos
6.6.1. Código
- Store_Dim
Figura 4. Código de migración Store_Dim
Se observa que se inserta las tablas y se selecciona los campos de la tabla para
que este se establezca y dirija los datos en la otra tabla.
13
Descargado por Fernando Green (greenfer30@gmail.com)
- Employee_Dim
Figura 5. Código de migración Employee_Dim
En este código se selecciona los campos de la tabla en la cual se añade un AS
para tener el nombre representante en la cual se dirija en la tabla Employee y que
mantenga los mismos datos si se desea migrar u otra acción.
- Titles_Dim
Figura 6. Código de migración Titles_Dim
En esta parte se inserta la tabla y selecciona los campos de la tabla Titles, como se
observa también se añaden las palabras reservadas como AS, TYPE para
establecer los datos de la tabla, se añade INNER JOIN para la unión de las tablas
y así mantener la información de los campos.
- Time_Dim
Figura 7. Código de migración Time_Dim
En la tabla Time_Dim se inserta las tablas correspondientes y se selecciona a
través del código DATENAME los datos de los campos, se añade también
DATEPART para que devuelve un numero entero y se dirija a la tabla SALES.
14
Descargado por Fernando Green (greenfer30@gmail.com)
- Sales_fact
Figura 8. Código de migración Sales_fact
Se observa que se inserta todas las llaves de las tablas y se selecciona de para
añadir los campos de las tablas, a la vez se añade INNER JOIN en todas las tablas
y ON para la unión de los campos y la información.
15
Descargado por Fernando Green (greenfer30@gmail.com)
6.6.2. Data Tools
Figura 9. Data Tools migración
- Store_Dim
Figura 10. Data Tools migración Store_Dim
El comando SQL de destino SSIS OLE DB es muy similar al uso de vistas como
destino. Ambos requieren las mismas condiciones. Un comando SQL debe usarse
principalmente cuando la tabla de destino contiene demasiadas columnas y
necesita seleccionar solo una específica, como en este caso se derivó de la DB
Pubs a Stores_Dim.
16
Descargado por Fernando Green (greenfer30@gmail.com)
- Employee_Dim
Figura 11. Data Tools migración Employee_Dim
El comando SQL de destino SSIS OLE DB es muy similar al uso de vistas como
destino. Ambos requieren las mismas condiciones. Un comando SQL debe usarse
principalmente cuando la tabla de destino contiene demasiadas columnas y
necesita seleccionar solo una específica, como en este caso se derivó de la DB
Pubs a Employee_Dim.
- Titles_Dim
Figura 12. Data Tools migración Titles_Dim
El comando SQL de destino SSIS OLE DB es muy similar al uso de vistas como
destino. Ambos requieren las mismas condiciones. Un comando SQL debe usarse
principalmente cuando la tabla de destino contiene demasiadas columnas y
necesita seleccionar solo una específica, como en este caso se derivó de la DB
Pubs a Titles_Dim.
17
Descargado por Fernando Green (greenfer30@gmail.com)
- Time_Dim
Figura 13. Data Tools migración Time_Dim
El comando SQL de destino SSIS OLE DB es muy similar al uso de vistas como
destino. Ambos requieren las mismas condiciones. Un comando SQL debe usarse
principalmente cuando la tabla de destino contiene demasiadas columnas y
necesita seleccionar solo una específica, como en este caso se derivó de la DB
Pubs a Time_Dim.
- Sales_fact
Figura 14. Data Tools migración Sales_fact
Esta carga de datos se realiza consultando a la BBDD y realizando INNER JOIN
con todas las dimensiones para obtener el ID de la dimensión. En la propia consulta
SQL realizo UNPIVOT para normalizar los datos y pasar las columnas a filas.
18
Descargado por Fernando Green (greenfer30@gmail.com)
6.7. Migración de datos Incremental
6.7.1. Código
- Stores_Dim
Figura 15. Código migración incremental Store_Dim
Lo que se hizo en primera instancia fue hacer una referencia a la dimensión de
destino del data Mart (Stores_Dim), esto mediante la función llamada Merge Into,
utilizamos la función using con el origen de nuestra BD Pubs (Stores) para definir
un alias a cada uno de los campos, el criterio On lo utilizamos para identificar las
coincidencias, para esto asignamos nuestro PK de cada uno de los campos de
nuestra BD que queremos sincronizar (src.stor_id = dmp.stor_id), luego utilizamos
la función When Matched Then para actualizar los registros en el Data Mart y el
When Not Matched para insertar y eliminar los registros si en caso no coincidiera
con la dimensión de origen (Stores).
19
Descargado por Fernando Green (greenfer30@gmail.com)
- Employee_Dim
Figura 16. Código migración incremental Employee_Dim
Primero hemos utilizado el Merge Into para hacer referencia con los datos de la
dimensión de destino del Data Mart (Employee_Dim), luego con la función Using
hemos cambiado el nombre de las columnas de nuestro origen Pubs (Employee)
mediante un alias, en el criterio On se ha colocado el PK de cada una de las
dimensiones que queremos sincronizar (src.emp_id = dmp.emp_id), luego
utilizamos la función When Matched Then para actualizar los registros en el Data
Mart y el When Not Matched para insertar y eliminar los registros si en caso no
coincidiera con la dimensión de origen (Employee).
- Titles_Dim
Figura 17. Código migración incremental Titles_Dim
20
Descargado por Fernando Green (greenfer30@gmail.com)
Lo primero que se hizo fue una referencia a la dimensión de destino del Data Mart
(Titles_Dim), esto mediante la función Merge Into, luego se utilizó la función using
para asignarle un alias a los campos de las dimensiones de nuestra BD de origen
Pubs (titles, publishers y authors), el criterio On lo utilizamos para identificar las
coincidencias, para esto asignamos cada uno de los campos de nuestras
dimensiones que queremos sincronizar, por último, utilizamos la función When
Matched Then para actualizar los registros en el Data Mart y el When Not Matched
para insertar y eliminar los registros si en caso no coincidiera con las dimensiones
de origen (titles, publishers y authors).
- Time_Dim
Figura 18. Código migración incremental Time_Dim
En primera instancia, se utilizó la función Merge Into para definir la dimensión con
la que vamos a trabajar, en este caso la dimensión de destino es de nuestra BD
Data_Mart (Time_Dim), el Using se utilizó para definir la dimensión de donde van a
provenir los datos (Sales), para esto se crearon nuevos campos utilizando la función
de DateName y DatePart (YearMonth, Month, Quarter, Year y ord_date), el criterio
On lo utilizamos para encontrar la coincidencia entre las dimensiones origen y
destino, por último, utilizamos la función When Matched Then para actualizar los
registros en el Data Mart y el When Not Matched para insertar y eliminar los
registros si en caso no coincidiera con las dimensiones de origen (Sales).
21
Descargado por Fernando Green (greenfer30@gmail.com)
- Sales_fact
Figura 19. Código migración incremental Sales_fact
Lo primero que se hizo fue utilizar la función Merge Into para definir la dimensión
con la que vamos a trabajar, en este caso la dimensión de destino es de nuestra
BD Data_Mart (Sales_Dim), el Using se utilizó para definir la dimensión de donde
van a provenir los datos, en este caso de nuestra BD Pubs (Titles, Stores,
Publishers y Employee), el criterio On lo utilizamos para encontrar la coincidencia
entre las dimensiones origen y destino, por último, utilizamos la función When
Matched Then para actualizar los registros en el Data Mart y el When Not Matched
para insertar y eliminar los registros si en caso no coincidiera con las dimensiones
de origen (Titles, Stores, Publishers y Employee).
22
Descargado por Fernando Green (greenfer30@gmail.com)
6.7.2. Data Tools
Figura 20. Data Tools migración incremental
- Incrementar dimensión employee_dim:
Figura 21. Data Tools migración incremental Employee_Dim
Utilizamos el ODBC Source para vincularlo con la base de datos Northwind,
después conectarlo con la herramienta “Ordenar”, ya también para conectar ambas
dentro de una sola opción “Merge Join”, luego con un Conditional Split para al final
poder agregar nuevos registros a dicha tabla. Podemos visualizar que en el
apartado Store hay 47 filas mientras que en el apartado Employee hay 48 filas, cosa
que después se toma como dato las 47 filas, y ya para después crear nuevos
registros.
23
Descargado por Fernando Green (greenfer30@gmail.com)
- Incrementar dimensión stores_dim:
Figura 22. Data Tools migración incremental Store_Dim
Utilizamos el ODBC Source para vincularlo con la base de datos Northwind,
después conectarlo con la herramienta “Ordenar”, ya también para conectar ambas
dentro de una sola opción “Merge Join”, luego con un Conditional Split para al final
poder agregar nuevos registros a dicha tabla. Podemos visualizar que en el
apartado Store hay 10 filas mientras que en el apartado Stores igual hay 10 filas,
cosa que sigue hasta el final, y ya para después crear nuevos registros.
- Incrementar dimensión Time_dim:
Figura 23. Data Tools migración incremental Time_Dim
24
Descargado por Fernando Green (greenfer30@gmail.com)
Utilizamos el ODBC Source para vincularlo con la base de datos Northwind,
después conectarlo con la herramienta “Ordenar”, ya también para conectar ambas
dentro de una sola opción “Merge Join”, luego con un Conditional Split para al final
poder agregar nuevos registros a dicha tabla. Podemos visualizar que en el
apartado Times hay 10 filas mientras que en el apartado Times tenemos la cantidad
de 340 filas, cosa que se incrementa hasta 350, y ya para después crear nuevos
registros.
- Incrementar dimensión Titles_dim:
Figura 24. Data Tools migración incremental Titles_Dim
Utilizamos el ODBC Source para vincularlo con la base de datos Northwind,
después conectarlo con la herramienta “Ordenar”, ya también para conectar ambas
dentro de una sola opción “Merge Join”, luego con un Conditional Split para al final
poder agregar nuevos registros a dicha tabla. Podemos visualizar que en el
apartado Times hay 25 filas mientras que en el apartado Titles tenemos la misma
cantidad de 25 filas, cosa que se incrementa hasta 43, y ya para después crear
nuevos registros.
25
Descargado por Fernando Green (greenfer30@gmail.com)
- Incrementar dimensión Sales_fact:
Figura 25. Data Tools migración incremental Sales_Fact
Utilizamos el ODBC Source para vincularlo con la base de datos Nothwind, después
conectarlo con la herramienta “Ordenar”, ya también para conectar ambas dentro
de una sola opción “Merge Join”, luego con un Conditional Split para al final poder
agregar nuevos registros a dicha tabla. Podemos visualizar que en el apartado
Times hay 13,192 filas mientras que en el apartado Sales tenemos la cantidad de
12,804 filas, para después trabajar con 13,192 filas, y así crear nuevos registros.
26
Descargado por Fernando Green (greenfer30@gmail.com)
6.8. Realización de Cubo
Se puede evidenciar la creación del cubo del Data Mart para el posterior análisis de
la información, para ello se ha tenido que acceder y crear conexiones con la base
de datos para visualizarlos en el cubo, donde se pueden establecer la jerarquías de
los datos requeridos, esto hará más eficiente su respectivo análisis.
27
Descargado por Fernando Green (greenfer30@gmail.com)
6.9. Reportes de requerimientos
6.9.1. Power BI
Figura 26. 1er requerimiento: reporte de la cantidad de libros vendidos por tipo.
De la figura 26, se observa que el total de ingresos obtenidos por la venta de libros
es de $106,090, se vendió un total de 3200 libros de Psychology obteniendo un
36.79% (39,034) del total de ingresos, 1300 libros de Business y 1300 de Popular
Comp fueron vendidos obteniendo un 15.1% (16,017) y 25.34% (26,885) del total
de ingresos, respectivamente, 1200 libros de Trad Cook fueron vendidos
obteniendo un total de 18,63% (19,764) del total de ingresos, 900 libros de Mod
Cook fueron vendidos obteniendo un 4.14% (4,391) del total de ingresos.
Figura 27. 2do requerimiento: reporte del total vendido según el autor.
28
Descargado por Fernando Green (greenfer30@gmail.com)
De la figura 27, se observa que el total de ingresos obtenidos es de $106,090. El
autor con más ventas de libros es Albert Ranger seguido de Anne Ranger mientras
que el autor con menos ventas de libros es Michel DeFrance.
Figura 28. 3er requerimiento: reporte de la cantidad de libros actuales en la biblioteca clasificado
por autores.
De la figura 28, se observa que actualmente en la editorial hay 25 libros, los autores
Marjorie Green, Charlene Locksley, Steams Macfeather, Michael Oleary, Albert
Ringer y Anne Ringer tienen dos libros cada uno mientras que los demás autores
poseen un solo libro que se encuentra actualmente en la editorial.
Figura 29. 4to requerimiento: reporte de ingresos según mes y año.
29
Descargado por Fernando Green (greenfer30@gmail.com)
De la figura 29, se observa que el total de ingresos obtenidos es de $106,090. En
el mes de mayo de 1993 se registró el mayor ingreso de la editorial mientras que
en febrero, octubre y diciembre de este mismo año se registraron los ingresos más
bajos de la editorial.
Figura 30. 5to requerimiento: reporte de la cantidad de editoras registrados por estado.
De la figura 30, se observa que la editorial tiene registrado un total de 25 editoras,
de las cuales el 40% (10) son del estado DC, el 36% (9) son del estado CA y el
24% (6) son del estado MA.
Figura 31. 6to requerimiento: reporte de los títulos menos vendidos por trimestres.
30
Descargado por Fernando Green (greenfer30@gmail.com)
De la figura 31, se observa que en el cuarto trimestre se obtuvo menos ventas, en
este trimestre se vendió 100 libros de Silicon Valley Gastronomic Treats y 150 libros
de Straight Talk About Computers, obteniendo así menos ingresos en este trimestre
en comparación del segundo y tercer trimestre donde se registraron más ventas.
Figura 32. 7mo requerimiento: reporte de ingresos por estado de editora.
De la figura 32, se observa que se obtuvo $106,091 de ingresos, las editoras del
estado de CA han obtenido un 39.45% ($41,860) de ingresos, las editoras
pertenecientes al estado de DC han obtenido un 30.91% ($32,790) de ingresos y
las pertenecientes al estado de MA han obtenido un 29.64% ($31,440) de ingresos.
Figura 33. 8vo requerimiento: reporte cantidad de empleados registrados por año de contratación.
31
Descargado por Fernando Green (greenfer30@gmail.com)
De la figura 33, se observa que la editorial cuenta con 43 empleados, el año donde
se registró un mayor registro de empleados fue en 1990 con un total de 8
empleados en ese año mientras que en 1989, 1991, 1992 y 1993 se registraron un
total de 7 empleados en cada año, en los años siguientes la cifra de registro de
empleados fue disminuyendo.
Figura 34. 9no requerimiento: reporte de las tiendas que más vendieron por meses.
De la figura 34, se observa que se obtuvo $106,091 de ingresos, el monto más alto
registrado fue en mayo de 1993 con un monto de $42,000, en esa fecha la tienda
Barnum’s tuvo el ingreso más alto con $20,000; en septiembre de 1994 se obtuvo
ventas con un monto de $32,000 donde nuevamente la tienda Barnum’s obtuvo el
ingreso más alto con $16,425.
Figura 35. 10mo requerimiento: reporte del total de ventas de libros por ciudad de tiendas.
32
Descargado por Fernando Green (greenfer30@gmail.com)
Del grafico 10 se observa que se obtuvo $106,091 de ingresos, la ciudad de las
tiendas donde se registró más ingresos fue en Tustin y Los Gatos con montos de
$36,000 y $32,000, respectivamente. Mientras que la ciudad de las tiendas con
menos registrado fue en Fremont y Seattle con montos de $6,000 y $3,000,
respectivamente.
33
Descargado por Fernando Green (greenfer30@gmail.com)
6.9.2. Excel
Figura 36. 1er, 2do y 3er requerimiento Excel
Se puede evidenciar el reporte de los tres primeros requerimientos en Excel, cada
uno de ellos se ha generado en una tabla dinámica y un gráfico dinámico
correspondientes a los datos obtenidos del cubo, en el que se accedió por medio
de las credenciales del usuario que posee los registros en la base de datos.
Figura 37. 4to, 5to y 6to requerimiento Excel
La siguiente figura representa el cuarto, quinto y sexto requerimientos de la base
de datos, los cuales indican los ingresos según mes y año, editoras registradas por
estado, libros menos vendidos por trimestre correspondientemente, se han
representado por medio de tablas dinámicas y gráficos dinámicos.
34
Descargado por Fernando Green (greenfer30@gmail.com)
Figura 38. 7mo, 8vo y 9no requerimiento Excel
Se puede evidenciar el séptimo, octavo y noveno requerimiento de la base de datos,
los cuales indican los ingresos obtenidos por ciudad de editora, cantidad de
empleados registrados por fecha de contratación y tiendas que más vendieron por
meses correspondientemente, se han representado por medio de tablas dinámicas
y gráficos dinámicos.
Figura 39. 10mo requerimiento Excel
Se puede evidenciar décimo requerimiento de la base de datos, el cual indica las
ventas de libros por ciudad de tiendas, se ha representado por medio de una tabla
dinámica y un gráfico dinámico.
35
6.10. Predicción de ventas SPSS Modeler
Figura 40. Predicción de ingresos a 3 años
En la presente figura se muestra la predicción para los próximos 3 años, ello se pudo determinar por medio del componente de
Time Series, dicho componente ayudó a regularizar los datos que comprendían las fechas establecidas en el Data Mart, debido a
que se encontraban irregulares en los intervalos de tiempo, de esta forma, se puede evidenciar que los ingresos irán en ascenso
hasta llegar a un máximo de 1,207.305 para el año 1997.
36
Descargado por Fernando Green (greenfer30@gmail.com)
Descargado por Fernando Green (greenfer30@gmail.com)
VII. Conclusiones
37
Descargado por Fernando Green (greenfer30@gmail.com)
VIII. Recomendaciones
38
Descargado por Fernando Green (greenfer30@gmail.com)
IX. Referencias bibliográficas
40

Más contenido relacionado

PPTX
SIG 2021-P U3- Gestion Conocimiento.pptx
PPTX
Curso : Inteligencia de Negocios - Dia1
PPTX
Inteligencia De Negocios - Rojas Figueroa Erick
PDF
Bussines Inteligence
DOCX
Actividad 1
PPTX
Bussines Intelligence
PPTX
La inteligencia de negocio en los diferentes departamentos
PDF
SESIÓN 13 IM.pdf..INTELIGENCIA DE MERCADO
SIG 2021-P U3- Gestion Conocimiento.pptx
Curso : Inteligencia de Negocios - Dia1
Inteligencia De Negocios - Rojas Figueroa Erick
Bussines Inteligence
Actividad 1
Bussines Intelligence
La inteligencia de negocio en los diferentes departamentos
SESIÓN 13 IM.pdf..INTELIGENCIA DE MERCADO

Similar a orme-finalintelligenLce-and-big-data.pdf (20)

PDF
PDF
Caso de usos mineria
PPTX
Presentacion de BI asignacion 5
DOC
Trabajo conceptos ayudantía
PPTX
Proyecto BI - ALMAPO
PPT
Copy of Charla Cibertec DAT.ppt
PDF
Oracle bI(inteligencia de negocios)
PDF
Mineria datos vallejos
PDF
Mineria datos vallejos
PPTX
Mercadotecnia electronica.
PPT
Inteligencia De Negocios para Dummies
PDF
Introducción al Business Intelligence y al Big Data
PDF
Inteligencia de negocios
PDF
Inteligencia de Negocios
PDF
B dtrab4
PDF
Datawarehouse
PDF
guia definitiva_inteligencia_empresarial
PDF
Inteligencia Negocios y Datawarehouse.pdf
PPT
BASE DE DATOS
DOCX
4ta entrega forumación de proyectos
Caso de usos mineria
Presentacion de BI asignacion 5
Trabajo conceptos ayudantía
Proyecto BI - ALMAPO
Copy of Charla Cibertec DAT.ppt
Oracle bI(inteligencia de negocios)
Mineria datos vallejos
Mineria datos vallejos
Mercadotecnia electronica.
Inteligencia De Negocios para Dummies
Introducción al Business Intelligence y al Big Data
Inteligencia de negocios
Inteligencia de Negocios
B dtrab4
Datawarehouse
guia definitiva_inteligencia_empresarial
Inteligencia Negocios y Datawarehouse.pdf
BASE DE DATOS
4ta entrega forumación de proyectos
Publicidad

Más de JoseNS1 (8)

PDF
Sesión 1 Toma de DecisJJGGJJGGJiones.pdf
PDF
SEM3-RequisitosdeNegoJGJHGGJGcio (1).pdf
PDF
M03-3520-Texto d-12633-1-10-20210526.pdf
PPTX
SEM2-DataWarehouseJHJHyDatamart (1).pptx
PDF
Ja la base de datos multidimensional.pdf
PDF
M análisis avanzado _ Microsoft Docs.pdf
PDF
on_uso_de_Power_BI- Lunes 19_05_2025.pdf
PDF
COMUNICACIONGJGHGHGHGFGFGHFHFHFHFHFHFFHF
Sesión 1 Toma de DecisJJGGJJGGJiones.pdf
SEM3-RequisitosdeNegoJGJHGGJGcio (1).pdf
M03-3520-Texto d-12633-1-10-20210526.pdf
SEM2-DataWarehouseJHJHyDatamart (1).pptx
Ja la base de datos multidimensional.pdf
M análisis avanzado _ Microsoft Docs.pdf
on_uso_de_Power_BI- Lunes 19_05_2025.pdf
COMUNICACIONGJGHGHGHGFGFGHFHFHFHFHFHFFHF
Publicidad

Último (20)

DOCX
2º A PLANIFICACIONES CIENCIAS NATURALES 2024.docx
PPTX
Hacia la Meta, mas que solo pensarl.pptx
PDF
Tema 6.pdfjsjsjsjsjsjsjsjsjsjsjsjsjsjsjsjs
PPTX
PPTS3_DESPROYINV_<wwwwwwwwwwwwwwwwwwwwwwPRES-2025-1.pptx
PDF
R05 HIS.UNI- MUNI.pdfG05 HIS.UNI- MUNI.pdf
PDF
Users Manual for Citroen AMI Electric Mini Vehicle
PDF
Manual de Usuario Benelli keeway RKV 200
PDF
Unidad 1 Mecánica Aplicada en el Mantenimiento Industrial.pdf
PDF
SISTEMA DE ENCENDIDO DEL AUTOMOVIL ELECTRICO
PDF
Skoda presentación catalogo demodelos del año
DOCX
Actividad del emnbmnbmnbmbnmstudiante.docx
DOCX
Actividad del estffdfdsfvvcvxcvudiante.docx
PDF
bmhim Arabia Saudí Emiratos árabes unidos
PPTX
Presentación Proyecto Escolar Moderno Negro.pptx
PDF
CURSO TRIBOLOGIA PARA PERSONAS QUE LO NECESITAN
PPTX
presentacion_oceanos de los mares y los oc
PDF
Manual de auto ford ranger argentina 2021
DOCX
ELABORAMOS UNA NOTICIA SOBRE LA VIOLENCIA ESCOLAR.docx
PPT
imagenes para hacer mapresentaciones.ppt
PPTX
curso de manejo extensonnnnnnpppppp.pptx
2º A PLANIFICACIONES CIENCIAS NATURALES 2024.docx
Hacia la Meta, mas que solo pensarl.pptx
Tema 6.pdfjsjsjsjsjsjsjsjsjsjsjsjsjsjsjsjs
PPTS3_DESPROYINV_<wwwwwwwwwwwwwwwwwwwwwwPRES-2025-1.pptx
R05 HIS.UNI- MUNI.pdfG05 HIS.UNI- MUNI.pdf
Users Manual for Citroen AMI Electric Mini Vehicle
Manual de Usuario Benelli keeway RKV 200
Unidad 1 Mecánica Aplicada en el Mantenimiento Industrial.pdf
SISTEMA DE ENCENDIDO DEL AUTOMOVIL ELECTRICO
Skoda presentación catalogo demodelos del año
Actividad del emnbmnbmnbmbnmstudiante.docx
Actividad del estffdfdsfvvcvxcvudiante.docx
bmhim Arabia Saudí Emiratos árabes unidos
Presentación Proyecto Escolar Moderno Negro.pptx
CURSO TRIBOLOGIA PARA PERSONAS QUE LO NECESITAN
presentacion_oceanos de los mares y los oc
Manual de auto ford ranger argentina 2021
ELABORAMOS UNA NOTICIA SOBRE LA VIOLENCIA ESCOLAR.docx
imagenes para hacer mapresentaciones.ppt
curso de manejo extensonnnnnnpppppp.pptx

orme-finalintelligenLce-and-big-data.pdf

  • 1. Descargado por Fernando Green (greenfer30@gmail.com) FACULTAD DE INGENIERÍA ESCUELA PROFESIONAL DE INGENIERÍA DE SISTEMAS Implementación de Inteligencia de Negocios haciendo uso del Data Warehouse aplicado a una editorial GRUPO: AUTORES: ASESOR: EXPERIENCIA CURRICULAR: Business Intelligence and Big Data LIMA – PERÚ 2025
  • 2. Descargado por Fernando Green (greenfer30@gmail.com) Índice I. Introducción ....................................................................................................1 II. Problema..........................................................................................................2 III. Objetivos ......................................................................................................3 3.1. Objetivo general...........................................................................................3 3.2. Objetivos específicos..................................................................................3 IV. Antecedentes ...............................................................................................3 4.1. Antecedentes nacionales............................................................................3 4.2. Antecedentes internacionales ....................................................................5 V. Marco teórico ...............................................................................................6 VI. Desarrollo de trabajo...................................................................................9 6.1. Base de datos...............................................................................................9 6.2. Requerimientos..........................................................................................10 6.3. Hoja de análisis: estudio de mercado y captación de clientes..............10 6.4. Creación del modelo físico en Erwin: ......................................................12 6.5. Creación de las dimensiones en SQL Server..........................................13 6.6. Migración de datos ....................................................................................13 6.6.1. Código.....................................................................................................13 6.6.2. Data Tools...............................................................................................16 6.7. Migración de datos Incremental ...............................................................19 6.7.1. Código.....................................................................................................19 6.7.2. Data Tools...............................................................................................23 6.8. Realización de Cubo..................................................................................27 6.9. Reportes de requerimientos .....................................................................28 6.9.1. Power BI..................................................................................................28 6.9.2. Excel........................................................................................................34 6.10. Predicción de ventas SPSS Modeler.....................................................36 ii VII. Conclusiones .............................................................................................37
  • 3. Descargado por Fernando Green (greenfer30@gmail.com) VIII. Recomendaciones .....................................................................................38 IX. Referencias bibliográficas ........................................................................39 Lista de figuras Figura 1. Diagrama de base de datos PUBS.......................................................... 9 Figura 2. Modelo estrella en ERWIN .....................................................................12 Figura 3. Diagrama de Data Mart SQL Server.......................................................13 Figura 4. Código de migración Store_Dim.............................................................13 Figura 5. Código de migración Employee_Dim......................................................14 Figura 6. Código de migración Titles_Dim .............................................................14 Figura 7. Código de migración Time_Dim..............................................................14 Figura 8. Código de migración Sales_fact .............................................................15 Figura 9. Data Tools migración..............................................................................16 Figura 10. Data Tools migración Store_Dim ..........................................................16 Figura 11. Data Tools migración Employee_Dim...................................................17 Figura 12. Data Tools migración Titles_Dim ..........................................................17 Figura 13. Data Tools migración Time_Dim...........................................................18 Figura 14. Data Tools migración Sales_fact ..........................................................18 Figura 15. Código migración incremental Store_Dim.............................................19 Figura 16. Código migración incremental Employee_Dim .....................................20 Figura 17. Código migración incremental Titles_Dim.............................................20 Figura 18. Código migración incremental Time_Dim .............................................21 Figura 19. Código migración incremental Sales_fact.............................................22 Figura 20. Data Tools migración incremental.........................................................23 Figura 21. Data Tools migración incremental Employee_Dim................................23 Figura 22. Data Tools migración incremental Store_Dim.......................................24 Figura 23. Data Tools migración incremental Time_Dim .......................................24 Figura 24. Data Tools migración incremental Titles_Dim.......................................25 Figura 25. Data Tools migración incremental Sales_Fact......................................26 Figura 26. 1er requerimiento: reporte de la cantidad de libros vendidos por tipo. 28 iii
  • 4. Descargado por Fernando Green (greenfer30@gmail.com) Figura 27. 2do requerimiento: reporte del total vendido según el autor. ................28 Figura 28. 3er requerimiento: reporte de la cantidad de libros actuales en la biblioteca clasificado por autores...........................................................................29 Figura 29. 4to requerimiento: reporte de ingresos según mes y año .....................29 Figura 30. 5to requerimiento: reporte de la cantidad de editoras registrados por estado....................................................................................................................30 Figura 31. 6to requerimiento: reporte de los títulos menos vendidos por trimestres. ..............................................................................................................................30 Figura 32. 7mo requerimiento: reporte de ingresos por estado de editora.............31 Figura 33. 8vo requerimiento: reporte cantidad de empleados registrados por año de contratación ......................................................................................................31 Figura 34. 9no requerimiento: reporte de las tiendas que más vendieron por meses. ..............................................................................................................................32 Figura 35. 10mo requerimiento: reporte del total de ventas de libros por ciudad de tiendas...................................................................................................................32 Figura 36. 1er, 2do y 3er requerimiento Excel .......................................................34 Figura 37. 4to, 5to y 6to requerimiento Excel ........................................................34 Figura 38. 7mo, 8vo y 9no requerimiento Excel.....................................................35 Figura 39. 10mo requerimiento Excel ....................................................................35 Figura 40. Predicción de ingresos a 3 años...........................................................36 iv
  • 5. Descargado por Fernando Green (greenfer30@gmail.com) I. Introducción Sabemos que la información es el activo más importante de todas las empresas hoy en día, independientemente de su tamaño. El éxito de un negocio depende de nuestro conocimiento de nuestros clientes, nuestra comprensión de los procesos internos y la eficiencia con la que llevamos a cabo todas las actividades que requiere. La información precisa es actualmente el único medio por el cual una organización puede aprender sobre los temas mencionados anteriormente. La mayoría de las empresas tienen muchos datos e información, pero a la vez falta de conocimiento, la mayoría de estas empresas tienen sistemas separados, cada uno con sus propias características, capa privada de datos e infraestructura, lo que hace que actualizar la información sea complicado. Cuanto más organizada e integrada esté una empresa, más fácil será para cualquier usuario o colaborador de esa empresa obtener la información que necesita y con ello encontrar la mejor oportunidad para tomar una decisión al respecto. Según Villalobos (2021). Ahora que las organizaciones tienen la capacidad de recopilar y almacenar cantidades masivas de información con datos operativos y de clientes, el desafío es cómo utilizarlos para que la información fluya en el momento adecuado, en todos los niveles de la organización, ampliar la visión estratégica, reducir el riesgo y la incertidumbre. y apoyar mejor la toma de decisiones. En este sentido, señala que la inteligencia de negocios no es solo una actitud empresarial o tecnológica, es un marco para gestionar de manera efectiva las operaciones comerciales que ayuda a los gerentes a tomar mejores decisiones a nivel corporativo, estratégico y operativo. Por tal motivo, las aplicaciones de inteligencia empresarial son útiles para cualquier negocio, ya que permiten a los gerentes consultar, interpretar y estimar los datos existentes en su organización para conseguir conocimientos funcionales que luego los ayudarán a tomar mejores decisiones informadas. Además, Data Warehouse (DW) es esencial para las aplicaciones de BI porque integra varias fuentes de datos diversas, especialmente bases de datos transaccionales estructuradas. Por consiguiente, la capacidad de 1
  • 6. Descargado por Fernando Green (greenfer30@gmail.com) gestionar esta información existente es fundamental para el éxito del proceso de toma de decisiones de una empresa. Por lo tanto, en el presente trabajo buscamos implementar lo que es inteligencia de negocios para una editorial, mediante el uso de Data Warehouse. II. Problema Actualmente, diversas empresas buscan la forma de gestionar la información que manejan de una manera más eficiente para que puedan aprovechar todos los beneficios que les traería ello, por eso mismo, la inteligencia de negocios surge como una ayuda altamente calificada para realizar dichas tareas. De esta forma, se buscado representar está problemática por medio de una editorial, la cual maneja archivos grandes como los autores, tipo de obras, revistas, etc. Las editoriales deben mejorar cada día la calidad de los materiales a publicar, el saber académico y posibilitar la elaboración de grandes obras científicas y culturales con vistas a contrarrestar los numerosos desafíos de la ciber sociedad. El desarrollo de las nuevas tecnologías no implica un cambio radical de la sociedad, pero sí contribuye a condicionar una nueva sociedad. Las tendencias y transformaciones antes expuestas han obligado también a redimensionar las competencias profesionales de los trabajadores del sector editorial. Estos se han visto en la necesidad de buscar nuevos conocimientos, idear nuevas formas de trabajo y gestión, adaptarse a la demanda de nuevos productos y servicios, enfrentarse a los novedosos métodos de impresión y al tratamiento de recursos digitales con sus constantes cambios. Por ello, dedicamos varios módulos para repasar todas las bases de datos y herramientas de gestión de la información que enlazan nuestro producto con la que hoy en día son agentes imprescindibles de la puesta en venta o el orden de un libro. 2
  • 7. Descargado por Fernando Green (greenfer30@gmail.com) III. Objetivos 3.1. Objetivo general Diseñar un Data Mart en el que se pueda gestionar adecuadamente la información de la editorial 3.2. Objetivos específicos • Analizar la información de la base de datos e identificar las fuentes de datos requeridas por la editorial. • Generar reportes a partir del Data Mart implementado. • Facilitar la toma de decisiones, en base a la Información presentada por el Data Mart. IV. Antecedentes 4.1. Antecedentes nacionales Hurtado y Bernabé (2019) realizaron una investigación titulada “Solución de inteligencia de negocios que permita una mejor integración de datos y soporte en la toma de decisiones en el proceso de ventas de la empresa librería crisol S.A.C. sucursal Trujillo”, donde se tuvo como objetivo mejorar la integración de datos y dar un mejor soporte en la toma de decisiones para el proceso de ventas de la empresa Crisol S.A.C. sucursal Trujillo, usando la arquitectura tecnológica MS SQL Server, la metodología de Ralph Kimball y Qlik Sense, el tipo de investigación es aplicada y el diseño cuasi-experimental en el cual se evaluará la eficiencia de la nueva solución (BI) para el soporte en la toma de decisiones del área de ventas, el análisis de los datos se llevó a cabo por medio de cuadros estadísticos descriptivos (Pruebas hipótesis nula y alternativa y las Pruebas t de Student siendo la mejor opción por el tamaño de la muestra = 10 reportes), ya que la información obtenida será analizada y mostrada por medio de cuadros y gráficos, el tamaño de la muestra (10) se obtuvo del total de requerimientos de los usuarios finales (Tomadores de decisión) obtenidos de las entrevistas, en los resultados, primero se realizó un análisis de todos los requerimientos para luego llegar a elaborar un modelo de datos dimensional, luego se implementó el modelo dimensional en MS SQL Server integrando las distintas fuentes de datos de la empresa con una solución ETL, para 3
  • 8. Descargado por Fernando Green (greenfer30@gmail.com) después implementar los cubos OLAP de acuerdo con el esquema dimensional en SQL Server permitiendo tener una mejor vista de análisis y navegabilidad de la información. Finalmente se pasó a construir los reportes dinámicos en Qlik sense de acuerdo con las necesidades del usuario final. Como conclusión se logró crear los reportes de cada requerimiento (10) a través de la herramienta de Qlik Sense permitiendo una mayor flexibilidad en la elaboración de reportes con una mejor visualización de la información y se desarrolló el proceso ETL del proyecto utilizando la herramienta Integration Service el cual permitió mejorar la extracción de los datos de las fuentes transaccionales para poblar la base de datos dimensional en la Nube de Azure, poblando las 09 dimensiones y la tabla de hechos. Chumpitaz (2021) en su tesis titulada “Análisis diseño e implementación de un Data Mart de ventas para una empresa de servicios”, tuvo como objetivo generar una solución informática capaz de almacenar la data histórica de las ventas de la empresa, que permita explotar la información con reportes y dashboards que ayude a la empresa a tomar decisiones estratégicas, se usó el método exploratorio como la metodología para el análisis, en el cual se recopila, analiza y presentan los resultados sobre la mejor herramienta tecnológica que permita almacenar la data generada por el negocio, explotar la información y generar. Con este estudio se obtuvo la información necesaria sobre las necesidades de la empresa LEVA TRASER SAC y cómo cubrirlas haciendo uso de las tecnologías existentes. Para realizar este estudio se recopiló información sobre las necesidades urgentes de la empresa y los datos que tenían relevancia para la generación de reportes y dashboards. También se evaluó la cantidad de información que manejaban y la calidad de esta. Como conclusión, La implementación del Data Mart de Ventas permitió a la empresa almacenar toda la data histórica de ventas del año 2019 en una base datos. Esto fue muy importante para la empresa, ya que, anteriormente no tenían un sistema donde se almacene toda esta información y a su vez este consolidada. 4
  • 9. Descargado por Fernando Green (greenfer30@gmail.com) 4.2. Antecedentes internacionales Flacón (2012) desarrolló la tesis titulada “Desarrollo de una solución de Inteligencia de Negocios en el manejo de estadísticas de control en la venta de repuestos de la empresa talleres Ambamazda de la ciudad de Ambato”, cuyo objetivo fue Desarrollar una solución de Inteligencia de Negocios para el manejo de estadísticas de control en la venta de repuestos de la empresa Talleres Ambamazda S.A. La metodología fue descriptiva y el tipo de investigación fue exploratoria, la técnica que se utilizó fue la encuesta y el instrumento fue el cuestionario, en el que se tomó como muestra a 15 personas, ello incluye al personal involucrado en el ingreso de información como los departamentos de Venta, Administrativo y Gerencial. Los resultados obtenidos indican que el 66.67% creen que mejoraría totalmente el desempeño en su puesto de trabajo con las estadísticas de control de ventas de repuestos, el 33.33% creen que mejoraría parcialmente, mientras que el 0% responde que no mejoraría nada, por lo que se concluye que la empresa Talleres Ambamazda S.A., tiene problemas en el análisis e interpretación de las ventas a nivel gerencial, debido a que la información se lleva manualmente y el volumen de los datos no ayuda a tener resultados reales y oportunos, tanto para el crecimiento de las ventas, como para un mejor manejo de stock en bodega y satisfacción de los clientes. Ríos et al. (2020) publicaron una investigación llamada “Inteligencia de negocios como estrategia para la toma de decisiones en una empresa financiera”, con el fin de identificar la importancia del análisis de los sentimientos y a su vez el comportamiento de los clientes a través de sus preferencias, mediante la integración de datos de medios sociales basándose en su rentabilidad optimizando las estrategias de inteligencia de negocio. Se empleó una metodología descriptiva con diseño no experimental de campo transversal. El 71% de los profesionales respondieron que la institución financiera no cuenta con un departamento de análisis de sentimientos. Por lo tanto, se concluye que las empresas financieras no les conviene dejar de lado el desarrollo de sistemas inteligentes, debido a que se evidencia deficiencia de estrategias en 5
  • 10. Descargado por Fernando Green (greenfer30@gmail.com) las empresas financieras por la falta de utilización de inteligencia artificial y la poca base de datos que mantienen las mismas, dándole poca importancia a este aspecto. V. Marco teórico Inteligencia de Negocios Se le conoce también como Business Inteligence (por sus siglas en inglés BI). De acuerdo a Rouse (2018), esto combina análisis de negocios, minería de datos, visualización de datos, herramientas e infraestructura de datos, y las prácticas que son recomendadas para ser capaces de ayudar a las organizaciones a tomar decisiones más basadas en los datos. Debemos tener en cuenta que esta definición es algo “moderna” bajo el contexto actual de lo que es la inteligencia de negocios. …………………………………………………………….. Data Warehouse Según IBM, es un sistema que combina y agrega información de múltiples fuentes en un almacén de datos centralizado y único. En otras palabras. Es consistente para respaldar la minería de datos, análisis empresarial, machine learning y la inteligencia artificial. Esto permite a las empresas u organizaciones ejecutar análisis en enormes volúmenes de datos históricos de maneras que una base de datos común no podría hacer. Estos data warehouses siempre han sido parte de las 6
  • 11. Descargado por Fernando Green (greenfer30@gmail.com) soluciones de inteligencia de negocios por más de 30 años, pero en los últimos años fueron mejorando significativamente. Anteriormente, un data warehouse tenía una implementación on-premises, ………………………………………………… Procesos ETL Según Bello (2022), los procesos ETL (Extract, Transform, Load) se refieren a un conjunto de herramientas, técnicas y tecnologías que nos permiten extraer datos ………………………………………. Power BI De acuerdo a Camprovin (2019), Power BI son múltiples aplicaciones y servicios basados en la nube que permiten a las organizaciones a administrar, recopilar, analizar y administrar datos de múltiples fuentes a través de una interfaz sencilla de usar. Este programa recopila los datos y los procesa, transformándolos en información intangible, siempre utilizando gráficos y tablas convincentes a primera ……………………………………
  • 12. Descargado por Fernando Green (greenfer30@gmail.com) 8
  • 13. Descargado por Fernando Green (greenfer30@gmail.com) VI. Desarrollo de trabajo 6.1. Base de datos Figura 1. Diagrama de base de datos PUBS Se observa el diagrama de base de datos de la editorial Pubs, está compuesto por 11 tablas donde se almacenan los datos correspondientes a la misma, la tabla de títulos representa los libros de la editorial, asimismo, la unión de las tablas se ve representada por las llaves primarias y llaves foráneas. Esta base de datos contiene diversos registros de la editorial, no solo la información básica de los libros o autores de estos mismos, sino también la información de los empleados, editoras, regalías, tiendas a la que se distribuyen los libros y las ventas. 9
  • 14. Descargado por Fernando Green (greenfer30@gmail.com) 6.2. Requerimientos. 1. Reporte de la cantidad de libros vendidos por tipo. 2. Reporte del total vendido según el autor. 3. Reporte de la cantidad de libros actuales en la biblioteca clasificado por autores. 4. Reporte de ingresos según mes y año. 5. Reporte de la cantidad de editoras registrados por estado. 6. Reporte de los títulos menos vendidos por trimestres. 7. Reporte de ingresos por estado de editora. 8. Reporte cantidad de empleados registrados por año de contratación. 9. Reporte de las tiendas que más vendieron por meses. 10.Reporte del total de ventas de libros por ciudad de tiendas. 6.3. Hoja de análisis: estudio de mercado y captación de clientes PROCESO Estudio de mercado y captación de empleados OBJETIVOS Captar futuras personas para el perfil sugerido y analizado. Definir los diferentes segmentos a quien sea dirigido. Agregar opciones de apoyo para los empleados Administrar diferentes canales a utilizar en cada persona. INTERROGANTE DIMENSIÓN FORMAS DE ANALIZAR LAS DIMENSIONES ¿Quién? EMPLEADO Código Nombre Contrato ¿Qué? TITULO Titulo Código Tipo País Estado Ciudad Nombre autor Año Ventaja ¿Dónde? TIENDA Código Nombre Dirección Ciudad ¿Cuándo? TIEMPO Código Fecha Año/Mes Mes Año Trimestre 10
  • 15. Descargado por Fernando Green (greenfer30@gmail.com) Definir dimensiones DIMENSIONES DESCRIPCIONES Employee_Dim Se registra la información de las personas contratadas y de las personas extras. Stores_dim Se registra el nombre de la tienda y sus campos del local. Time_dim Contiene inscrita las fechas de venta. Titles_Dim Se registra la información de los títulos de los autores. Cuadro de dimensiones y jerarquías Cuadro de dimensiones vs. niveles NIVELES Dimensiones NIVEL 1 NIVEL 2 NIVEL 3 Empleado Tienda Tiempo Titulo Nombre Edad Genero Nombretienda Fecha Mes Año Nombretitulo Cuadro de medidas y dimensiones EMPLEADO TIENDA TIEMPO TITULO qty total X X X X X X Definir la tabla HECHOS MEDIDAS TIPO SALES_FACT qty Simple total Calculada 11
  • 16. 6.4. Creación del modelo físico en Erwin: Figura 2. Modelo estrella en ERWIN Se aprecia la creación del modelo estrella de la base de datos Pubs, dicha representación se realizó en el software Erwin. Este modelo contiene la información más relevante para analizar en base a los requerimientos establecidos, además, se puede observar el tipo de dato de cada campo y la distribución de cada una de estas dimensiones. 12 Descargado por Fernando Green (greenfer30@gmail.com)
  • 17. Descargado por Fernando Green (greenfer30@gmail.com) 6.5. Creación de las dimensiones en SQL Server. Figura 3. Diagrama de Data Mart SQL Server Se puede observar el diagrama de la base de datos con sus respectivas dimensiones, cada uno teniendo su llave primaria y en la tabla hechos Sales_fact la unión por medio de estas mismas y las medidas respectivas. 6.6. Migración de datos 6.6.1. Código - Store_Dim Figura 4. Código de migración Store_Dim Se observa que se inserta las tablas y se selecciona los campos de la tabla para que este se establezca y dirija los datos en la otra tabla. 13
  • 18. Descargado por Fernando Green (greenfer30@gmail.com) - Employee_Dim Figura 5. Código de migración Employee_Dim En este código se selecciona los campos de la tabla en la cual se añade un AS para tener el nombre representante en la cual se dirija en la tabla Employee y que mantenga los mismos datos si se desea migrar u otra acción. - Titles_Dim Figura 6. Código de migración Titles_Dim En esta parte se inserta la tabla y selecciona los campos de la tabla Titles, como se observa también se añaden las palabras reservadas como AS, TYPE para establecer los datos de la tabla, se añade INNER JOIN para la unión de las tablas y así mantener la información de los campos. - Time_Dim Figura 7. Código de migración Time_Dim En la tabla Time_Dim se inserta las tablas correspondientes y se selecciona a través del código DATENAME los datos de los campos, se añade también DATEPART para que devuelve un numero entero y se dirija a la tabla SALES. 14
  • 19. Descargado por Fernando Green (greenfer30@gmail.com) - Sales_fact Figura 8. Código de migración Sales_fact Se observa que se inserta todas las llaves de las tablas y se selecciona de para añadir los campos de las tablas, a la vez se añade INNER JOIN en todas las tablas y ON para la unión de los campos y la información. 15
  • 20. Descargado por Fernando Green (greenfer30@gmail.com) 6.6.2. Data Tools Figura 9. Data Tools migración - Store_Dim Figura 10. Data Tools migración Store_Dim El comando SQL de destino SSIS OLE DB es muy similar al uso de vistas como destino. Ambos requieren las mismas condiciones. Un comando SQL debe usarse principalmente cuando la tabla de destino contiene demasiadas columnas y necesita seleccionar solo una específica, como en este caso se derivó de la DB Pubs a Stores_Dim. 16
  • 21. Descargado por Fernando Green (greenfer30@gmail.com) - Employee_Dim Figura 11. Data Tools migración Employee_Dim El comando SQL de destino SSIS OLE DB es muy similar al uso de vistas como destino. Ambos requieren las mismas condiciones. Un comando SQL debe usarse principalmente cuando la tabla de destino contiene demasiadas columnas y necesita seleccionar solo una específica, como en este caso se derivó de la DB Pubs a Employee_Dim. - Titles_Dim Figura 12. Data Tools migración Titles_Dim El comando SQL de destino SSIS OLE DB es muy similar al uso de vistas como destino. Ambos requieren las mismas condiciones. Un comando SQL debe usarse principalmente cuando la tabla de destino contiene demasiadas columnas y necesita seleccionar solo una específica, como en este caso se derivó de la DB Pubs a Titles_Dim. 17
  • 22. Descargado por Fernando Green (greenfer30@gmail.com) - Time_Dim Figura 13. Data Tools migración Time_Dim El comando SQL de destino SSIS OLE DB es muy similar al uso de vistas como destino. Ambos requieren las mismas condiciones. Un comando SQL debe usarse principalmente cuando la tabla de destino contiene demasiadas columnas y necesita seleccionar solo una específica, como en este caso se derivó de la DB Pubs a Time_Dim. - Sales_fact Figura 14. Data Tools migración Sales_fact Esta carga de datos se realiza consultando a la BBDD y realizando INNER JOIN con todas las dimensiones para obtener el ID de la dimensión. En la propia consulta SQL realizo UNPIVOT para normalizar los datos y pasar las columnas a filas. 18
  • 23. Descargado por Fernando Green (greenfer30@gmail.com) 6.7. Migración de datos Incremental 6.7.1. Código - Stores_Dim Figura 15. Código migración incremental Store_Dim Lo que se hizo en primera instancia fue hacer una referencia a la dimensión de destino del data Mart (Stores_Dim), esto mediante la función llamada Merge Into, utilizamos la función using con el origen de nuestra BD Pubs (Stores) para definir un alias a cada uno de los campos, el criterio On lo utilizamos para identificar las coincidencias, para esto asignamos nuestro PK de cada uno de los campos de nuestra BD que queremos sincronizar (src.stor_id = dmp.stor_id), luego utilizamos la función When Matched Then para actualizar los registros en el Data Mart y el When Not Matched para insertar y eliminar los registros si en caso no coincidiera con la dimensión de origen (Stores). 19
  • 24. Descargado por Fernando Green (greenfer30@gmail.com) - Employee_Dim Figura 16. Código migración incremental Employee_Dim Primero hemos utilizado el Merge Into para hacer referencia con los datos de la dimensión de destino del Data Mart (Employee_Dim), luego con la función Using hemos cambiado el nombre de las columnas de nuestro origen Pubs (Employee) mediante un alias, en el criterio On se ha colocado el PK de cada una de las dimensiones que queremos sincronizar (src.emp_id = dmp.emp_id), luego utilizamos la función When Matched Then para actualizar los registros en el Data Mart y el When Not Matched para insertar y eliminar los registros si en caso no coincidiera con la dimensión de origen (Employee). - Titles_Dim Figura 17. Código migración incremental Titles_Dim 20
  • 25. Descargado por Fernando Green (greenfer30@gmail.com) Lo primero que se hizo fue una referencia a la dimensión de destino del Data Mart (Titles_Dim), esto mediante la función Merge Into, luego se utilizó la función using para asignarle un alias a los campos de las dimensiones de nuestra BD de origen Pubs (titles, publishers y authors), el criterio On lo utilizamos para identificar las coincidencias, para esto asignamos cada uno de los campos de nuestras dimensiones que queremos sincronizar, por último, utilizamos la función When Matched Then para actualizar los registros en el Data Mart y el When Not Matched para insertar y eliminar los registros si en caso no coincidiera con las dimensiones de origen (titles, publishers y authors). - Time_Dim Figura 18. Código migración incremental Time_Dim En primera instancia, se utilizó la función Merge Into para definir la dimensión con la que vamos a trabajar, en este caso la dimensión de destino es de nuestra BD Data_Mart (Time_Dim), el Using se utilizó para definir la dimensión de donde van a provenir los datos (Sales), para esto se crearon nuevos campos utilizando la función de DateName y DatePart (YearMonth, Month, Quarter, Year y ord_date), el criterio On lo utilizamos para encontrar la coincidencia entre las dimensiones origen y destino, por último, utilizamos la función When Matched Then para actualizar los registros en el Data Mart y el When Not Matched para insertar y eliminar los registros si en caso no coincidiera con las dimensiones de origen (Sales). 21
  • 26. Descargado por Fernando Green (greenfer30@gmail.com) - Sales_fact Figura 19. Código migración incremental Sales_fact Lo primero que se hizo fue utilizar la función Merge Into para definir la dimensión con la que vamos a trabajar, en este caso la dimensión de destino es de nuestra BD Data_Mart (Sales_Dim), el Using se utilizó para definir la dimensión de donde van a provenir los datos, en este caso de nuestra BD Pubs (Titles, Stores, Publishers y Employee), el criterio On lo utilizamos para encontrar la coincidencia entre las dimensiones origen y destino, por último, utilizamos la función When Matched Then para actualizar los registros en el Data Mart y el When Not Matched para insertar y eliminar los registros si en caso no coincidiera con las dimensiones de origen (Titles, Stores, Publishers y Employee). 22
  • 27. Descargado por Fernando Green (greenfer30@gmail.com) 6.7.2. Data Tools Figura 20. Data Tools migración incremental - Incrementar dimensión employee_dim: Figura 21. Data Tools migración incremental Employee_Dim Utilizamos el ODBC Source para vincularlo con la base de datos Northwind, después conectarlo con la herramienta “Ordenar”, ya también para conectar ambas dentro de una sola opción “Merge Join”, luego con un Conditional Split para al final poder agregar nuevos registros a dicha tabla. Podemos visualizar que en el apartado Store hay 47 filas mientras que en el apartado Employee hay 48 filas, cosa que después se toma como dato las 47 filas, y ya para después crear nuevos registros. 23
  • 28. Descargado por Fernando Green (greenfer30@gmail.com) - Incrementar dimensión stores_dim: Figura 22. Data Tools migración incremental Store_Dim Utilizamos el ODBC Source para vincularlo con la base de datos Northwind, después conectarlo con la herramienta “Ordenar”, ya también para conectar ambas dentro de una sola opción “Merge Join”, luego con un Conditional Split para al final poder agregar nuevos registros a dicha tabla. Podemos visualizar que en el apartado Store hay 10 filas mientras que en el apartado Stores igual hay 10 filas, cosa que sigue hasta el final, y ya para después crear nuevos registros. - Incrementar dimensión Time_dim: Figura 23. Data Tools migración incremental Time_Dim 24
  • 29. Descargado por Fernando Green (greenfer30@gmail.com) Utilizamos el ODBC Source para vincularlo con la base de datos Northwind, después conectarlo con la herramienta “Ordenar”, ya también para conectar ambas dentro de una sola opción “Merge Join”, luego con un Conditional Split para al final poder agregar nuevos registros a dicha tabla. Podemos visualizar que en el apartado Times hay 10 filas mientras que en el apartado Times tenemos la cantidad de 340 filas, cosa que se incrementa hasta 350, y ya para después crear nuevos registros. - Incrementar dimensión Titles_dim: Figura 24. Data Tools migración incremental Titles_Dim Utilizamos el ODBC Source para vincularlo con la base de datos Northwind, después conectarlo con la herramienta “Ordenar”, ya también para conectar ambas dentro de una sola opción “Merge Join”, luego con un Conditional Split para al final poder agregar nuevos registros a dicha tabla. Podemos visualizar que en el apartado Times hay 25 filas mientras que en el apartado Titles tenemos la misma cantidad de 25 filas, cosa que se incrementa hasta 43, y ya para después crear nuevos registros. 25
  • 30. Descargado por Fernando Green (greenfer30@gmail.com) - Incrementar dimensión Sales_fact: Figura 25. Data Tools migración incremental Sales_Fact Utilizamos el ODBC Source para vincularlo con la base de datos Nothwind, después conectarlo con la herramienta “Ordenar”, ya también para conectar ambas dentro de una sola opción “Merge Join”, luego con un Conditional Split para al final poder agregar nuevos registros a dicha tabla. Podemos visualizar que en el apartado Times hay 13,192 filas mientras que en el apartado Sales tenemos la cantidad de 12,804 filas, para después trabajar con 13,192 filas, y así crear nuevos registros. 26
  • 31. Descargado por Fernando Green (greenfer30@gmail.com) 6.8. Realización de Cubo Se puede evidenciar la creación del cubo del Data Mart para el posterior análisis de la información, para ello se ha tenido que acceder y crear conexiones con la base de datos para visualizarlos en el cubo, donde se pueden establecer la jerarquías de los datos requeridos, esto hará más eficiente su respectivo análisis. 27
  • 32. Descargado por Fernando Green (greenfer30@gmail.com) 6.9. Reportes de requerimientos 6.9.1. Power BI Figura 26. 1er requerimiento: reporte de la cantidad de libros vendidos por tipo. De la figura 26, se observa que el total de ingresos obtenidos por la venta de libros es de $106,090, se vendió un total de 3200 libros de Psychology obteniendo un 36.79% (39,034) del total de ingresos, 1300 libros de Business y 1300 de Popular Comp fueron vendidos obteniendo un 15.1% (16,017) y 25.34% (26,885) del total de ingresos, respectivamente, 1200 libros de Trad Cook fueron vendidos obteniendo un total de 18,63% (19,764) del total de ingresos, 900 libros de Mod Cook fueron vendidos obteniendo un 4.14% (4,391) del total de ingresos. Figura 27. 2do requerimiento: reporte del total vendido según el autor. 28
  • 33. Descargado por Fernando Green (greenfer30@gmail.com) De la figura 27, se observa que el total de ingresos obtenidos es de $106,090. El autor con más ventas de libros es Albert Ranger seguido de Anne Ranger mientras que el autor con menos ventas de libros es Michel DeFrance. Figura 28. 3er requerimiento: reporte de la cantidad de libros actuales en la biblioteca clasificado por autores. De la figura 28, se observa que actualmente en la editorial hay 25 libros, los autores Marjorie Green, Charlene Locksley, Steams Macfeather, Michael Oleary, Albert Ringer y Anne Ringer tienen dos libros cada uno mientras que los demás autores poseen un solo libro que se encuentra actualmente en la editorial. Figura 29. 4to requerimiento: reporte de ingresos según mes y año. 29
  • 34. Descargado por Fernando Green (greenfer30@gmail.com) De la figura 29, se observa que el total de ingresos obtenidos es de $106,090. En el mes de mayo de 1993 se registró el mayor ingreso de la editorial mientras que en febrero, octubre y diciembre de este mismo año se registraron los ingresos más bajos de la editorial. Figura 30. 5to requerimiento: reporte de la cantidad de editoras registrados por estado. De la figura 30, se observa que la editorial tiene registrado un total de 25 editoras, de las cuales el 40% (10) son del estado DC, el 36% (9) son del estado CA y el 24% (6) son del estado MA. Figura 31. 6to requerimiento: reporte de los títulos menos vendidos por trimestres. 30
  • 35. Descargado por Fernando Green (greenfer30@gmail.com) De la figura 31, se observa que en el cuarto trimestre se obtuvo menos ventas, en este trimestre se vendió 100 libros de Silicon Valley Gastronomic Treats y 150 libros de Straight Talk About Computers, obteniendo así menos ingresos en este trimestre en comparación del segundo y tercer trimestre donde se registraron más ventas. Figura 32. 7mo requerimiento: reporte de ingresos por estado de editora. De la figura 32, se observa que se obtuvo $106,091 de ingresos, las editoras del estado de CA han obtenido un 39.45% ($41,860) de ingresos, las editoras pertenecientes al estado de DC han obtenido un 30.91% ($32,790) de ingresos y las pertenecientes al estado de MA han obtenido un 29.64% ($31,440) de ingresos. Figura 33. 8vo requerimiento: reporte cantidad de empleados registrados por año de contratación. 31
  • 36. Descargado por Fernando Green (greenfer30@gmail.com) De la figura 33, se observa que la editorial cuenta con 43 empleados, el año donde se registró un mayor registro de empleados fue en 1990 con un total de 8 empleados en ese año mientras que en 1989, 1991, 1992 y 1993 se registraron un total de 7 empleados en cada año, en los años siguientes la cifra de registro de empleados fue disminuyendo. Figura 34. 9no requerimiento: reporte de las tiendas que más vendieron por meses. De la figura 34, se observa que se obtuvo $106,091 de ingresos, el monto más alto registrado fue en mayo de 1993 con un monto de $42,000, en esa fecha la tienda Barnum’s tuvo el ingreso más alto con $20,000; en septiembre de 1994 se obtuvo ventas con un monto de $32,000 donde nuevamente la tienda Barnum’s obtuvo el ingreso más alto con $16,425. Figura 35. 10mo requerimiento: reporte del total de ventas de libros por ciudad de tiendas. 32
  • 37. Descargado por Fernando Green (greenfer30@gmail.com) Del grafico 10 se observa que se obtuvo $106,091 de ingresos, la ciudad de las tiendas donde se registró más ingresos fue en Tustin y Los Gatos con montos de $36,000 y $32,000, respectivamente. Mientras que la ciudad de las tiendas con menos registrado fue en Fremont y Seattle con montos de $6,000 y $3,000, respectivamente. 33
  • 38. Descargado por Fernando Green (greenfer30@gmail.com) 6.9.2. Excel Figura 36. 1er, 2do y 3er requerimiento Excel Se puede evidenciar el reporte de los tres primeros requerimientos en Excel, cada uno de ellos se ha generado en una tabla dinámica y un gráfico dinámico correspondientes a los datos obtenidos del cubo, en el que se accedió por medio de las credenciales del usuario que posee los registros en la base de datos. Figura 37. 4to, 5to y 6to requerimiento Excel La siguiente figura representa el cuarto, quinto y sexto requerimientos de la base de datos, los cuales indican los ingresos según mes y año, editoras registradas por estado, libros menos vendidos por trimestre correspondientemente, se han representado por medio de tablas dinámicas y gráficos dinámicos. 34
  • 39. Descargado por Fernando Green (greenfer30@gmail.com) Figura 38. 7mo, 8vo y 9no requerimiento Excel Se puede evidenciar el séptimo, octavo y noveno requerimiento de la base de datos, los cuales indican los ingresos obtenidos por ciudad de editora, cantidad de empleados registrados por fecha de contratación y tiendas que más vendieron por meses correspondientemente, se han representado por medio de tablas dinámicas y gráficos dinámicos. Figura 39. 10mo requerimiento Excel Se puede evidenciar décimo requerimiento de la base de datos, el cual indica las ventas de libros por ciudad de tiendas, se ha representado por medio de una tabla dinámica y un gráfico dinámico. 35
  • 40. 6.10. Predicción de ventas SPSS Modeler Figura 40. Predicción de ingresos a 3 años En la presente figura se muestra la predicción para los próximos 3 años, ello se pudo determinar por medio del componente de Time Series, dicho componente ayudó a regularizar los datos que comprendían las fechas establecidas en el Data Mart, debido a que se encontraban irregulares en los intervalos de tiempo, de esta forma, se puede evidenciar que los ingresos irán en ascenso hasta llegar a un máximo de 1,207.305 para el año 1997. 36 Descargado por Fernando Green (greenfer30@gmail.com)
  • 41. Descargado por Fernando Green (greenfer30@gmail.com) VII. Conclusiones 37
  • 42. Descargado por Fernando Green (greenfer30@gmail.com) VIII. Recomendaciones 38
  • 43. Descargado por Fernando Green (greenfer30@gmail.com) IX. Referencias bibliográficas 40