Máster Online
Business Intelligence y Big Data Antigua3
✓ Obtendrás una Titulación internacional del IEP y una Certificación EE.UU. por Summa University.
✓ Te capacitarás para uno de los perfiles más demandados por las empresas.
✓ Te prepararás para obtener el certificado de Google Analytics Individual Qualification.
✓ Te prepararás para obtener el certificado de Visual Business Analyst: Exploration and Design Using SAS® Visual Analytics.
- Becas Disponibles
- Convocatorias: Febrero, Junio y Octubre
- 14 meses (104 ECTS)
- Titulación Propia IEP / Certificación EE.UU. por Summa University
14 meses (104 ECTS)
Titulación Propia IEP / Certificación EE.UU. por Summa University
2.600 Horas
Asignaturas
Asignaturas Comunes
Entender las ventajas de implantar en la compañía la cultura de toma de decisiones basadas en datos. En esta asignatura el alumno conocerá todos los aspectos relevantes para liderar un programa de Big Data y las claves para obtener el máximo valor de los datos. Aprenderá a desarrollar casos de uso de aplicación a los negocios en esta nueva Era de los Datos y estará capacitado para convertir su empresa en data-driven, tomando mejores decisiones con una adecuada estrategia de datos.
- Fundamentos del Business Intelligence.
- El valor de los datos.
- Fundamentos del Big Data.
- Desarrollo de una Estrategia de Datos.
- Elementos clave para el Gobierno y Gestión de los datos.
- Organización Data Driven. Retos y oportunidades.
Herramientas de Big Data y Gobierno del Dato (6 ECTS)
Cómo se articula organizacionalmente la cultura de toma de decisiones basadas en datos en la estructura, propiedad del dato, propiedad de la explotación, provisión y distribución de la información, así como los accesos a la información. En este curso el alumno profundizará en las herramientas de captura, almacenamiento y procesamiento de datos, las herramientas de visualización de datos (y, en particular, SAS Visual Analytics) y las herramientas de Gobierno del Dato.
- Almacenamiento y procesamiento de la información.
- Información estructurada.
- Tecnologías Big Data.
- Análisis y visualización de la información.
- Herramienta SAS Visual Analytics.
- Gobierno del Dato.
Big Data dentro de la Informática (6 ECTS)
La evolución de la capacidad de proceso y de las técnicas de paralelización en el tratamiento de datos, así como la disponibilidad de hardware avanzado asequible, permiten hoy procesar ingentes cantidades de datos. Nos familiarizaremos con las principales evoluciones y técnicas de tratamiento masivo de información.
- Capacidad de procesamiento y paralelización extrema. Arquitecturas GPU vs CPU. Núcleos Cuda. Escalabilidad.
- Entornos de trabajo para arquitecturas Deep Learning. Tensor Flow, Keras, Pytorch.
- Aprendizaje supervisado y no supervisado. Entrenamiento. Ejecución y Distribución de modelos. Inteligencia Artificial.
- Regresiones. Series temporales autorregresivas. Clusterización, kmeans.
- Arboles de decisión: Random Forest. Xgboost.
- Redes neuronales, Perceptrón Multicapa. Redes Convolucionales.
Técnicas de Datamining para el Negocio (6 ECTS)
Aportar una visión completa de las técnicas clásicas de minería de datos, tanto supervisadas como no supervisadas. Se pretende que el alumno sea capaz de abordar problemas de datamining y modelización estadística, desde su planteamiento, pasando por la preparación de datos y la evaluación de la técnica más adecuada, hasta la evaluación de resultados. Los conceptos teóricos se ilustrarán mediante ejemplos sencillos con lenguaje de programación.
- Planteamiento del problema. Análisis supervisado: regresión y clasificación.
- Análisis no supervisado.
- Preparación de datos en análisis supervisado. Entrenamiento, validación y test.
- Validación cruzada (cross validation).
- Regresión lineal y logística.
- Arboles de decisión.
- Redes neuronales: perceptrón multicapa.
- Evaluación de resultados: curva ROC, lift chart, AUC, Accuracy, F-score, MSE…
- Dicotomía sesgo – varianza en data mining. Curva de aprendizaje.
- Análisis no supervisado: PCA y K-means.
Casos de uso Data Management (6 ECTS)
Se explicarán las técnicas principales en la monitorización y mejora de procesos de negocio, dentro del paradigma Definir-Medir-Mejorar.
- Definición de procesos de negocio. BMP’s y principales KPI’s.
- Remodelización. Del Modelo relacional al Modelo en estrella. Desnormalizaciones. Bucles.
- Procesos ETL (Extracción Transformación y Carga). Cargas masivas. Staging.
- Historificación. Agregados.
- Herramientas: ETLs open y comerciales. Herramientas de auto gestión. Business Objects.
- Algoritmos de optimización.
- Caso de uso. Monitorización en tiempo real de web de ventas vía ingesta de logs (desestructurado) y datos de ventas (estructurado).
Casos de uso en Finanzas (6 ECTS)
Diseño de modelo de datos o Datamart para departamentos financieros y control de gestión para generar los informes de seguimiento, profundización y ad hoc en el terreno de la toma de decisiones.
- El dato a la información: de la métrica al KPI y las medidas de la vanidad.
- La selección y reducción de datos: informes periódicos- informes ad hoc. Coste
de mantener más información de la necesaria y oportunidades de la automatización. - Herramientas de seguimiento del negocio: evolutivos, year to date, grados decumplimiento, rentabilidad, amortización, Payback/ROI.
- Series temporales, estacionalidad, comparación con el pasado y grupos de control.
Casos de uso en Marketing (6 ECTS)
Se trata de ilustrar al alumno en el uso de las distintas técnicas de modelización, útiles para abordar casos de uso de marketing. Estos casos de uso están inspirados en experiencias reales de compañías dentro de los sectores del transporte, las telecomunicaciones, análisis de opinión y retail. El objetivo es que el alumno tenga una visión práctica de las técnicas de modelización estadística, y disponga del criterio suficiente para decidir qué técnica aplicar a cada caso de marketing.
- Modelos de Churn. Detectar posibles fugas de clientes antes de que sea demasiado tarde…
- Modelos de valoración “inteligente” de clientes (Customer Life Time Value)
- Crosselling y Upselling. Vincular y desarrollar al cliente.
- Casos de uso no supervisado. Análisis cluster y PCA. Conociendo al cliente.
- Marketing Modeling Mix. Evaluar el impacto de la inversión en medios y cómo
optimizarla.
Herramientas y Profesionales de BIBD (6 ECTS)
El nuevo paradigma hace que necesitemos nuevos perfiles de profesionales y nuevas herramientas, es importante conocer qué perfiles profesionales intervienen en los proyectos de BIBD, conocer el estado del arte de las herramientas tecnológicas, así como sus principales funciones y ventajas.
- El nuevo paradigma: open data y open source.
- Principales repositorios de open data.
- Landscape de herramientas de Data mining y Big Data.
- El nuevo científico de datos en las tres esferas: matemática/estadística, informática y conocimiento del negocio.
- La cultura de empresa en recursos humanos para incentivación, retención y
actualización del talento.
Bases de datos Relacionales y no Relacionales (6 ECTS)
Conocer las principales técnicas, engines, actores y flujos en el almacenamiento y explotación masiva de datos.
- Metodologías. Modelo Entidad Relación. Normalización. Técnicas de modelado.
- Estructura básica de una BBDD relacional. Patrones de diseño. Transacciones.
Implementaciones Físicas. - Bases de Datos operacionales vs Datawarehouse. Modelos en estrella y desnormalizaciones.
- Principales engines actuales. Comparativa y campos de aplicación: Oracle, Microsoft, Mysql, MariaDB, Postgresql, Teradata, Vertica.
- Caso práctico: Modelización de un catálogo de productos para track de ventas.
- BBDD no relacionales. Paradigmas de procesamiento masivo: Apache Hbase.
HDFS . Hadoop. Map Reduce. - Deep Learning. GPU, Núcleos cuda y procesamiento matricial. Frameworks en detalle: Tensor Flow, Keras, Pytorch.
Lenguajes de Programación de Nuevo Entorno (6 ECTS)
El objetivo de esta materia es familiarizarse con los conceptos clave en los entornos software para la ciencia de datos. Leguajes, herramientas de desarrollo, entornos de trabajo y despliegue final de soluciones. Hadoop, Spark, Phyton, Java, lenguajes propios de base de datos. Soluciones en la nube: Amazon (AWS), Google cloud, Microsoft Azure.
- De C a Spark. Conceptos claves en los lenguajes de programación en la Ciencia
de Datos. Eficiencia, compatibilidad, curvas de aprendizaje. Tendencias actuales. - Herramientas de desarrollo. Principales IDEs de Programación en la ciencia de
datos: Eclipse, R- Studio, Spyder, Jupyter Notebook. - Caso práctico. Cotizaciones Nasdaq con python bajo Jupyter. Ingesta, tratamiento y visualización.
- On Promise, Hosting y Cloud. Definiciones y modelos. Mantenimiento, escalabilidad y despliegues.
- Cloud. Principales actores. Productos sobre cloud. Soluciones llave en mano.
- Caso práctico AWS. Despliegue tienda online extremo a extremo.
Itinerario de negocio
Esta asignatura ofrece una visión transversal sobre la Transformación Digital, poniéndola en un contexto de negocio, normativo y de actualidad dentro de la revolución digital. Profundiza en herramientas y tecnologías: ¿cómo ayudan a mejorar la productividad y resultados de la empresa?
- La Transformación Digital y la IV Revolución Industrial.
- Start-Up y Digital Business frente a empresas tradicionales.
- Contexto actual y desarrollo de nuevos modelos de negocio. Servicios Cloud.
- La Uberización de la Economía.
- Gestión de Recursos Humanos y Detección Digital de Talento.
- Aspectos Legales: La GDPR.
Reporting y Seguimiento del Negocio
Principales reportes de seguimiento de negocio para realizar la primera foto de situación.
- Seguimiento del negocio: principales métricas y dimensiones.
- Detección de oportunidades y base para estudios ad hoc: fraude, avería, seguimiento de objetivos.
- Matriz abc-xyz de clientes.
- Mapas de clientes utilizando cuartiles.
- Evaluación de acciones comerciales e interactuaciones con el cliente.
Datamining en la Digitalización (6 ECTS)
Conocer el soporte y lanzamiento de los procesos de digitalización tanto de transformación como de conocimiento e interactuación con el cliente, que puede ofrecer la Inteligencia artificial y el Machine learning.
- Minería de datos en la Industria 4.0 y transformación digital.
- Inteligencia artificial en la gestión de clientes: user-centric, ad-centric, site-centric.
- Fuentes de información: cookies, Id’s e información interna comportamental del cliente.
- Construcción de audiencias.
- Personalización de campañas: banners, Display Campaing, Campañas de remarketing.
- Publicidad programática: DMP.
Itinerario Técnico
Profundizar en el conocimiento de SQL como principal herramienta de acceso a datos relacionales.
- QL. Estandarización. Versión ANSI 92. Otros dialectos. Dialectos propietarios.
- DDL. Definición de estructuras. Comandos principales.
- DML. Manipulación de Datos. Comandos principales.
- SELECT. Consulta de datos. JOINS. Relacionando Tablas.
- AGRUPACIONES Y FUNCIONES VENTANA. Conteos y funciones estadísticas.
- PRINCIPALES FUNCIONES. De cadena. Numéricas, Matemáticas, De fecha.
Estadísticas. - IMPLEMENTACIONES PROPIETARIAS. Principales diferencias entre engines.
Fechas. Nulos. - OPTIMIZACION. Herramientas de optimización de consultas. índices, vistas. Hints. Planes de ejecución.
Modelización de datos no estructurados
Conocer las principales técnicas del tratamiento de la información no estructurada como eventos masivos, imagen, texto y voz.
- Distribución de datos. HDFS. Hadoop. Hbase.
- Diferencias con modelos relacionales.
- Algoritmos distribuidos. Ingeniería de Features.
- Tratamiento de eventos. Buscadores. Recomendadores.
- Tratamiento de imágenes. Redes Convolucionales sobre imagen.
- Tratamiento semántico de la información. Bag of words. Clasificación. Análisis
de Sentimiento. - Voz. Speech to text. VRU.Chat Bots.
Machine learning e Inteligencia Artificial
Entender como Python puede utilizarse como herramienta para desarrollar proyectos de Ciencia de Datos. Desde los conceptos más básicos, a la utilización de librerías avanzadas de Machine y Deep Learning.
- Python.- Instalación y componentes. Librerías. Comunidades de desarrollo.
- Bases del lenguaje. Estructuras de control, funciones y variables. Módulos y
paquetes. - Ingesta de datos. Scraping. Ficheros, BBDD. Ingeniería de Features.
- Estructuras de datos. Listas, Diccionarios. Tratamiento y procesamiento. Pandas. Numpy.
- Álgebra Computacional. Simpy.
- Librería matemática, SciPy.
- Machine Learning Sk-Learn.
- Deep Learning: Pytorch y Keras.
- FIN DE ITINERARIOS
Módulos para la Ciencia de Datos.
Storytelling del Dato
Controlar la narrativa del dato, desde la extracción, reducción e interpretación a la narrativa de cara al cliente interno, usuario stakeholder o cualquier cliente de la información.
- Optimización en la petición de la información: estados, fechas, clientes.
- Introducción a Power Bi.
- Conexión con fuentes de datos.
- Objetos visuales Power Bi, posibilidades y mejores combinaciones para la narrativa.
- Fuentes en Tableau.
- Visualización en Tableau.
Proyecto Fin de Programa (8 ECTS)
El Trabajo fin de Máster es el último paso para obtener el título del programa formativo. Consiste en la realización de un trabajo académico en el que se apliquen o desarrollen conocimientos adquiridos a lo largo del programa formativo. Este trabajo deberá contemplar la aplicación de competencias generales asociadas al programa.
Prácticas Profesionales Convalidables (12 ECTS)
Curso de preparación para la certificación Google Analytics IQ (Módulo Opcional)
Profesores
Solicita información
Sus datos han sido registrados exitosamente.