Máster de Formación Permanente en Big Data y Analytics
Modalidad de imparticiónEl programa de Inesdi Digital Business School se imparte bajo Modalidad Online.
Número de horasEl Máster tiene una duración aproximada de 10 meses.
Titulación oficialAl cumplir con el tiempo estipulado por Inesdi Digital Business School, se otorgará el Máster de Formación Permanente en Big Data y Analytics.
Valoración del programaEl Máster de Formación Permanente en Big Data y Analytics de Inesdi Digital Business School proporciona una comprensión profunda y práctica de las tecnologías y métodos de análisis de datos. Este máster abarca desde la recolección y almacenamiento de grandes volúmenes de datos hasta la aplicación de técnicas avanzadas de análisis y visualización para obtener información valiosa que puede ser utilizada en la toma de decisiones estratégicas. El plan de estudios incluye módulos sobre minería de datos, inteligencia artificial, aprendizaje automático y visualización de datos, todo ello apoyado por casos prácticos y proyectos reales que permiten a los estudiantes aplicar lo aprendido en un contexto profesional.
Dirigido aEl programa está enfocado hacia El máster está dirigido a profesionales con experiencia en tecnología, análisis de datos, ingeniería y disciplinas afines, que buscan actualizar y profundizar sus conocimientos en Big Data. También es ideal para recién graduados que desean iniciar una carrera en un campo dinámico y en crecimiento. Los directivos y emprendedores interesados en utilizar el análisis de datos para mejorar la toma de decisiones empresariales encontrarán este programa especialmente beneficioso.
EmpleabilidadAl completar el tiempo de estudio, el egresado podrá desempeñarse en en diversos sectores, desde tecnología y finanzas hasta marketing y salud.
Máster de Formación Permanente en Big Data y Analytics
Contenido Máster de Formación Permanente en Big Data y Analytics.
Cambia la forma de analizar de tu organización para transformarla en una data driven company.
Metodología: Online Duración: 10 meses (60 ECTS)
Objetivos.
El objetivo general del Máster de Formación Permanente en Big Data y Analytics de Inesdi Business Techschool es proporcionar los conocimientos necesarios para gestionar un proyecto de Big Data desde todas sus vertientes, empezando desde cómo detectar la oportunidad en una organización hasta determinar qué se entrega a las áreas de negocio.
Asimismo, se persigue que el profesional responsable pueda reconocer si una organización se encuentra delante de un reto de Big Data y tener un proceso definido de los pasos a seguir: identificar la tipología de soluciones que debe adoptar, determinar los perfiles profesionales que va a necesitar, preparar un plan de viabilidad económica y tener los fundamentos para manejar su escalabilidad.
Empleabilidad.
95% De nuestros Alumni encuentran trabajo relacionado con Data Analytics.
+3000 Alumnos de Inesdi que realizan prácticas las obtienen gracias al departamento de Carreras Profesionales.
75% De nuestros Alumni ascienden al finalizar el Máster.
Programa.
El Máster en Big Data & Analytics se estructura en 10 módulos terminando el programa con el Proyecto Fin de Máster.
Contamos con varias membresías y certificaciones que nos permiten agregar un extra a nuestros programas y brindar herramientas complementarias a nuestros alumnos.
Bootcamp Tecnológico.
Los estudiantes inician el programa de Big Data y Analytics con este bootcamp que provee de las bases de conocimiento técnicas necesarias para cursar y para llevar cabo proyectos de Big Data.
En este curso, los estudiantes encontrarán recursos materiales que les permitirán profundizar en diferentes temas necesarios para el seguimiento del máster y realizarán actividades que les servirán como guía para la evaluación de sus conocimientos y la evaluación final del curso.
Módulo 1- Liderazgo y estrategias en proyectos de Big Data e IA
En este módulo introduciremos los conceptos fundamentales del Big Data para saber identificar las claves de cada proyecto y escalabilidad. Descubrir la variabilidad de los datos, la volumetría y la velocidad nos servirá para identificar qué fases se deben llevar a cabo antes de arrancar un proyecto de Big Data y, lo más importante, qué retorno esperamos del proyecto y qué expectativas tiene el negocio.
Objetivos:
Identificar cuándo un proyecto es Big Data.
Encontrar el ROI en un proyecto de Big Data.
Entender y aplicar los conceptos de Dark Data y Open Data.
Orientar la organización para que sea una Data Driven organization y respalde el
proyecto.
Conocer la legalidad de los datos.
Definir la figura del Data Science dentro de una organización.
Examinar casos de éxito y fracasos en la industria en el mundo de Big Data.
Comprender la organización interna del área del CDO.
Módulo 2- Planificación y desarrollo de arquitecturas escalables
En este módulo descubriremos los pros y los contras de cada arquitectura, los principales proveedores de soluciones y las estrategias para construir entornos lo más elásticos posibles, buscando siempre la arquitectura más eficaz en soluciones y coste.
Objetivos:
Estudiar los conceptos fundamentales de Arquitectura de referencia de Big Data.
Analizar las características de las arquitecturas de proceso de Big Data (Lambda y Kappa).
Comprender las Arquitecturas de Computación (Velocidad).
Entender cómo funciona un Hadoop.
Examinar la evolución de los motores de proceso de Big Data.
Aprender las Arquitecturas de Almacenamiento (Volumen) para Big Data: Réplicas, Particionado, Rendimiento y Disponibilidad.
Examinar ejemplos de arquitecturas de almacenamiento de Big Data. Data Lake y DataWarehouse.
Familiarizarse con la gestión de una Arquitectura de Big Data.
Analizar las conexiones entre cloud y Big Data. Servicios de datos en Cloud Públicos, Snowflake y DataBricks.
Entender con detalle como funcionan los clusters de Hadoop o Spark.
Módulo 3- Integración de datos (ETLs, ELTs...)
En este momento, deberemos definir reglas de calidad para verificar que los datos son correctos y no empobrecen nuestro Data Lake. En este módulo aprenderemos a definir las bases que deben tener todo proceso de carga de datos para garantizar una integridad, sanitización, historificación y recursividad en las cargas.
Objetivos:
Comprender los retos de los datos en los procesos de integración de datos.
Estudiar la Integración de Datos – Procesos ETL y ELT.
Aprender a usar técnicas avanzadas de integración de datos con Machine Learning.
Analizar Data Quality y métricas en los procesos de integración de datos.
Examinar el uso del Data Lineage en los procesos de integración de datos.
Aproximarse al Master Data Management. La factoría de Datos.
Entender los beneficios de Open Data, para enriquecer nuestros datos con datos externos.
Familiarizarse con las herramientas de Integración de Datos y Cloud.
Módulo 4- Data Lakes. SQL y NoSQL
Registrar grandes cantidades de información requiere de diferentes tipologías de base de datos, más allá de las relacionales con un enfoque más tradicional. Así, por ejemplo, el vídeo, las rutas o caminos críticos, los documentos o las redes sociales son fuentes de datos cada vez más habituales entre las fuentes de información que interesan a un negocio. El mercado tecnológico se ha adaptado a todas ellas y ha creado soluciones para poder almacenarlas y explotarlas de forma óptima. En este módulo descubriremos sus ventajas e inconvenientes y realizaremos pequeñas prácticas sobre cada una de ellas para explorar su potencial.
Objetivos:
Entender los retos de las bases de datos relacionales en Big Data.
Comprender la necesidad de escalar. La consistencia BASE vs ACID.
Aprender a usar las bases de datos NoSQL.
Aproximarse a Deep Dive MongoDB y aprender a crear un DataLake con MongoDB.
Analizar las bases de datos NewSQL.
Examinar las bases de datos en streaming. Proceso en tiempo real.
Saber cómo montar un DataLake en Cloud.
Módulo 5- Data Mining: Estadística básica y preprocesado de datos
En este módulo aprenderemos a extraer información del conjunto de datos del Data Lake y, sobre todo, a convertirla en interpretable. En todo el proceso, deberemos tener claros los objetivos de negocio, las herramientas que nos ayudarán a analizar los datos, a determinar qué modelos matemáticos son mejores y a cualificar los resultados.
Objetivos:
Seleccionar el conjunto de datos que mejor puede resolver la pregunta de negocio, de entre los datos disponibles.
Transformar el conjunto de datos de entrada.
Seleccionar la técnica de minería de datos más adecuada (redes neuronales, árboles de decisión, clustering, reglas de asociación, etc.).
Entender el proceso de extracción de conocimiento.
Interpretar y evaluar los datos.
Módulo 6- Advanced Analytics: R
Una vez dispongamos de unos datos correctos habrá llegado el momento de extraer el conocimiento, interpretarlos y llevar el conocimiento a un nuevo nivel. En este módulo, sentaremos una pequeña base estadística para poder trabajar con una de las principales herramientas de Advanced Analytics del mercado: R. Con ella se realizarán pequeñas prácticas para extraer el máximo potencial de los datos.
Objetivos:
Conocer las bases dela estadística y del cálculo de probabilidades.
Aplicar el análisis multivariante de datos.
Entender y aplicar las series temporales.
Entender el proceso de control estadístico de la calidad de los datos.
Calcular correlaciones y patrones.
Conocer el proceso de clusterización de los datos.
Módulo 7- Machine Learning & Inteligencia Artificial
En módulos previos hemos aprendido a interpretar datos y extraer conocimiento (Análisis Descriptivo). En este módulo nos adentraremos en el Aprendizaje Automático y la IA Generativa para anticipar eventos, generar datos y crear nuevo conocimiento (Análisis Predictivo). Descubriremos las principales técnicas y herramientas, la información necesaria y exploraremos su aplicabilidad en casos prácticos.
Objetivos:
Comprensión profunda de los tipos de aprendizaje: diferenciar entre aprendizaje supervisado, no supervisado y por refuerzo. Conocer las diferentes técnicas de clasificación, de los árboles de decisiones a las técnicas bayesianas.
Conocimiento de técnicas avanzadas de clasificación y regresión. Panorama de herramientas comerciales y de código abierto. Identificar los principales softwares de código abierto y comercial.
Introducción a la IA Generativa: principios y relación con el aprendizaje automático.
Habilidades prácticas: desarrollar la capacidad de resolver problemas reales mediante la aplicación de técnicas de aprendizaje automático e IA Generativa.
Módulo 8- Data Governance
Una vez tenemos toda la información, debemos definir las reglas de uso: quién puede ver los datos, la definición de cada dato, linaje y dotar a los usuarios de las herramientas para poder interpretarlos.
El gobierno del dato es donde muchas empresas fracasan, tener dos valores diferentes para un mismo KPI o predictivo, provoca desconfianza entre las diferentes áreas de negocio.
En este módulo, aprenderemos las técnicas de gobierno de la información para mantener la integridad, seguridad y trazabilidad, para garantizar que los datos ayuden a la toma de decisiones seguras sin generar desconfianza.
Objetivos:
Entender qué es la accesibilidad de los datos.
Gestionar los datos como un activo.
Asegurar la integridad.
Definir los principales KPIs y trazabilidad de los datos.
Entender el concepto de securización.
Módulo 9- Técnicas de visualización
En este módulo descubriremos cuáles son las diferentes técnicas de visualización de datos y cuándo utilizar cada una de ellas. Los grandes volúmenes de datos necesitan de nuevas representaciones gráficas para poder interpretarlos: mapas de calor, clústeres, dimensionales, caminos críticos, entre otros.
Además de los gráficos, es importante asociar la valoración a cada uno de ellos y generar una interpretación. Los indicadores pueden confundir y dificultar la toma de decisiones, orientarlos, ponerlos en contexto y subjetivarlos ayudará a una mejor interpretación.
Objetivos:
Descubrir las tipologías disponibles de gráficos.
Conocer los casos de uso y sus principales representaciones gráficas.
Entender el proceso vinculado al paso delos gráficos al Story telling de negocio.
Saber simplificar y Módulo 10 - Herramientas de visualización y autoservicio
Finalmente, como el ecosistema de herramientas de visualización es complejo, será importante escoger el más adecuado para cada tipo de organización. Habrá que tener en cuenta que en una organización se busca simplificar la tecnología y deberemos buscar una solución para toda la organización. Es sólo entonces cuando podremos garantizar fácilmente la seguridad, accesibilidad y disponibilidad de los
mismos KPIs.
El autoservicio es una pieza clave en organizaciones grandes con delegaciones, sucursales, etc. Permite descentralizar la información y convertir cada nodo de la organización en autónomo. En este módulo descubriremos las principales herramientas de data visualization y
autoservicio.
Objetivos:
Identificar las principales herramientas de mercado:Qlikview/sense, Tableau, PowerBI.
Conocer los puntos fuertes y puntos débiles de cada una ellas.
Realizar un caso práctico con Qliksense y el autoservicio de datos.
Talleres.
Taller 1. Neo4j-QSense: En este taller los estudiantes aprenderán a usar dos productos interesantes en el mundo de los datos. Por una parte, Neo4j, la base de datos de grafos más extendida actualmente que permite establecer, descubrir y explotar múltiples relaciones entre las entidades existentes. Además, la segunda parte del taller se dedicará a Qlik Sense, un producto de explotación BI sofisticado, muy extendido y orientado al analista de negocio, que facilita mucho la obtención de los insights de los datos.
Taller 2. Construimos un Lakehouse en Cloud: Este segundo taller tiene por objetivo construir un Lakehouse en uno de los proveedores de cloud más importantes en la actualidad: AWS. La construcción del Lakehouse pasa por la utilización e integración de diferentes componentes o servicios de datos que encajan en la arquitectura de referencia usada a lo largo del Máster. Un Lakehouse es una propuesta de arquitectura que combina la flexibilidad de los Data Lakes con la sólida gestión de los datos estructurados de los Data Warehouse. Si se ubica esta arquitectura en el Cloud entonces también se disfruta de todas sus ventajas de escalabilidad, flexibilidad, gestión y pago por uso.
Certificaciones.
Para todos aquellos alumnos que finalicen con éxito el Máster, opcionalmente, podrán realizar el examen para la obtención de las certificaciones aCAP® o CAP®, acreditaciones clave para los profesionales del área de operaciones y analytics.
aCAP® (Associate Certified Analytics Professional) es una certificación orientada a aquellos profesionales dedicados al análisis de datos, sin experiencia laboral o experiencia inferior a 3 años.
CAP® (Certified Analytics Professional) es una certificación orientada a aquellos profesionales dedicados al análisis de datos, con experiencia laboral más de 3 años.
El objetivo de estas certificaciones es validar los conocimientos y habilidades de los estudiantes en materia de análisis de datos. Obtener una acreditación de estas características es un elemento diferenciador, que aporta valor a los profesionales, abriéndoles las puertas al mercado laboral o a la mejora de la posición laboral ocupada. Para las empresas que buscan mejorar su capacidad para transformar los datos en información y acciones rentables, CAP® y aCAP® proporcionan una distinción para identificar, reclutar y retener el mejor talento analítico.
Ambas certificaciones están avaladas por Informs, una institución integrada por 12.500 profesionales y estudiantes de este ámbito y que está comprometida con dar respuesta a las necesidades de los profesionales encargados del desarrollo, aplicación, investigación y docencia en el área de anlytics. El objetivo principal de la organización es promover las buenas prácticas y avances en operaciones, gestión empresarial y Analytics con el fin de mejorar los procesos operativos, la toma de decisiones y los beneficios.
El Máster en Big Data y Analytics proporciona a los estudiantes los conocimientos y habilidades necesarios para superar satisfactoriamente el examen de aCAP® o CAP®, que les permitirán diferenciarse de la competencia y aportar valor a sus carreras profesionales.
Preparación a la Certificación en PSM® (Professional Scrum Master)
Es una certificación orientada a demostrar conocimiento de Scrum y las responsabilidades de Scrum Master. El objetivo de la certificación es validar los conocimientos y habilidades de los estudiantes. La certificación es reconocida y respetada mundialmente porque pone a prueba una verdadera comprensión de Scrum y como aplicarlo. Una vez que se obtiene no se necesita renovación.
Proyecto final de Master.
10 ECTS
Es un trabajo académico-práctico que los estudiantes realizarán, transversalmente. El objetivo de este trabajo es favorecer la aplicación práctica de los conocimientos, metodologías y herramientas vistos a lo largo de todo el máster.