Curso gratis IFCT107 RESPONSABLE EXPERTO DE DATA

Curso gratis IFCT107 RESPONSABLE EXPERTO DE DATA online para trabajadores y empresas

Curso gratis para: Trabajadores y Empresas, consulta próxima convocatoria

Modalidad del curso: Online

Duración del curso: 240 Horas

Titulación: Diploma acreditativo con las horas del curso


Curso Gratis Online para Trabajadores y Empresas

Si eres trabajador en Régimen General, disfruta del curso gratis online a través de la formación bonificada para empresas.

Nuestros cursos gratis están disponibles en modalidad online o a distancia, consúltanos para informarse de la modalidad del curso gratis para trabajadores de su interés.

OBJETIVOS DEL CURSO GRATIS IFCT107 RESPONSABLE EXPERTO DE DATA

Este Curso IFCT107 RESPONSABLE EXPERTO DE DATA le ofrece una formación especializada en la materia dentro de la Familia Profesional de Informática y comunicaciones. Con este CURSO IFCT107 RESPONSABLE EXPERTO DE DATA el alumno será capaz de Dominar el dato para entenderlo, transformarlo y capturar su máximo potencial con inteligencia artificial para optimizar procesos y simplificar el desarrollo de los proyectos y, comenzar con la creación de modelos de machine learning.

CONTENIDO DEL CURSO GRATIS IFCT107 RESPONSABLE EXPERTO DE DATA

UNIDAD DIDÁCTICA 1. INTRODUCCIÓN: LA IMPORTANCIA DEL DATO

  1. Concienciación en relación a cómo la ciencia del dato afecta a todos los sectores y puede ser el aliado perfecto para el mundo de los negocios
  2. Conocimiento de los diferentes modelos de negocio basado en datos:
  3. - Nuevos modelos de negocio en torno al dato
  4. - Tipología de datos y cómo se obtienen
  5. - Maneras de rentabilizar el dato
  6. - Data Business Model Canvas
  7. Adquisición de conocimientos sobre los avances en Big Data & Inteligencia Artificial (IA)
  8. - Estado actual
  9. - Posible evolución futura
  10. Dominio de Conceptos básicos
  11. - Qué es Big Data
  12. - Qué es Machine Learning
  13. - Qué es Deep Learning
  14. Concienciación sobre el poder de los datos en las organizaciones tanto para mejorar la toma de decisiones como para crear modelos de negocio basado en datos
  15. Visión trasversal sobre cómo Data Science se aplica en las diferentes áreas de la organización para impulsar las capacidades

UNIDAD DIDÁCTICA 2. NOCIONES INICIALES DE PYTHON, DATA ENGINEERING Y ESTADÍSTICA

  1. Desarrollo de los fundamentos de Big Data
  2. - Qué es el Big Data
  3. - Perfiles técnicos: Data Analyst, Engineer, Arquitect, QA...
  4. - El proceso de construir un proyecto de Big Data
  5. - Arquitecturas de Big Data
  6. - Las claves del éxito del big data
  7. Identificación de los fundamentos de Machine Learning
  8. - Introducción al Machine Learning: Datos, algoritmos, modelos, producción...
  9. - Aproximación a los algoritmos: clasificación, predicción y clustering
  10. - Creación de modelos de Machine Learning
  11. - Las claves del aprendizaje automático
  12. - La productivización de modelos
  13. Análisis de los fundamentos de IA: Visión, NPL...
  14. - Introducción al Deep Learning y sus aplicaciones
  15. - Tipos de redes neuronales y su entrenamiento
  16. - Funcionamiento y retos del Data Science aplicado al Computer Vision y al NPL
  17. Conocimientos avanzados de Python Crash Course
  18. - Uso de pycharm como entorno de trabajo
  19. - Uso de notebooks
  20. - Conocimiento de la sintaxis del lenguaje: bucles, variables
  21. - Librerías
  22. - Funciones
  23. - Programación orientada a objetos en Python
  24. Aproximación a la arquitectura de la información y al SQL
  25. - Qué es la arquitectura de datos
  26. - Modelo relacional tradicional
  27. - Modelo estrella
  28. - Modelo copo de nieve
  29. - Bases de la normalización de datos
  30. - Definiciones esenciales: base de datos, tablespace, tabla, vista, vista materializada, clave primaria, índice y partición
  31. - SQL
  32. - Sintaxis del lenguaje
  33. Identificación del Crash course de python para data engineers: SQL y dataframes
  34. - Consulta de datos
  35. - Cruce de tablas
  36. - Inserción y borrado
  37. - Dataframes:
  38. - Qué es una serie
  39. - Qué es un dataframe
  40. - Cruces con dataframe
  41. - Funciones lambda con columnas
  42. - Leer y salvar datos desde y a dataframe desde distintos formatos
  43. Diferenciación entre ETL/ELT y preproceso de datos
  44. - ELT o ETL
  45. - Pipelines de datos
  46. - ¿Cómo estructurar los distintos pasos del workflow de datos?
  47. - Automatización de procesos
  48. Aplicación del proceso del análisis exploratorio
  49. - Arranque de un proceso exploratorio
  50. - Los objetivos de un análisis exploratorio
  51. - Uso del proceso exploratorio para validación de hipótesis
  52. - Naturaleza iterativa del proceso
  53. Utilización de herramientas de visualización exploratoria y librerías
  54. - Análisis descriptivo gráfico
  55. - Análisis descriptivo basado en estadísticos
  56. Realización de análisis univariante y multivariante
  57. - Análisis multivariante
  58. - Análisis univariante
  59. Conocimiento de la Estadística descriptiva
  60. - Media, mediana, momentos, etc...
  61. - Desviación, varianza
  62. - Sesgos y medidas de homogeneidad de la información
  63. Aproximación breve al algebra lineal
  64. - Operaciones matriz-escalar
  65. - Operaciones matriz-matriz
  66. - Propiedades de las matrices: no conmutativa, asociativa, distributiva, matriz identidad
  67. - Trasposición e inversa de una matriz
  68. Análisis de correlación de variables: fundamentos de estadística y probabilidad
  69. - Ingeniería de características: descarte y selección de características
  70. - Cómo analizar la correlación entre variables
  71. - Efecto de las correlaciones
  72. - Eliminación de la correlación
  73. Deducción estadística y contraste de hipótesis
  74. - Definición de una distribución una variable aleatoria
  75. - Definición de una función de probabilidad
  76. Desarrollo de los fundamentos de Big Data
  77. - Qué es el Big Data
  78. - Perfiles técnicos: Data Analyst, Engineer, Arquitect, QA...
  79. - El proceso de construir un proyecto de Big Data
  80. - Arquitecturas de Big Data
  81. - Las claves del éxito del big data
  82. Identificación de los fundamentos de Machine Learning
  83. - Introducción al Machine Learning: Datos, algoritmos, modelos, producción...
  84. - Aproximación a los algoritmos: clasificación, predicción y clustering
  85. - Creación de modelos de Machine Learning
  86. - Las claves del aprendizaje automático
  87. - La productivización de modelos
  88. Análisis de los fundamentos de IA: Visión, NPL...
  89. - Introducción al Deep Learning y sus aplicaciones
  90. - Tipos de redes neuronales y su entrenamiento
  91. - Funcionamiento y retos del Data Science aplicado al Computer Vision y al NPL
  92. Conocimientos avanzados de Python Crash Course
  93. - Uso de pycharm como entorno de trabajo
  94. - Uso de notebooks
  95. - Conocimiento de la sintaxis del lenguaje: bucles, variables
  96. - Librerías
  97. - Funciones
  98. - Programación orientada a objetos en Python
  99. Aproximación a la arquitectura de la información y al SQL
  100. - Qué es la arquitectura de datos
  101. - Modelo relacional tradicional
  102. - Modelo estrella
  103. - Modelo copo de nieve
  104. - Bases de la normalización de datos
  105. - Definiciones esenciales: base de datos, tablespace, tabla, vista, vista materializada, clave primaria, índice y partición
  106. - SQL
  107. - Sintaxis del lenguaje
  108. Identificación del Crash course de python para data engineers: SQL y dataframes
  109. - Consulta de datos
  110. - Cruce de tablas
  111. - Inserción y borrado
  112. - Dataframes:
  113. - Qué es una serie
  114. - Qué es un dataframe
  115. - Cruces con dataframe
  116. - Funciones lambda con columnas
  117. - Leer y salvar datos desde y a dataframe desde distintos formatos
  118. Diferenciación entre ETL/ELT y preproceso de datos
  119. - ELT o ETL
  120. - Pipelines de datos
  121. - ¿Cómo estructurar los distintos pasos del workflow de datos?
  122. - Automatización de procesos
  123. Aplicación del proceso del análisis exploratorio
  124. - Arranque de un proceso exploratorio
  125. - Los objetivos de un análisis exploratorio
  126. - Uso del proceso exploratorio para validación de hipótesis
  127. - Naturaleza iterativa del proceso
  128. Utilización de herramientas de visualización exploratoria y librerías
  129. - Análisis descriptivo gráfico
  130. - Análisis descriptivo basado en estadísticos
  131. Realización de análisis univariante y multivariante
  132. - Análisis multivariante
  133. - Análisis univariante
  134. Conocimiento de la Estadística descriptiva
  135. - Media, mediana, momentos, etc...
  136. - Desviación, varianza
  137. - Sesgos y medidas de homogeneidad de la información
  138. Aproximación breve al algebra lineal
  139. - Operaciones matriz-escalar
  140. - Operaciones matriz-matriz
  141. - Propiedades de las matrices: no conmutativa, asociativa, distributiva, matriz identidad
  142. - Trasposición e inversa de una matriz
  143. Análisis de correlación de variables: fundamentos de estadística y probabilidad
  144. - Ingeniería de características: descarte y selección de características
  145. - Cómo analizar la correlación entre variables
  146. - Efecto de las correlaciones
  147. - Eliminación de la correlación
  148. Deducción estadística y contraste de hipótesis
  149. - Definición de una distribución una variable aleatoria
  150. - Definición de una función de probabilidad

UNIDAD DIDÁCTICA 3. CONOCIMIENTO AVANZADO DE MACHINE LEARNING & ARTIFICIAL INTELLIGENCE

  1. Aproximación a la modelización
  2. - Introducción a la modelización
  3. - Tipos de modelos
  4. Identificación de los Modelos de regresión
  5. - Modelos de regresión simple
  6. - Modelos de regresión múltiple
  7. - Modelos de regresión generalizado
  8. Clasificación de los distintos modelos de Árboles:
  9. - Modelos de inferencia de árboles de decisión y regresión:
  10. - Clasificadores binarios
  11. - Regresión
  12. - Modelos de inferencia de árboles de decisión: clasificadores multiclase
  13. - Modelos avanzados de árboles:
  14. - Boosting
  15. - Random forest
  16. Conocimientos de Algoritmos alternativos de clasificación
  17. Conocimientos de Eager y Lazy classifiers
  18. Utilización de Clustering
  19. - Introducción a los modelos no supervisados
  20. - Análisis clúster
  21. Aproximación al método científico:
  22. - Evaluación de modelos
  23. Evaluación y optimización de modelos:
  24. - Control de outliers y análisis de residuos
  25. - Modelos no supervisados
  26. - Modelos supervisados
  27. Creación de Ingeniería de variables:
  28. - Principios de la ingeniería de variables en la creación de variables
  29. - La dimensionalidad
  30. - Técnicas: PCA y SVD
  31. Ensamblado de modelos:
  32. - Definición de model ensembles
  33. - Modelos débiles y modelos fuertes
  34. - Creación de pipelines para crear modelos ensamblados
  35. Gestión del ciclo de vida de los modelos
  36. Interpretabilidad
  37. Aproximación a modelos heurísticos de optimización
  38. Conocimiento de los algoritmos genéticos
  39. - Principios de optimización basado en heurísticos
  40. - Gradiente descendente
  41. - Modelos basados en comportamientos animales
  42. - El algoritmo genético
  43. - Aplicaciones de los algoritmos genéticos
  44. - Cromosoma y función de fitness
  45. - Resolución de un problema usando algoritmos genéticos
  46. Utilización de series temporales y forecasting
  47. - Bases sobre componentes de las series temporales: tendencia, ciclo y estacionalidad
  48. - Series estacionarias y no estacionarias
  49. - Análisis de anomalías
  50. - Suavizado exponencial
  51. - Modelos autoregresivos
  52. - Modelos univariantes y multivariantes
  53. - Modelos arima
  54. - Modelos con parametrización automática
  55. Gestión de proyectos de Data Science

UNIDAD DIDÁCTICA 4. APLICACIONES DEL DEEP LEARNING

  1. Aproximación a redes neuronales artificiales (ANN)
  2. - ¿Qué es una red neuronal artificial?
  3. - Tipos de redes: profundas y superficiales (shallow)
  4. - Técnica del gradiente descendiente
  5. Conocimiento de los campos de aplicación de ANN
  6. - Visión por computador
  7. - Análisis y síntesis del lenguaje
  8. - Análisis de secuencias
  9. - GAN y deepfake
  10. Aproximación al Shallow & Deep neural networks. Introducción CNN
  11. - Perceptrón simple
  12. - Topologías de redes neuronales
  13. - MNIST
  14. - Regularización: L1, L2, dropout y otros
  15. - Creación de una CNN con keras
  16. Comprensión del diseño de redes neuronales artificiales (ANN), redes convolucionales (CNN) y redes recurrentes (RNN)

UNIDAD DIDÁCTICA 5. ENTORNOS BIG DATA & CLOUD

  1. Conocimientos de Big Data y de los principios de arquitecturas de computación distribuidas y altamente escalables
  2. - Comprender el papel del Big data en la ciencia de datos
  3. - Apache Spark
  4. - Spark en modo batch y en semi-tiempo real (microbatches)
  5. - Lazy evaluation
  6. Utilización de Dataframes y Data pipelines en Spark
  7. - Operaciones sobre dataframes (SQL o pyspark)
  8. - Creación de data pipelines con spark
  9. - Transformación de dataframes
  10. Creación de modelos de Machine Learning en Spark
  11. - Entrenamiento de modelos e integración en pipelines
  12. - Aplicación de la inferencia de modelos en Spark
  13. Despliegue de pipelines de modelos con Spark
  14. Desarrollo de modelos con proveedores de Cloud Machine Learning

UNIDAD DIDÁCTICA 6. VISUALIZACIÓN DE LOS DATOS

  1. Comprensión de las claves del storytelling a través de los datos
  2. La ciencia de la visualización de datos y el storytelling: su valor en el mundo profesional
  3. Uso del storytelling con datos
  4. Principios de la comunicación visual de los datos
  5. Uso de los distintos controles visuales
  6. Comprensión de los conceptos Business Intelligence y Data Visualization
  7. Entender el proceso para trabajar en la herramienta de visualización en un contexto de Business Intelligence
  8. Fuentes de datos, tratamiento y preparación de datos, modelaje de datos (relaciones), análisis exploratorio y específicos, visualización y reporting
  9. Profundización en la herramienta PowerBI para poder conectar datos, prepararlos, modelarlos, explorarlos y visualizarlos
  10. Entorno de PowerBI: organización y componentes
  11. Importación de datos
  12. Visualizaciones básicas realizando agrupaciones y aplicando filtros
  13. Trabajar y preparar los datos: columnas calculadas, medidas, fórmulas con DAX, tablas calculadas...
  14. Trabajar con tablas matrices para aumentar la granularidad de los informes
  15. Filtrar los datos de manera dinámica con la segmentación de datos
  16. Aproximación a la herramienta Tableau

UNIDAD DIDÁCTICA 7. HABILIDADES Y COMPETENCIAS DE GESTIÓN, PERSONALES Y SOCIALES, PARA EL ENTORNO DIGITAL

  1. Impulso de habilidades digitales:
  2. - Liderazgo participativo
  3. - Gestión del cambio
  4. - Inteligencia emocional
  5. - Storytelling
  6. - Creación de marca personal
  7. - Comunicación y negociación en entornos digitales
  8. Comprensión de las competencias necesarias para el nuevo entorno digital:
  9. - La influencia digital
  10. - La colaboración en el entorno
  11. - La integración de la diversidad
  12. - La gestión emocional
  13. - La agilidad en toma de decisiones
  14. - La anticipación en contextos digitales
  15. - La flexibilidad para la transformación
  16. - La asunción de incertidumbre y riesgos
  17. - La elaboración, gestión y difusión de contenidos
  18. Conocimiento de las herramientas imprescindibles para:
  19. - El trabajo colaborativo
  20. - El trabajo en remoto
  21. - La gestión de proyectos
  22. - Automatización de flujos de trabajo
  23. Práctica en las claves del trabajo en equipo y de la productividad en remoto
  24. Fomento del liderazgo participativo y la gestión del cambio
  25. Dominio de la comunicación y la negociación en entornos digitales
  26. Práctica del modelo de competencias para el entorno digital
  27. Elaboración y gestión de la marca personal desde la importancia del storytelling

Contacto

Contacta con un asesor de formación

¿Estás buscando algún curso o máster? Contáctanos para poder asesorarle mejor.

Enviar
Inscripción al curso