Loading...

Contenido

MÓDULO DE FORMACIÓN 1: Introducción al Big Data
Conocimientos / Capacidades cognitivas y prácticas
• Conocimiento de la evolución del Business Intelligence (BI) tradicional al Big
Data
• Navegación web, geolocalización y audiencias de TV: Impacto en el análisis
de datos.
• Cómo el Big Data resuelve problemas del tratamiento masivo de datos.
• Identificación de las características del Big Data
• Las 4 V’s: Volumen, Velocidad, Variedad y Veracidad.
• Valor del dato: La importancia de la calidad y el valor que aportan los datos.
• Nuevas dimensiones: Escalabilidad y características adicionales de Big Data.
• Comprensión de los nuevos paradigmas del Big Data

Habilidades de gestión, personales y sociales
• Fomento de la responsabilidad y autonomía en la gestión y administración de
sistemas y herramientas para el Big Data.
• Comunicación efectiva al presentar conceptos clave sobre Big Data a otros
profesionales que no tienen un trasfondo técnico, utilizando un lenguaje claro y
accesible para facilitar su comprensión.
• Procesos en tiempo real: Cómo Big Data permite la respuesta en tiempo real
a eventos.
• Cloud Computing: Cómo la computación en la nube apoya el procesamiento
y almacenamiento masivo de datos.
• Conocimiento de las principales características de Hadoop y su revolución en el
tratamiento de datos
• Introducción a Hadoop: Historia y su impacto en el procesamiento de datos
paralelos.
• HDFS y MapReduce: Principales com

MÓDULO DE FORMACIÓN 2: Arquitectura Big Data y principales tecnologías

Conocimientos / Capacidades cognitivas y prácticas
• Conocimiento general del ecosistema Hadoop
• HDFS: Sistema de archivos distribuido de Hadoop.
• MapReduce: La tecnología clave para el procesamiento paralelo de datos en
Hadoop.
• Identificación de los lenguajes de programación en Big Data
• Java y Scala: Los lenguajes más utilizados en el desarrollo de soluciones Big
Data.
• SQL: El papel del SQL en la gestión de bases de datos estructuradas en Big
Data.
• Python: Uso de Python en análisis y procesamiento de datos.
• Comprensión de los procesos ETL (Extracción, Transformación y Carga)
• Herramientas como Flume, Sqoop y HIVE: Cómo se gestionan y transforman
grandes volúmenes de datos.
• Introducción a las mejores prácticas y herramientas en los procesos ETL.
Habilidades de gestión, personales y sociales
• Reconocimiento de la importancia de implantar políticas de seguridad en
relación con la protección de los datos en entornos distribuidos.
• Adaptabilidad al trabajar con diferentes herramientas de procesamiento de
datos, el participante debe ser capaz de adaptarse rápidamente a cambios en los
requerimientos del proyecto o a la incorporación de nuevas tecnologías.
• Adquisición del concepto real time y bases de datos de alta disponibilidad
• Kafka, HBASE y Redis: Principales tecnologías utilizadas para bases de datos
en tiempo real y de alta disponibilidad.
• Concienciación con la seguridad y gobernanza del dato
• Importancia de la seguridad en Big Data: Cómo proteger los datos en
entornos distribuidos.
• Gobernanza de datos: Gestión de la calidad y el acceso a los datos en Big
Data
Habilidades de gestión, personales y sociales
• Reconocimiento de la importancia de implantar políticas de seguridad en
relación con la protección de los datos en entornos distribuidos.
• Adaptabilidad al trabajar con diferentes herramientas de procesamiento de
datos, el participante debe ser capaz de adaptarse rápidamente a cambios en los
requerimientos del proyecto o a la incorporación de nuevas tecnologías.

MÓDULO DE FORMACIÓN 3: Ciencia de datos e inteligencia artificial

Conocimientos / Capacidades cognitivas y prácticas
• Asimilación de conceptos sobre la Ciencia de Datos y la IA
• Conceptos clave de la Ciencia de Datos: Qué es y cómo se aplica Big Data
en la ciencia de datos.
• Relación entre Big Data e Inteligencia Artificial: Cómo se interrelacionan y se
complementan en el análisis de datos.
• Conocimento de los lenguajes de programación en Ciencia de Datos
• R y Python: Herramientas clave en el análisis de datos, exploración y
procesamiento.
• Comprensión de los algoritmos Supervisados
• Qué son los algoritmos supervisados: Principales tipos de algoritmos y su
aplicación en clasificación y predicción.
• Algoritmos como regresión lineal, máquinas de soporte vectorial (SVM), y
redes neuronales.
• Comprensión de los algoritmos No-Supervisados
Habilidades de gestión, personales y sociales
• Fomento del pensamiento crítico al analizar datos y preparar visualizaciones,
identificando patrones y anomalías que pueden no ser evidentes a primera vista y
considerando la mejor manera de presentar esos hallazgos.
• Utilización de recursos creativos en el diseño de visualizaciones de datos para
presentar la información de forma atractiva y clara, facilitando la comprensión por
parte de las partes interesadas.
• Qué son los algoritmos no-supervisados: Principales técnicas y aplicaciones.
• K-means, análisis de componentes principales (PCA), y otros métodos de
clustering.
• Asimilación del funcionamiento del Deep Learning y Aprendizaje

MÓDULO DE FORMACIÓN 4: Aplicaciones del Big Data e impacto futuro

Conocimientos / Capacidades cognitivas y prácticas
• Reconocimiento de las aplicaciones del Big Data en el sector público
• OpenData: Ejemplos de aplicación del Big Data en instituciones públicas
para la transparencia y eficiencia.
• Casos de uso en gestión pública: Impacto en políticas públicas, educación y
salud.
• Reconocimiento de las aplicaciones empresariales de Big Data
• Casos de uso en la mejora de eficiencia operativa dentro de empresas.
• Aplicaciones en marketing, logística, predicción de demanda y
personalización.
• Comprensión del alcance del“Data for Good”: Big Data para el Bien Social
• Cómo Big Data se utiliza para fines sociales: Proyectos que ayudan a la
comunidad, el medio ambiente y el desarrollo económico.
• Ejemplos de aplicaciones de Big Data en la mejora de la salud pública y la
educación.
• Reflexión sobre el Futuro del Big Data
• Nuevas tendencias emergentes: IA, procesamiento de datos en la nube, y
más.
• Predicciones sobre cómo evolucionarán las tecnologías de Big Data e IA en
los próximos años.
• Aplicación de medidas de eficiencia energética y sostenibilidad ambiental
• Estrategias para reducir la huella de carbono en la operación de sistemas de
Big Data.
• Optimización de recursos en la nube para reducir el consumo energético.
Habilidades de gestión, personales y sociales
• Fomento de la escucha activa al interactuar con profesionales de distintos
ámbitos durante el análisis del impacto de Big Data.
• Identificación de las implicaciones ambientales de las actividades de análisis
de datos, concretamente el consumo energético inherente a su despliegue.

Metodología

La formación se realiza 100 % online a través de nuestro campus virtual, en modalidad asíncrona, lo que permite al alumnado organizar sus tiempos de estudio dentro de los plazos establecidos.
Sesiones de tutoría
El alumnado dispone de un/a tutor/a online al que puede consultar dudas a través de la mensajería interna de la plataforma, correo electrónico y/o foros de consulta, recibiendo respuesta y acompañamiento durante todo el curso.
Sistema de evaluación
La evaluación es continua y se realiza íntegramente online mediante cuestionarios, actividades prácticas y pruebas de evaluación al finalizar los temas o unidades. No se realizan exámenes presenciales.
Requisitos técnicos
Es necesario disponer de ordenador, tablet (o incluso teléfono móvil), con navegador actualizado, conexión a internet estable y, recomendable, auriculares o altavoces para el seguimiento de los contenidos.
Material didáctico y recursos
Todo el material didáctico está disponible en la plataforma online (temarios, recursos descargables, actividades, vídeos, enlaces de interés, etc.), accesible en cualquier momento dentro del periodo de impartición.

Salidas profesionales

Matemáticos
Técnicos Medios En Ciencias Matemáticas
Estadísticos
Técnicos Medios En Estadística Y/O Cálculo Numérico
Científicos De Datos (Big Data)
Técnicos En Estadística

Introducción al Big Data e IA (IFCT159)

El curso Introducción al Big Data e IA (IFCT159) (40 horas) te ofrece una visión completa y actual para entender cómo el dato se ha convertido en motor de decisión en empresas y organizaciones, y cómo se conecta con la ciencia de datos y la inteligencia artificial.

Empezarás comprendiendo la evolución del Business Intelligence al Big Data, las famosas 4V’s (volumen, velocidad, variedad y veracidad) y el valor de la calidad del dato, además de cómo la nube y el procesamiento en tiempo real abren nuevas posibilidades.

Después entrarás en la arquitectura y tecnologías más representativas del ecosistema (Hadoop, HDFS y MapReduce), los lenguajes habituales (Java, Scala, SQL y Python) y los procesos ETL con herramientas como Flume, Sqoop, Hive, incorporando conceptos de real time y alta disponibilidad (Kafka, HBase, Redis) junto con la importancia de la seguridad y la gobernanza del dato. También trabajarás la relación entre Big Data y ciencia de datos e IA, con lenguajes como R y Python y una introducción a algoritmos supervisados y no supervisados (regresión, SVM, redes neuronales, k-means, PCA), incluyendo bases de deep learning y el enfoque crítico para analizar y visualizar hallazgos.

Por último, verás aplicaciones reales en sector público y empresa (marketing, logística, predicción, personalización), el enfoque “Data for Good” y una reflexión sobre tendencias futuras, sostenibilidad y eficiencia energética en el despliegue de soluciones basadas en datos.

Si este curso no estuviera subvencionado te costaría: 200 €

Subvencionado por 

Compartir en

Solicitar información:

[datalist_productos]
Quick Navigation
×
Hemos recibido tu formulario correctamente

Nos pondremos en contacto contigo en breves.

¡Gracias por confiar en nuestra formación!