Objetivos
Conocer en profundidad los diferentes paradigmas de procesamiento en sistemas Big Data y dominar las principales tecnologías y su utilización para el diseño de arquitecturas escalables adaptadas a cada proyecto.
Programa
Unidad 1: BATCH PROCESSING.
- Hadoop.
- Pig.
- Hive.
- Sqoop.
- Flume.
- Spark Core.
- Spark 2.0.
Unidad 2: STREAMING PROCESSING.
- Fundamentos de Streaming Processing.
- Spark Streaming.
- Kafka.
- Pulsar y Apache Apex.
- Implementación de un sistema real-time.
Unidad 3: SISTEMAS NOSQL.
- Hbase.
- Cassandra.
- MongoDB.
- Neo4J.
- Redis.
- Berkeley DB.
Unidad 4: INTERACTIVE QUERY.
- Lucene + Solr.
Unidad 5: SISTEMAS DE COMPUTACIÓN HÍBRIDOS.
- Arquitectura Lambda.
- Arquitectura Kappa.
- Apache Flink e implementaciones prácticas.
- Druid.
- ElasticSearch.
- Logstash.
- Kibana
Unidad 6: CLOUD COMPUTING.
- Amazon Web Services.
- Google Cloud Platform.
Unidad 7: ADMINISTRACIÓN DE SISTEMAS BIG.
- Administración e Instalación de clusters: Cloudera y Hortonworks.
- Optimización y monitorización de servicios.
- Seguridad: Apache Knox, Ranger y Sentry.
Unidad 8: VISUALIZACIÓN DE DATOS.
- Herramientas de visualización: Tableau y CartoDB.
- Librerías de Visualización: D3, Leaflet, Cytoscape.
Solicita más información sin compromiso
Cuando recibamos tu solicitud nos pondremos en contacto contigo
Formación 100% bonificable
Con el envío de este formulario aceptas recibir información periódica de la Fundación Confemetal










