Cursos de Procesamiento de flujo

Cursos de Procesamiento de flujo

Los cursos de capacitación locales, dirigidos por instructores en vivo, demuestran a través de la discusión interactiva y práctica los fundamentos y temas avanzados del procesamiento de secuencias.

El entrenamiento de procesamiento de secuencias está disponible como "entrenamiento en vivo en el sitio" o "entrenamiento remoto en vivo". El entrenamiento en vivo se puede realizar localmente en las instalaciones del cliente en Peru o en los centros de entrenamiento corporativos de NobleProg en Peru. El entrenamiento remoto en vivo se lleva a cabo por medio de un escritorio remoto interactivo.

NobleProg--su proveedor de capacitación local

Machine Translated

Testimonios

★★★★★
★★★★★

Algunos de nuestros clientes

Programas de los cursos Procesamiento de flujo

Nombre del Curso
Duración
Descripción General
Nombre del Curso
Duración
Descripción General
14 horas
Descripción General
Apache Samza es un marco computacional asíncrono de código abierto casi en tiempo real para el procesamiento de flujos. Utiliza Apache Kafka para mensajería y Apache Hadoop YARN para tolerancia a fallas, aislamiento de procesador, seguridad y administración de recursos.

Esta capacitación en vivo dirigida por un instructor presenta los principios detrás de los sistemas de mensajería y el procesamiento distribuido de flujo, mientras acompaña a los participantes a través de la creación de un proyecto basado en Samza y la ejecución de trabajos.

Al final de esta capacitación, los participantes podrán:

Usa Samza para simplificar el código necesario para producir y consumir mensajes
Desacoplar el manejo de los mensajes de una aplicación
Utilice Samza para implementar cálculos asincrónicos casi en tiempo real
Utilice el procesamiento de flujo para proporcionar un mayor nivel de abstracción en los sistemas de mensajería

Audiencia

- Desarrolladores

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
Tigon es un marco de procesamiento de flujo de fuente abierta, en tiempo real, de baja latencia y alto rendimiento, nativo, que se asienta sobre HDFS y HBase para la persistencia. Las aplicaciones de Tigon abordan casos de uso tales como detección y análisis de intrusiones de red, análisis de mercado de redes sociales, análisis de ubicación y recomendaciones en tiempo real para los usuarios.

Este curso presencial, dirigido por un instructor, presenta el enfoque de Tigon para combinar el procesamiento en tiempo real y por lotes a medida que guía a los participantes a través de la creación de una aplicación de muestra.

Al final de esta capacitación, los participantes podrán:

- Cree aplicaciones potentes de procesamiento de flujo para manejar grandes volúmenes de datos
- Fuentes de flujo de procesos como Twitter y registros de servidor web
- Utilice Tigon para unir, filtrar y agregar secuencias rápidamente

Audiencia

- Desarrolladores

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
7 horas
Descripción General
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los conceptos básicos detrás de MapR Stream Architecture mientras desarrollan una aplicación de transmisión en tiempo real.

Al final de esta capacitación, los participantes podrán construir aplicaciones para productores y consumidores para el procesamiento de datos de flujo en tiempo real.

Audiencia

- Desarrolladores
- Administradores

Formato de la carrera

- Parte de lectura, parte de discusión, ejercicios y práctica práctica

Nota

- Para solicitar un entrenamiento personalizado para esta carrera, contáctenos para organizarlo.
7 horas
Descripción General
Kafka Streams es una biblioteca del lado del cliente para la creación de aplicaciones y microservicios cuyos datos se transmiten desde y hacia un sistema de mensajería Kafka. Tradicionalmente, Apache Kafka ha confiado en Apache Spark o Apache Storm para procesar datos entre productores de mensajes y consumidores. Al llamar a Kafka Streams API desde dentro de una aplicación, los datos se pueden procesar directamente dentro de Kafka, pasando por alto la necesidad de enviar los datos a un clúster separado para su procesamiento.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo integrar Kafka Streams en un conjunto de aplicaciones Java de muestra que pasan datos desde y hacia Apache Kafka para el procesamiento de flujo.

Al final de esta capacitación, los participantes podrán:

- Comprenda las características y ventajas de Kafka Streams frente a otros marcos de procesamiento de flujos
- Procesar datos de flujo directamente dentro de un clúster de Kafka
- Escriba una aplicación Java o Scala o microservicio que se integre con Kafka y Kafka Streams
- Escribe un código conciso que transforme los temas de entrada de Kafka en temas de salida de Kafka
- Construye, empaqueta y despliega la aplicación

Audiencia

- Desarrolladores

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica

Notas

- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
21 horas
Descripción General
El procesamiento de flujo se refiere al procesamiento en tiempo real de "datos en movimiento", es decir, realizar cálculos sobre datos a medida que se reciben. Dichos datos se leen como flujos continuos de fuentes de datos tales como eventos de sensores, actividad de usuarios de sitios web, transacciones financieras, transferencias de tarjetas de crédito, transmisiones de clics, etc. Los marcos de procesamiento de flujos pueden leer grandes volúmenes de datos entrantes y proporcionar información valiosa casi instantáneamente.

En este entrenamiento en vivo dirigido por un instructor (in situ o remoto), los participantes aprenderán cómo configurar e integrar diferentes marcos de Procesamiento de Stream con los sistemas de almacenamiento de big data existentes y aplicaciones de software y microservicios relacionados.

Al final de esta capacitación, los participantes podrán:

- Instale y configure diferentes marcos de procesamiento de flujo, como Spark Streaming y Kafka Streaming
- Comprender y seleccionar el marco más adecuado para el trabajo
- Proceso de datos de forma continua, concurrente y de forma récord por registro
- Integre soluciones de procesamiento de flujo con bases de datos existentes, almacenes de datos, lagos de datos, etc.
- Integración de la biblioteca de procesamiento de flujo más apropiada con aplicaciones empresariales y microservicios

Audiencia

- Desarrolladores
- Arquitectos de software

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica

Notas

- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
14 horas
Descripción General
This instructor-led, live training (online or onsite) is aimed at engineers who wish to use Confluent (a distribution of Kafka) to build and manage a real-time data processing platform for their applications.

By the end of this training, participants will be able to:

- Install and configure Confluent Platform.
- Use Confluent's management tools and services to run Kafka more easily.
- Store and process incoming stream data.
- Optimize and manage Kafka clusters.
- Secure data streams.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- This course is based on the open source version of Confluent: Confluent Open Source.
- To request a customized training for this course, please contact us to arrange.
7 horas
Descripción General
This instructor-led, live training in Peru (online or onsite) is aimed at data engineers, data scientists, and programmers who wish to use Apache Kafka features in data streaming with Python.

By the end of this training, participants will be able to use Apache Kafka to monitor and manage conditions in continuous data streams using Python programming.
28 horas
Descripción General
This instructor-led, live training in Peru introduces the principles and approaches behind distributed stream and batch data processing, and walks participants through the creation of a real-time, data streaming application in Apache Flink.
21 horas
Descripción General
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a implementar y administrar Apache NiFi en un entorno de laboratorio en vivo.

Al final de esta capacitación, los participantes podrán:

- Instalar y configurar Apachi NiFi
- Fuente, transformar y gestionar datos de fuentes de datos dispersas y distribuidas, incluidas bases de datos y lagos de datos grandes.
- Automatice los flujos de datos
- Habilitar análisis de transmisión
- Aplicar varios enfoques para la ingestión de datos
- Transformar Big Data y en conocimientos empresariales

Audiencia

- Administradores del sistema
- Ingenieros de datos
- Desarrolladores
- DevOps

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
7 horas
Descripción General
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de la programación basada en flujo a medida que desarrollan una cantidad de extensiones de demostración, componentes y procesadores que usan Apache NiFi.

Al final de esta capacitación, los participantes podrán:

- Comprender los conceptos de arquitectura y flujo de datos de NiFi
- Desarrollar extensiones utilizando NiFi y API de terceros
- Desarrolla a medida su propio procesador Apache Nifi
- Ingerir y procesar datos en tiempo real de formatos de archivo dispares y poco comunes y fuentes de datos

Audiencia

- Desarrolladores
- Ingenieros de datos

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
28 horas
Descripción General
Apache Storm es un motor de computación distribuido en tiempo real que se utiliza para habilitar la inteligencia empresarial en tiempo real. Lo hace al permitir que las aplicaciones procesen de forma confiable flujos de datos ilimitados (a.k.a. procesamiento de flujo).

"Storm es para procesar en tiempo real lo que Hadoop es para el procesamiento por lotes".

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo instalar y configurar Apache Storm, luego desarrollarán e implementarán una aplicación Apache Storm para procesar Big Data en tiempo real.

Algunos de los temas incluidos en esta capacitación incluyen:

- Apache Storm en el contexto de Hadoop
- Trabajando con datos ilimitados
- Cálculo continuo
- Análisis en tiempo real
- Procesamiento distribuido de RPC y ETL

¡Solicite este curso ahora!

Audiencia

- Desarrolladores de software y ETL
- Profesionales de mainframe
- Científicos de datos
- Analistas de Big Data
- Profesionales de Hadoop

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
21 horas
Descripción General
Apache Apex es una plataforma nativa de YARN que unifica la transmisión y el procesamiento por lotes. Procesa big data-in-motion de una manera que es escalable, de rendimiento, tolerante a fallas, con estado, seguro, distribuido y de fácil operación.

Este curso en vivo dirigido por un instructor presenta la arquitectura de procesamiento de flujo unificado de Apache Apex y guía a los participantes a través de la creación de una aplicación distribuida usando Apex en Hadoop.

Al final de esta capacitación, los participantes podrán:

- Comprender los conceptos de canalización de procesamiento de datos, como conectores para fuentes y sumideros, transformaciones de datos comunes, etc.
- Cree, escale y optimice una aplicación Apex
- Procesar flujos de datos en tiempo real de manera confiable y con mínima latencia
- Utilice Apex Core y la biblioteca Apex Malhar para permitir el desarrollo rápido de aplicaciones
- Use la API Apex para escribir y reutilizar el código Java existente
- Integra Apex en otras aplicaciones como un motor de procesamiento
- Sintonizar, probar y escalar aplicaciones Apex

Audiencia

- Desarrolladores
- Arquitectos empresariales

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
Apache Beam is an open source, unified programming model for defining and executing parallel data processing pipelines. It's power lies in its ability to run both batch and streaming pipelines, with execution being carried out by one of Beam's supported distributed processing back-ends: Apache Apex, Apache Flink, Apache Spark, and Google Cloud Dataflow. Apache Beam is useful for ETL (Extract, Transform, and Load) tasks such as moving data between different storage media and data sources, transforming data into a more desirable format, and loading data onto a new system.

In this instructor-led, live training (onsite or remote), participants will learn how to implement the Apache Beam SDKs in a Java or Python application that defines a data processing pipeline for decomposing a big data set into smaller chunks for independent, parallel processing.

By the end of this training, participants will be able to:

- Install and configure Apache Beam.
- Use a single programming model to carry out both batch and stream processing from withing their Java or Python application.
- Execute pipelines across multiple environments.

Format of the Course

- Part lecture, part discussion, exercises and heavy hands-on practice

Note

- This course will be available Scala in the future. Please contact us to arrange.
14 horas
Descripción General
Apache Ignite es una plataforma informática en memoria que se encuentra entre la aplicación y la capacidad de datos para mejorar la velocidad, la escala y la disponibilidad.

En este entrenamiento en vivo dirigido por un instructor, los participantes aprendieron los principios detrás del almacenamiento persistente y puro en la memoria a medida que avanzan en la creación de un proyecto de ejemplo de computación en memoria.

Al final de esta capacitación, los participantes podrán:

- Utilice Ignite para la memoria en la memoria, la persistencia en disco y una base de datos en memoria puramente distribuida
- Logre la persistencia sin sincronizar los datos a una base de datos relacionales
- Use Ignite para llevar a cabo SQL y Uniones Distribuidas
- Mejore el rendimiento moviendo los datos más cerca de la CPU, usando la RAM como almacenamiento
- Extienda conjuntos de datos en un clúster para lograr la escalabilidad horizontal
- Integre Ignite con RDBMS, NoSQL, Hadoop y procesadores de aprendizaje automático

Audiencia

- Desarrolladores

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
7 horas
Descripción General
This instructor-led, live training in Peru (online or onsite) is aimed at developers who wish to implement Apache Kafka stream processing without writing code.

By the end of this training, participants will be able to:

- Install and configure Confluent KSQL.
- Set up a stream processing pipeline using only SQL commands (no Java or Python coding).
- Carry out data filtering, transformations, aggregations, joins, windowing, and sessionization entirely in SQL.
- Design and deploy interactive, continuous queries for streaming ETL and real-time analytics.
7 horas
Descripción General
This instructor-led, live training in Peru (online or onsite) is aimed at data engineers, data scientists, and programmers who wish to use Spark Streaming features in processing and analyzing real-time data.

By the end of this training, participants will be able to use Spark Streaming to process live data streams for use in databases, filesystems, and live dashboards.

Próximos Cursos Procesamiento de flujo

Cursos de Fin de Semana de Procesamiento de flujo, Capacitación por la Tarde de Procesamiento de flujo, Procesamiento de flujo boot camp, Clases de Procesamiento de flujo, Capacitación de Fin de Semana de Procesamiento de flujo, Cursos por la Tarde de Procesamiento de flujo, Procesamiento de flujo coaching, Instructor de Procesamiento de flujo, Capacitador de Procesamiento de flujo, Procesamiento de flujo con instructor, Cursos de Formación de Procesamiento de flujo, Procesamiento de flujo en sitio, Cursos Privados de Procesamiento de flujo, Clases Particulares de Procesamiento de flujo, Capacitación empresarial de Procesamiento de flujo, Talleres para empresas de Procesamiento de flujo, Cursos en linea de Procesamiento de flujo, Programas de capacitación de Procesamiento de flujo, Clases de Procesamiento de flujo

Promociones

Descuentos en los Cursos

Respetamos la privacidad de su dirección de correo electrónico. No transmitiremos ni venderemos su dirección a otras personas.
En cualquier momento puede cambiar sus preferencias o cancelar su suscripción por completo.

is growing fast!

We are looking to expand our presence in Peru!

As a Business Development Manager you will:

  • expand business in Peru
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!

Este sitio en otros países / regiones