
Los cursos de capacitación locales, dirigidos por instructores en vivo, demuestran a través de la discusión interactiva y práctica los fundamentos y temas avanzados del procesamiento de secuencias.
El entrenamiento de procesamiento de secuencias está disponible como "entrenamiento en vivo en el sitio" o "entrenamiento remoto en vivo". El entrenamiento en vivo se puede realizar localmente en las instalaciones del cliente en Peru o en los centros de entrenamiento corporativos de NobleProg en Peru. El entrenamiento remoto en vivo se lleva a cabo por medio de un escritorio remoto interactivo.
NobleProg--su proveedor de capacitación local
Machine Translated
Testimonios
Disfruté del buen equilibrio entre la teoría y los laboratorios prácticos.
N. V. Nederlandse Spoorwegen
Curso: Apache Ignite: Improve Speed, Scale and Availability with In-Memory Computing
Machine Translated
En general me beneficié de la mayor comprensión de Ignite ..
N. V. Nederlandse Spoorwegen
Curso: Apache Ignite: Improve Speed, Scale and Availability with In-Memory Computing
Machine Translated
Me gustaron sobre todo las buenas conferencias.
N. V. Nederlandse Spoorwegen
Curso: Apache Ignite: Improve Speed, Scale and Availability with In-Memory Computing
Machine Translated
Recordando/revisando los puntos clave de los temas discutidos.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Curso: Building Stream Processing Applications with Kafka Streams
Machine Translated
Temas de entrenamiento y participación del entrenador
Izba Administracji Skarbowej w Lublinie
Curso: Apache NiFi for Administrators
Machine Translated
Comunicación con personas que asisten a la formación.
Andrzej Szewczuk - Izba Administracji Skarbowej w Lublinie
Curso: Apache NiFi for Administrators
Machine Translated
-
Roxane Santiago - SMS Global Technologies Inc.
Curso: Building Stream Processing Applications with Kafka Streams
Machine Translated
utilidad de los ejercicios
Algomine sp.z.o.o sp.k.
Curso: Apache NiFi for Administrators
Machine Translated
Realmente disfruté el entrenamiento. Anton tiene mucho conocimiento y expuso la teoría necesaria de una manera muy accesible. Es genial que el entrenamiento haya sido una gran cantidad de ejercicios interesantes, por lo que hemos estado en contacto con la tecnología que conocemos desde el principio.
Szymon Dybczak - Algomine sp.z.o.o sp.k.
Curso: Apache NiFi for Administrators
Machine Translated
Los ejercicios de laboratorio. Aplicando la teoría desde el primer día en los días siguientes.
Dell
Curso: A Practical Introduction to Stream Processing
Machine Translated
Realmente me gustaron los ejercicios de trabajo con clúster para ver el rendimiento de los nodos en el clúster y la funcionalidad extendida.
CACI Ltd
Curso: Apache NiFi for Developers
Machine Translated
Ajay era un consultor muy experimentado y pudo responder a todas nuestras preguntas e incluso hizo sugerencias sobre las mejores prácticas para el proyecto en el que estamos comprometidos actualmente.
CACI Ltd
Curso: Apache NiFi for Administrators
Machine Translated
Algunos de nuestros clientes


















































Procesamiento de flujo Subcategorías
Programas de los cursos Procesamiento de flujo
Esta capacitación en vivo dirigida por un instructor presenta los principios detrás de los sistemas de mensajería y el procesamiento distribuido de flujo, mientras acompaña a los participantes a través de la creación de un proyecto basado en Samza y la ejecución de trabajos.
Al final de esta capacitación, los participantes podrán:
Usa Samza para simplificar el código necesario para producir y consumir mensajes
Desacoplar el manejo de los mensajes de una aplicación
Utilice Samza para implementar cálculos asincrónicos casi en tiempo real
Utilice el procesamiento de flujo para proporcionar un mayor nivel de abstracción en los sistemas de mensajería
Audiencia
- Desarrolladores
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Este curso presencial, dirigido por un instructor, presenta el enfoque de Tigon para combinar el procesamiento en tiempo real y por lotes a medida que guía a los participantes a través de la creación de una aplicación de muestra.
Al final de esta capacitación, los participantes podrán:
- Cree aplicaciones potentes de procesamiento de flujo para manejar grandes volúmenes de datos
- Fuentes de flujo de procesos como Twitter y registros de servidor web
- Utilice Tigon para unir, filtrar y agregar secuencias rápidamente
Audiencia
- Desarrolladores
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Al final de esta capacitación, los participantes podrán construir aplicaciones para productores y consumidores para el procesamiento de datos de flujo en tiempo real.
Audiencia
- Desarrolladores
- Administradores
Formato de la carrera
- Parte de lectura, parte de discusión, ejercicios y práctica práctica
Nota
- Para solicitar un entrenamiento personalizado para esta carrera, contáctenos para organizarlo.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo integrar Kafka Streams en un conjunto de aplicaciones Java de muestra que pasan datos desde y hacia Apache Kafka para el procesamiento de flujo.
Al final de esta capacitación, los participantes podrán:
- Comprenda las características y ventajas de Kafka Streams frente a otros marcos de procesamiento de flujos
- Procesar datos de flujo directamente dentro de un clúster de Kafka
- Escriba una aplicación Java o Scala o microservicio que se integre con Kafka y Kafka Streams
- Escribe un código conciso que transforme los temas de entrada de Kafka en temas de salida de Kafka
- Construye, empaqueta y despliega la aplicación
Audiencia
- Desarrolladores
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Notas
- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
En este entrenamiento en vivo dirigido por un instructor (in situ o remoto), los participantes aprenderán cómo configurar e integrar diferentes marcos de Procesamiento de Stream con los sistemas de almacenamiento de big data existentes y aplicaciones de software y microservicios relacionados.
Al final de esta capacitación, los participantes podrán:
- Instale y configure diferentes marcos de procesamiento de flujo, como Spark Streaming y Kafka Streaming
- Comprender y seleccionar el marco más adecuado para el trabajo
- Proceso de datos de forma continua, concurrente y de forma récord por registro
- Integre soluciones de procesamiento de flujo con bases de datos existentes, almacenes de datos, lagos de datos, etc.
- Integración de la biblioteca de procesamiento de flujo más apropiada con aplicaciones empresariales y microservicios
Audiencia
- Desarrolladores
- Arquitectos de software
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Notas
- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
al final de esta formación, los participantes podrán:
- instalar y configurar la plataforma Confluent.
- use herramientas y servicios de administración de Confluent & #39; s para ejecutar Kafka más fácilmente.
- Store y procese los datos de la secuencia entrante.
- optimice y administre clústeres de Kafka.
flujos de datos - Secure.
Format del curso
Conferencia y discusión - Interactive.
- muchos ejercicios y prácticas.
implementación práctica de - en un entorno de laboratorio en vivo.
Opciones de personalización de
Course
- este curso se basa en la versión de código abierto de Confluent: fuente abierta Confluent.
- para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para organizar.
Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a ingenieros de datos, científicos de datos y programadores que desean utilizar Apache Kafka características en streaming de datos con Python.
Al final de este entrenamiento, los participantes podrán utilizar Apache Kafka para monitorear y gestionar las condiciones en flujos de datos continuos utilizando Python programación.
Formato del curso
Lecciones y discusiones interactivas. Muchos ejercicios y prácticas. Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a implementar y administrar Apache NiFi en un entorno de laboratorio en vivo.
Al final de esta capacitación, los participantes podrán:
- Instalar y configurar Apachi NiFi
- Fuente, transformar y gestionar datos de fuentes de datos dispersas y distribuidas, incluidas bases de datos y lagos de datos grandes.
- Automatice los flujos de datos
- Habilitar análisis de transmisión
- Aplicar varios enfoques para la ingestión de datos
- Transformar Big Data y en conocimientos empresariales
Audiencia
- Administradores del sistema
- Ingenieros de datos
- Desarrolladores
- DevOps
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de la programación basada en flujo a medida que desarrollan una cantidad de extensiones de demostración, componentes y procesadores que usan Apache NiFi.
Al final de esta capacitación, los participantes podrán:
- Comprender los conceptos de arquitectura y flujo de datos de NiFi
- Desarrollar extensiones utilizando NiFi y API de terceros
- Desarrolla a medida su propio procesador Apache Nifi
- Ingerir y procesar datos en tiempo real de formatos de archivo dispares y poco comunes y fuentes de datos
Audiencia
- Desarrolladores
- Ingenieros de datos
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
"Storm es para procesar en tiempo real lo que Hadoop es para el procesamiento por lotes".
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo instalar y configurar Apache Storm, luego desarrollarán e implementarán una aplicación Apache Storm para procesar Big Data en tiempo real.
Algunos de los temas incluidos en esta capacitación incluyen:
- Apache Storm en el contexto de Hadoop
- Trabajando con datos ilimitados
- Cálculo continuo
- Análisis en tiempo real
- Procesamiento distribuido de RPC y ETL
¡Solicite este curso ahora!
Audiencia
- Desarrolladores de software y ETL
- Profesionales de mainframe
- Científicos de datos
- Analistas de Big Data
- Profesionales de Hadoop
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Este curso en vivo dirigido por un instructor presenta la arquitectura de procesamiento de flujo unificado de Apache Apex y guía a los participantes a través de la creación de una aplicación distribuida usando Apex en Hadoop.
Al final de esta capacitación, los participantes podrán:
- Comprender los conceptos de canalización de procesamiento de datos, como conectores para fuentes y sumideros, transformaciones de datos comunes, etc.
- Cree, escale y optimice una aplicación Apex
- Procesar flujos de datos en tiempo real de manera confiable y con mínima latencia
- Utilice Apex Core y la biblioteca Apex Malhar para permitir el desarrollo rápido de aplicaciones
- Use la API Apex para escribir y reutilizar el código Java existente
- Integra Apex en otras aplicaciones como un motor de procesamiento
- Sintonizar, probar y escalar aplicaciones Apex
Audiencia
- Desarrolladores
- Arquitectos empresariales
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
En este entrenamiento en vivo dirigido por un instructor, los participantes aprendieron los principios detrás del almacenamiento persistente y puro en la memoria a medida que avanzan en la creación de un proyecto de ejemplo de computación en memoria.
Al final de esta capacitación, los participantes podrán:
- Utilice Ignite para la memoria en la memoria, la persistencia en disco y una base de datos en memoria puramente distribuida
- Logre la persistencia sin sincronizar los datos a una base de datos relacionales
- Use Ignite para llevar a cabo SQL y Uniones Distribuidas
- Mejore el rendimiento moviendo los datos más cerca de la CPU, usando la RAM como almacenamiento
- Extienda conjuntos de datos en un clúster para lograr la escalabilidad horizontal
- Integre Ignite con RDBMS, NoSQL, Hadoop y procesadores de aprendizaje automático
Audiencia
- Desarrolladores
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
By the end of this training, participants will be able to:
- Install and configure Confluent KSQL.
- Set up a stream processing pipeline using only SQL commands (no Java or Python coding).
- Carry out data filtering, transformations, aggregations, joins, windowing, and sessionization entirely in SQL.
- Design and deploy interactive, continuous queries for streaming ETL and real-time analytics.
Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a ingenieros de datos, científicos de datos y programadores que desean utilizar Spark Streaming características en el procesamiento y análisis de datos en tiempo real.
Al final de este entrenamiento, los participantes podrán utilizar Spark Streaming para procesar los flujos de datos en vivo para su uso en bases de datos, sistemas de archivos y dashboards en vivo.
Formato del curso
Lecciones y discusiones interactivas. Muchos ejercicios y prácticas. Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
Last Updated: