
Big Data es un término que se refiere a soluciones destinadas a almacenar y procesar grandes conjuntos de datos. Desarrollado inicialmente por Google, estas soluciones han evolucionado e inspirado otros proyectos, de los cuales muchos están disponibles como código abierto. Según los informes de Gartner, Big Data es el próximo gran paso en TI justo después del Cloud Computing y será una tendencia líder en los próximos años.
Los cursos locales dirigidos por instructor en vivo de capacitación en Big Data comienzan con una introducción a conceptos elementales, luego avanzan hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de Datos. Las herramientas y la infraestructura para habilitar el almacenamiento de Big Data, el Procesamiento Distribuido y la Escalabilidad se discuten, comparan e implementan en sesiones demostrativas de práctica. La capacitación en Big Data está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en Peru o en los centros de capacitación corporativa de NobleProg en Peru, la segunda se lleva a cabo a través de un escritorio remoto interactivo.
NobleProg -- The World's Local Trainer Provider
Testimonios
La capacitacidad de la herramienta
Gerardo Avila - Reckitt Benckizer
Curso: KNIME Analytics Platform for BI
APRENDIZAJE DE UNA HERRAMIENTA NUEVA
MARIA ELENA DOMINGUEZ ESCUDERO - Reckitt Benckizer
Curso: KNIME Analytics Platform for BI
El hecho de que todos los datos y el software estaban listos para usar en una máquina virtual ya preparada, proporcionada por el capacitador en discos externos.
vyzVoice
Curso: Hadoop for Developers and Administrators
Machine Translated
rango de material
Maciej Jonczyk
Curso: From Data to Decision with Big Data and Predictive Analytics
Machine Translated
sistematizar el conocimiento en el campo de ML
Orange Polska
Curso: From Data to Decision with Big Data and Predictive Analytics
Machine Translated
Una gran cantidad de problemas que pueden ser explorados después del entrenamiento
Klaudia Kłębek
Curso: Data Mining z wykorzystaniem R
Machine Translated
El capacitador estaba tan bien informado e incluyó áreas en las que estaba interesado.
Mohamed Salama
Curso: Data Mining & Machine Learning with R
Machine Translated
Muy adaptado a las necesidades.
Yashan Wang
Curso: Data Mining with R
Machine Translated
Richard es muy tranquilo y metódico, con una visión analítica, exactamente las cualidades necesarias para presentar este tipo de curso.
Kieran Mac Kenna
Curso: Spark for Developers
Machine Translated
Me gustan los ejercicios realizados.
Nour Assaf
Curso: Data Mining and Analysis
Machine Translated
El ejercicio práctico y la capacidad del entrenador para explicar temas complejos en términos simples.
youssef chamoun
Curso: Data Mining and Analysis
Machine Translated
La información brindada fue interesante y la mejor parte fue hacia el final cuando recibimos datos de Durex y trabajamos en datos con los que estamos familiarizados y realizamos operaciones para obtener resultados.
Jessica Chaar
Curso: Data Mining and Analysis
Machine Translated
En general, me gustó que el entrenador diera ejemplos en vivo.
Simon Hahn
Curso: Administrator Training for Apache Hadoop
Machine Translated
Realmente disfruté de las grandes competencias de Trainer.
Grzegorz Gorski
Curso: Administrator Training for Apache Hadoop
Machine Translated
Realmente disfruté las muchas sesiones prácticas.
Jacek Pieczątka
Curso: Administrator Training for Apache Hadoop
Machine Translated
compartir diagrama conceptual y también muestra para manos sucias
Mark Yang - FMR
Curso: Spark for Developers
Machine Translated
Pensé que la información era interesante.
Allison May
Curso: Data Visualization
Machine Translated
Realmente aprecié que Jeff utilizara datos y ejemplos que fueran aplicables a los datos educativos. Lo hizo interesante e interactivo.
Carol Wells Bazzichi
Curso: Data Visualization
Machine Translated
Aprender sobre todos los tipos de gráficos y para qué se utilizan. Aprendiendo el valor del desorden. Aprendiendo sobre los métodos para mostrar datos de tiempo.
Susan Williams
Curso: Data Visualization
Machine Translated
Entrenador estaba entusiasmado.
Diane Lucas
Curso: Data Visualization
Machine Translated
Me gustó mucho el contenido / Instructor.
Craig Roberson
Curso: Data Visualization
Machine Translated
Soy un aprendiz práctico y esto fue algo que hizo mucho.
Lisa Comfort
Curso: Data Visualization
Machine Translated
Me gustaron los ejemplos.
Peter Coleman
Curso: Data Visualization
Machine Translated
En general, me beneficio de los ejemplos.
Peter Coleman
Curso: Data Visualization
Machine Translated
Disfruté los buenos ejemplos del mundo real, las revisiones de los informes existentes.
Ronald Parrish
Curso: Data Visualization
Machine Translated
Casos y casos aplicables
zhaopeng liu - Fmr
Curso: Spark for Developers
Machine Translated
Análisis de caso
国栋 张
Curso: Spark for Developers
Machine Translated
todas las partes de esta sesión
Eric Han - Fmr
Curso: Spark for Developers
Machine Translated
Realmente me beneficié de la buena disposición del entrenador para compartir más.
Balaram Chandra Paul
Curso: A practical introduction to Data Analysis and Big Data
Machine Translated
Sabemos mucho más sobre todo el entorno.
John Kidd
Curso: Spark for Developers
Machine Translated
El entrenador hizo la clase interesante y entretenida, lo que ayuda bastante con el entrenamiento de todo el día.
Ryan Speelman
Curso: Spark for Developers
Machine Translated
Creo que el entrenador tenía un estilo excelente de combinar el humor y las historias de la vida real para que los temas disponibles fueran muy accesibles. Recomiendo encarecidamente a este profesor en el futuro.
Curso: Spark for Developers
Machine Translated
Me gustó mucho la forma interactiva de aprender.
Luigi Loiacono
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Fue un entrenamiento muy práctico, me gustaron los ejercicios prácticos.
Proximus
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Me beneficié de la buena visión general, un buen equilibrio entre la teoría y los ejercicios.
Proximus
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Disfruté de la interacción dinámica y "manos a la obra" del tema, gracias a la Máquina Virtual, ¡muy estimulante !.
Philippe Job
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Ernesto hizo un gran trabajo al explicar los conceptos de alto nivel del uso de Spark y sus diversos módulos.
Michael Nemerouf
Curso: Spark for Developers
Machine Translated
Me beneficié de la competencia y el conocimiento del entrenador.
Jonathan Puvilland
Curso: Data Analysis with Hive/HiveQL
Machine Translated
En general, me beneficié de la presentación de tecnologías.
Continental AG / Abteilung: CF IT Finance
Curso: A practical introduction to Data Analysis and Big Data
Machine Translated
En general, el contenido fue bueno.
Sameer Rohadia
Curso: A practical introduction to Data Analysis and Big Data
Machine Translated
Ejercicios de ejemplo; intercambio de experiencias prácticas de trabajo
澳新银行
Curso: Data Vault: Building a Scalable Data Warehouse
Machine Translated
Cubo y DV
Alan Xie
Curso: Data Vault: Building a Scalable Data Warehouse
Machine Translated
El maestro tiene un conocimiento exhaustivo del almacén de datos.
澳新银行
Curso: Data Vault: Building a Scalable Data Warehouse
Machine Translated
El maestro explicó en detalle y discutió el ambiente
澳新银行
Curso: Data Vault: Building a Scalable Data Warehouse
Machine Translated
Michael the trainer es muy conocedor y habilidoso sobre el tema de Big Data y R. Es muy flexible y personaliza rápidamente la capacitación que satisface las necesidades de los clientes. Él también es muy capaz de resolver problemas técnicos y de temas sobre la marcha. Fantástico y profesional entrenamiento !.
Xiaoyuan Geng - Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Curso: Programming with Big Data in R
Machine Translated
Realmente disfruté la presentación de nuevos paquetes.
Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Curso: Programming with Big Data in R
Machine Translated
El tutor, el Sr. Michael Yan, interactuó muy bien con la audiencia, la instrucción fue clara. El tutor también hace todo lo posible para agregar más información basada en las solicitudes de los estudiantes durante la capacitación.
Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Curso: Programming with Big Data in R
Machine Translated
El tema y el ritmo fueron perfectos.
Tim - Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Curso: Programming with Big Data in R
Machine Translated
Creo que el entrenador tenía un estilo excelente de combinar el humor y las historias de la vida real para que los temas disponibles fueran muy accesibles. Recomiendo encarecidamente a este profesor en el futuro.
Curso: Spark for Developers
Machine Translated
Algunos de nuestros clientes






















.jpg)
.png)


























Programas de los cursos Big Data
Este curso cubre los principios de trabajo detrás de Accumulo y guía a los participantes a través del desarrollo de una aplicación de muestra en Apache Accumulo.
Audiencia
Desarrolladores de aplicaciones
Ingenieros de software
Consultores técnicos
Formato del curso
Conferencia de parte, parte de discusión, desarrollo e implementación práctica, pruebas ocasionales para medir comprensión
En este curso, presentamos los procesos involucrados en KDD y llevamos a cabo una serie de ejercicios para practicar la implementación de esos procesos.
Audiencia
- Analistas de datos o cualquier persona interesada en aprender a interpretar datos para resolver problemas
Formato del curso
- Después de una discusión teórica sobre KDD, el instructor presentará casos de la vida real que requieren la aplicación de KDD para resolver un problema. Los participantes prepararán, seleccionarán y limpiarán conjuntos de datos de muestra y utilizarán sus conocimientos previos sobre los datos para proponer soluciones basadas en los resultados de sus observaciones.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo usar MonetDB y cómo sacar el máximo provecho de ella.
Al final de esta capacitación, los participantes podrán:
- Comprender MonetDB y sus características
- Instalar y comenzar con MonetDB
- Explora y realiza diferentes funciones y tareas en MonetDB
- Acelere la entrega de su proyecto maximizando las capacidades de MonetDB
Audiencia
- Desarrolladores
- Expertos técnicos
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
By the end of this training, participants will:
- Understand the evolution and trends for machine learning.
- Know how machine learning is being used across different industries.
- Become familiar with the tools, skills and services available to implement machine learning within an organization.
- Understand how machine learning can be used to enhance data mining and analysis.
- Learn what a data middle backend is, and how it is being used by businesses.
- Understand the role that big data and intelligent applications are playing across industries.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los elementos esenciales de MemSQL para el desarrollo y la administración.
Al final de esta capacitación, los participantes podrán:
- Comprender los conceptos clave y las características de MemSQL
- Instalar, diseñar, mantener y operar MemSQL
- Optimizar esquemas en MemSQL
- Mejorar las consultas en MemSQL
- Rendimiento de referencia en MemSQL
- Construya aplicaciones de datos en tiempo real usando MemSQL
Audiencia
- Desarrolladores
- Administradores
- Ingenieros de operación
Formato del curso
- Conferencia de parte, discusiaón en parte, ejercicios y práctica práctica
Al final de esta capacitación, los participantes podrán construir aplicaciones para productores y consumidores para el procesamiento de datos de flujo en tiempo real.
Audiencia
- Desarrolladores
- Administradores
Formato de la carrera
- Parte de lectura, parte de discusión, ejercicios y práctica práctica
Nota
- Para solicitar un entrenamiento personalizado para esta carrera, contáctenos para organizarlo.
Esta capacitación en vivo dirigida por un instructor presenta los conceptos y enfoques para implementar el análisis geospacial y guía a los participantes a través de la creación de una aplicación de análisis predictivo utilizando Magellan en Spark.
Al final de esta capacitación, los participantes podrán:
- Consultar, analizar y unir datos geoespaciales de manera eficiente a escala
- Implementar datos geoespaciales en inteligencia empresarial y aplicaciones de análisis predictivo
- Utilice el contexto espacial para ampliar las capacidades de dispositivos móviles, sensores, registros y dispositivos portátiles
Audiencia
- Desarrolladores de aplicaciones
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Apache Kylin para configurar un depósito de datos en tiempo real.
Al final de esta capacitación, los participantes podrán:
- Consume datos de transmisión en tiempo real usando Kylin
- Utilice las potentes funciones de Apache Kylin, incluido el soporte del esquema de copos de nieve, una rica interfaz de SQL, cubicación de chispa y latencia de consulta de segundo plano
Nota
- Usamos la última versión de Kylin (al momento de escribir esto, Apache Kylin v2.0)
Audiencia
- Grandes ingenieros de datos
- Analistas de Big Data
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
This instructor-led, live training (online or onsite) is aimed at developers who wish to implement Apache Kafka stream processing without writing code.
By the end of this training, participants will be able to:
- Install and configure Confluent KSQL.
- Set up a stream processing pipeline using only SQL commands (no Java or Python coding).
- Carry out data filtering, transformations, aggregations, joins, windowing, and sessionization entirely in SQL.
- Design and deploy interactive, continuous queries for streaming ETL and real-time analytics.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
Este curso para KNIME Analytics Platform es una oportunidad ideal para que los principiantes, usuarios avanzados y expertos de KNIME se presenten a KNIME , aprendan cómo usarlo de manera más efectiva y cómo crear informes claros y completos basados en los flujos de trabajo de KNIME
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo integrar Kafka Streams en un conjunto de aplicaciones Java de muestra que pasan datos desde y hacia Apache Kafka para el procesamiento de flujo.
Al final de esta capacitación, los participantes podrán:
- Comprenda las características y ventajas de Kafka Streams frente a otros marcos de procesamiento de flujos
- Procesar datos de flujo directamente dentro de un clúster de Kafka
- Escriba una aplicación Java o Scala o microservicio que se integre con Kafka y Kafka Streams
- Escribe un código conciso que transforme los temas de entrada de Kafka en temas de salida de Kafka
- Construye, empaqueta y despliega la aplicación
Audiencia
- Desarrolladores
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Notas
- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a implementar y administrar Apache NiFi en un entorno de laboratorio en vivo.
Al final de esta capacitación, los participantes podrán:
- Instalar y configurar Apachi NiFi
- Fuente, transformar y gestionar datos de fuentes de datos dispersas y distribuidas, incluidas bases de datos y lagos de datos grandes.
- Automatice los flujos de datos
- Habilitar análisis de transmisión
- Aplicar varios enfoques para la ingestión de datos
- Transformar Big Data y en conocimientos empresariales
Audiencia
- Administradores del sistema
- Ingenieros de datos
- Desarrolladores
- DevOps
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
En este entrenamiento en vivo dirigido por un instructor (in situ o remoto), los participantes aprenderán cómo configurar e integrar diferentes marcos de Procesamiento de Stream con los sistemas de almacenamiento de big data existentes y aplicaciones de software y microservicios relacionados.
Al final de esta capacitación, los participantes podrán:
- Instale y configure diferentes marcos de procesamiento de flujo, como Spark Streaming y Kafka Streaming
- Comprender y seleccionar el marco más adecuado para el trabajo
- Proceso de datos de forma continua, concurrente y de forma récord por registro
- Integre soluciones de procesamiento de flujo con bases de datos existentes, almacenes de datos, lagos de datos, etc.
- Integración de la biblioteca de procesamiento de flujo más apropiada con aplicaciones empresariales y microservicios
Audiencia
- Desarrolladores
- Arquitectos de software
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Notas
- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
- Desarrolladores
Formato del curso
- Conferencias, práctica práctica, pequeñas pruebas en el camino para medir la comprensión
Impala permite a los usuarios emitir consultas SQL de baja latencia a los datos almacenados en Hadoop Distributed File System y Apache Hbase sin necesidad de movimiento o transformación de datos.
Audiencia
Este curso está dirigido a analistas y científicos de datos que realizan análisis sobre datos almacenados en Hadoop a través de herramientas de Business Intelligence o SQL.
Después de este curso, los delegados podrán
- Extraer información significativa de los clústeres de Hadoop con Impala.
- Escriba programas específicos para facilitar la Inteligencia de Negocios en Impala SQL Dialect.
- Solucionar problemas de Impala.
Esta capacitación en vivo dirigida por un instructor presenta a Hortonworks y guía a los participantes a través del despliegue de la solución Spark + Hadoop.
Al final de esta capacitación, los participantes podrán:
- Use Hortonworks para ejecutar confiablemente Hadoop a gran escala
- Unifique las capacidades de seguridad, gobierno y operaciones de Hadoop con los flujos de trabajo analíticos ágiles de Spark.
- Use Hortonworks para investigar, validar, certificar y dar soporte a cada uno de los componentes en un proyecto Spark
- Procese diferentes tipos de datos, incluidos estructurados, no estructurados, en movimiento y en reposo.
Audiencia
- Administradores de Hadoop
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Vamos a recorrer un desarrollador a través de la arquitectura de HBase y modelado de datos y desarrollo de aplicaciones en HBase. También discutirá el uso de MapReduce con HBase y algunos temas de administración relacionados con la optimización del rendimiento. El curso es muy práctico con muchos ejercicios de laboratorio.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo trabajar con Hadoop, MapReduce, Pig y Spark utilizando Python, ya que pasan por múltiples ejemplos y casos de uso.
Al final de esta capacitación, los participantes podrán:
- Comprender los conceptos básicos detrás de Hadoop, MapReduce, Pig y Spark
- Utilice Python con Hadoop Distributed File System (HDFS), MapReduce, Pig y Spark
- Utilice Snakebite para acceder mediante programación a HDFS dentro de Python
- Usa mrjob para escribir trabajos de MapReduce en Python
- Escribir programas Spark con Python
- Extienda la funcionalidad del cerdo usando las UDF de Python
- Administrar trabajos de MapReduce y scripts Pig utilizando Luigi
Audiencia
- Desarrolladores
- Profesionales de TI
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Este curso está destinado a desmitificar la tecnología de big data / hadoop y mostrar que no es difícil de entender.
Este curso presenta a los Project Managers al marco de procesamiento de Big Data más popular: Hadoop.
En esta capacitación dirigida por un instructor, los participantes aprenderán los componentes principales del ecosistema de Hadoop y cómo estas tecnologías pueden usarse para resolver problemas a gran escala. Al aprender estas bases, los participantes también mejorarán su capacidad de comunicarse con los desarrolladores e implementadores de estos sistemas, así como con los científicos y analistas de datos que involucran muchos proyectos de TI.
Audiencia
- Project Managers que desean implementar Hadoop en su infraestructura de TI o desarrollo existente
- Los gerentes de proyectos necesitan comunicarse con equipos multifuncionales que incluyen grandes ingenieros de datos, científicos de datos y analistas de negocios
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
This instructor-led, live training (online or onsite) is aimed at developers who wish to carry out big data analysis using Apache Spark in their .NET applications.
By the end of this training, participants will be able to:
- Install and configure Apache Spark.
- Understand how .NET implements Spark APIs so that they can be accessed from a .NET application.
- Develop data processing applications using C# or F#, capable of handling data sets whose size is measured in terabytes and pedabytes.
- Develop machine learning features for a .NET application using Apache Spark capabilities.
- Carry out exploratory analysis using SQL queries on big data sets.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de la programación basada en flujo a medida que desarrollan una cantidad de extensiones de demostración, componentes y procesadores que usan Apache NiFi.
Al final de esta capacitación, los participantes podrán:
- Comprender los conceptos de arquitectura y flujo de datos de NiFi
- Desarrollar extensiones utilizando NiFi y API de terceros
- Desarrolla a medida su propio procesador Apache Nifi
- Ingerir y procesar datos en tiempo real de formatos de archivo dispares y poco comunes y fuentes de datos
Audiencia
- Desarrolladores
- Ingenieros de datos
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Esta capacitación en vivo dirigida por un instructor (en el sitio o remota) está dirigida a desarrolladores e ingenieros de aplicaciones que desean dominar usos más sofisticados de la base de datos de Teradata .
Al final de esta capacitación, los participantes podrán:
- Administra el espacio de Teradata .
- Proteger y distribuir datos en Teradata .
- Leer Explicar el plan.
- Mejora el dominio de SQL .
- Utiliza las principales utilidades de Teradata .
Formato del curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
- para ejecutar consultas SQL .
- para leer datos de una instalación de Hive existente.
En esta capacitación en vivo dirigida por un instructor (en el sitio o remota), los participantes aprenderán cómo analizar varios tipos de conjuntos de datos usando Spark SQL .
Al final de esta capacitación, los participantes podrán:
- Instalar y configurar Spark SQL .
- Realizar análisis de datos usando Spark SQL .
- Consultar conjuntos de datos en diferentes formatos.
- Visualizar datos y resultados de consultas.
Formato del curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
Esta capacitación en vivo dirigida por un instructor presenta los conceptos detrás del análisis interactivo de datos y guía a los participantes a través de la implementación y el uso de Zeppelin en un entorno de usuario único o multiusuario.
Al final de esta capacitación, los participantes podrán:
- Instalar y configurar Zeppelin
- Desarrollar, organizar, ejecutar y compartir datos en una interfaz basada en navegador
- Visualice resultados sin consultar la línea de comando o los detalles del clúster
- Ejecute y colabore en flujos de trabajo largos
- Trabaja con cualquiera de los lenguajes de plug-in / back-end de procesamiento de datos, como Scala (con Apache Spark), Python (con Apache Spark), Spark SQL, JDBC, Markdown y Shell.
- Integra Zeppelin con Spark, Flink y Map Reduce
- Asegure las instancias multiusuario de Zeppelin con Apache Shiro
Audiencia
- Ingenieros de datos
- Analistas de datos
- Científicos de datos
- Desarrolladores de software
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Este entrenamiento en vivo, dirigido por un instructor, presenta los desafíos de servir datos a gran escala y guía a los participantes a través de la creación de una aplicación que puede calcular las respuestas a las solicitudes de los usuarios, en grandes conjuntos de datos en tiempo real.
Al final de esta capacitación, los participantes podrán:
- Use Vespa para calcular rápidamente los datos (almacenar, buscar, clasificar, organizar) en el momento de servir mientras un usuario espera
- Implementar Vespa en aplicaciones existentes que involucran búsqueda de funciones, recomendaciones y personalización
- Integre e implemente Vespa con los sistemas de big data existentes, como Hadoop y Storm.
Audiencia
- Desarrolladores
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica