
Capacitación en Apache Hadoop - una implementación de código abierto de dos soluciones Google BigData: GFS (Google File System) y el paradigma de programación MapReduce.
Es un marco completo destinado a almacenar y procesar grandes conjuntos de datos. Hadoop es utilizado por la mayoría de los proveedores del servicio de nube global como Yahoo, Facebook o LinkedIn. Los cursos de capacitación local en vivo de Apache Hadoop demuestran a través de la discusión y la práctica manual los componentes principales del ecosistema de Hadoop y cómo estas tecnologías se pueden utilizar para resolver problemas a gran escala.
La capacitación en Hadoop está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en Costa Rica o en los centros de capacitación corporativa de NobleProg en Costa Rica, la segunda se lleva a cabo a través de un escritorio remoto interactivo.
NobleProg -- Su Proveedor Local de Capacitación
Testimonios
El hecho de que todos los datos y el software estaban listos para usar en una máquina virtual ya preparada, proporcionada por el capacitador en discos externos.
vyzVoice
Curso: Hadoop for Developers and Administrators
Machine Translated
En general, me gustó que el entrenador diera ejemplos en vivo.
Simon Hahn
Curso: Administrator Training for Apache Hadoop
Machine Translated
Realmente disfruté de las grandes competencias de Trainer.
Grzegorz Gorski
Curso: Administrator Training for Apache Hadoop
Machine Translated
Realmente disfruté las muchas sesiones prácticas.
Jacek Pieczątka
Curso: Administrator Training for Apache Hadoop
Machine Translated
Me gustó mucho la forma interactiva de aprender.
Luigi Loiacono
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Fue un entrenamiento muy práctico, me gustaron los ejercicios prácticos.
Proximus
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Me beneficié de la buena visión general, un buen equilibrio entre la teoría y los ejercicios.
Proximus
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Disfruté de la interacción dinámica y "manos a la obra" del tema, gracias a la Máquina Virtual, ¡muy estimulante !.
Philippe Job
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Me beneficié de la competencia y el conocimiento del entrenador.
Jonathan Puvilland
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Fue muy práctico, pasamos la mitad del tiempo haciendo cosas en Clouded / Hardtop, ejecutando comandos diferentes, revisando el sistema, etc. Los materiales adicionales (libros, sitios web, etc.) fueron realmente apreciados, tendremos que seguir aprendiendo. Las instalaciones fueron bastante divertidas y muy prácticas, la configuración del clúster desde cero fue realmente buena.
Ericsson
Curso: Administrator Training for Apache Hadoop
Machine Translated
El entrenador fue fantástico y realmente sabía lo que hacía. ¡Aprendí mucho sobre el software que no conocía anteriormente que ayudará mucho en mi trabajo !.
Steve McPhail - Alberta Health Services - Information Technology
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Los principios de alto nivel sobre Hive, HDFS ...
Geert Suys - Proximus Group
Curso: Data Analysis with Hive/HiveQL
Machine Translated
El handson La práctica de la mezcla / theroy
Proximus Group
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Fulvio pudo comprender el caso de negocios de nuestra empresa y pudo correlacionarse con el material del curso, casi al instante.
Samuel Peeters - Proximus Group
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Muchos ejercicios prácticos.
Ericsson
Curso: Administrator Training for Apache Hadoop
Machine Translated
Herramienta de gestión de Ambari. Capacidad para discutir experiencias prácticas de Hadoop de otros casos de negocios que no sean telecomunicaciones.
Ericsson
Curso: Administrator Training for Apache Hadoop
Machine Translated
Pensé que hizo un gran trabajo de adaptar la experiencia a la audiencia. Esta clase está diseñada principalmente para cubrir el análisis de datos con HIVE, pero yo y mi compañero de trabajo estamos haciendo la administración de HIVE sin responsabilidades reales de análisis de datos.
ian reif - Franchise Tax Board
Curso: Data Analysis with Hive/HiveQL
Machine Translated
La VM me gustó mucho El profesor estaba muy bien informado sobre el tema, así como otros temas, era muy agradable y amable Me gustó la instalación en Dubai.
Safar Alqahtani - Elm Information Security
Curso: Big Data Analytics in Health
Machine Translated
Temas de entrenamiento y participación del entrenador
Izba Administracji Skarbowej w Lublinie
Curso: Apache NiFi for Administrators
Machine Translated
Comunicación con personas que asisten a la formación.
Andrzej Szewczuk - Izba Administracji Skarbowej w Lublinie
Curso: Apache NiFi for Administrators
Machine Translated
Cosas prácticas de hacer, también la teoría fue servida bien por Ajay.
Dominik Mazur - Capgemini Polska Sp. z o.o.
Curso: Hadoop Administration on MapR
Machine Translated
Ceremonias
Capgemini Polska Sp. z o.o.
Curso: Hadoop Administration on MapR
Machine Translated
utilidad de los ejercicios
Algomine sp.z.o.o sp.k.
Curso: Apache NiFi for Administrators
Machine Translated
Me pareció que la capacitación era buena, muy informativa ... pero podría haberse extendido durante 4 o 5 días, lo que nos permite profundizar más en diferentes aspectos.
Veterans Affairs Canada
Curso: Hadoop Administration
Machine Translated
Realmente disfruté el entrenamiento. Anton tiene mucho conocimiento y expuso la teoría necesaria de una manera muy accesible. Es genial que el entrenamiento haya sido una gran cantidad de ejercicios interesantes, por lo que hemos estado en contacto con la tecnología que conocemos desde el principio.
Szymon Dybczak - Algomine sp.z.o.o sp.k.
Curso: Apache NiFi for Administrators
Machine Translated
Encontré que este curso ofreció una excelente visión general y rápidamente toqué algunas áreas que ni siquiera estaba considerando.
Veterans Affairs Canada
Curso: Hadoop Administration
Machine Translated
Realmente me gustaron los ejercicios de trabajo con clúster para ver el rendimiento de los nodos en el clúster y la funcionalidad extendida.
CACI Ltd
Curso: Apache NiFi for Developers
Machine Translated
Ajay era un consultor muy experimentado y pudo responder a todas nuestras preguntas e incluso hizo sugerencias sobre las mejores prácticas para el proyecto en el que estamos comprometidos actualmente.
CACI Ltd
Curso: Apache NiFi for Administrators
Machine Translated
Parte práctica. Las tareas fueron bien elegidas para las cuestiones debatidas.
Rossmann SDP
Curso: HBase for Developers
Machine Translated
Algunos de nuestros clientes
































.png)









.png)






_ireland.gif)
Hadoop Subcategorías
Programas de los cursos Apache Hadoop
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Alexio para unir diferentes marcos de computación con sistemas de almacenamiento y administrar de manera eficiente los datos de escala de varios petabytes mientras avanzan en la creación de una aplicación con Alluxio.
Al final de esta capacitación, los participantes podrán:
- Desarrolle una aplicación con Alluxio
- Conecte aplicaciones y sistemas de big data mientras conserva un espacio de nombres
- Extrae de manera eficiente el valor de los grandes datos en cualquier formato de almacenamiento
- Mejorar el rendimiento de la carga de trabajo
- Implemente y administre Alluxio de forma independiente o en clúster
Audiencia
- Científico de datos
- Desarrollador
- Administrador de sistema
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Este curso está destinado a desmitificar la tecnología de big data / hadoop y mostrar que no es difícil de entender.
Esta capacitación en vivo dirigida por un instructor presenta los principios detrás de los sistemas de mensajería y el procesamiento distribuido de flujo, mientras acompaña a los participantes a través de la creación de un proyecto basado en Samza y la ejecución de trabajos.
Al final de esta capacitación, los participantes podrán:
Usa Samza para simplificar el código necesario para producir y consumir mensajes
Desacoplar el manejo de los mensajes de una aplicación
Utilice Samza para implementar cálculos asincrónicos casi en tiempo real
Utilice el procesamiento de flujo para proporcionar un mayor nivel de abstracción en los sistemas de mensajería
Audiencia
- Desarrolladores
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de la programación basada en flujo a medida que desarrollan una cantidad de extensiones de demostración, componentes y procesadores que usan Apache NiFi.
Al final de esta capacitación, los participantes podrán:
- Comprender los conceptos de arquitectura y flujo de datos de NiFi
- Desarrollar extensiones utilizando NiFi y API de terceros
- Desarrolla a medida su propio procesador Apache Nifi
- Ingerir y procesar datos en tiempo real de formatos de archivo dispares y poco comunes y fuentes de datos
Audiencia
- Desarrolladores
- Ingenieros de datos
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a implementar y administrar Apache NiFi en un entorno de laboratorio en vivo.
Al final de esta capacitación, los participantes podrán:
- Instalar y configurar Apachi NiFi
- Fuente, transformar y gestionar datos de fuentes de datos dispersas y distribuidas, incluidas bases de datos y lagos de datos grandes.
- Automatice los flujos de datos
- Habilitar análisis de transmisión
- Aplicar varios enfoques para la ingestión de datos
- Transformar Big Data y en conocimientos empresariales
Audiencia
- Administradores del sistema
- Ingenieros de datos
- Desarrolladores
- DevOps
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
- Desarrolladores
Formato del curso
- Conferencias, práctica práctica, pequeñas pruebas en el camino para medir la comprensión
Impala permite a los usuarios emitir consultas SQL de baja latencia a los datos almacenados en Hadoop Distributed File System y Apache Hbase sin necesidad de movimiento o transformación de datos.
Audiencia
Este curso está dirigido a analistas y científicos de datos que realizan análisis sobre datos almacenados en Hadoop a través de herramientas de Business Intelligence o SQL.
Después de este curso, los delegados podrán
- Extraer información significativa de los clústeres de Hadoop con Impala.
- Escriba programas específicos para facilitar la Inteligencia de Negocios en Impala SQL Dialect.
- Solucionar problemas de Impala.
Esta capacitación en vivo dirigida por un instructor presenta a Hortonworks y guía a los participantes a través del despliegue de la solución Spark + Hadoop.
Al final de esta capacitación, los participantes podrán:
- Use Hortonworks para ejecutar confiablemente Hadoop a gran escala
- Unifique las capacidades de seguridad, gobierno y operaciones de Hadoop con los flujos de trabajo analíticos ágiles de Spark.
- Use Hortonworks para investigar, validar, certificar y dar soporte a cada uno de los componentes en un proyecto Spark
- Procese diferentes tipos de datos, incluidos estructurados, no estructurados, en movimiento y en reposo.
Audiencia
- Administradores de Hadoop
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Vamos a recorrer un desarrollador a través de la arquitectura de HBase y modelado de datos y desarrollo de aplicaciones en HBase. También discutirá el uso de MapReduce con HBase y algunos temas de administración relacionados con la optimización del rendimiento. El curso es muy práctico con muchos ejercicios de laboratorio.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo trabajar con Hadoop, MapReduce, Pig y Spark utilizando Python, ya que pasan por múltiples ejemplos y casos de uso.
Al final de esta capacitación, los participantes podrán:
- Comprender los conceptos básicos detrás de Hadoop, MapReduce, Pig y Spark
- Utilice Python con Hadoop Distributed File System (HDFS), MapReduce, Pig y Spark
- Utilice Snakebite para acceder mediante programación a HDFS dentro de Python
- Usa mrjob para escribir trabajos de MapReduce en Python
- Escribir programas Spark con Python
- Extienda la funcionalidad del cerdo usando las UDF de Python
- Administrar trabajos de MapReduce y scripts Pig utilizando Luigi
Audiencia
- Desarrolladores
- Profesionales de TI
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Este curso presenta a los Project Managers al marco de procesamiento de Big Data más popular: Hadoop.
En esta capacitación dirigida por un instructor, los participantes aprenderán los componentes principales del ecosistema de Hadoop y cómo estas tecnologías pueden usarse para resolver problemas a gran escala. Al aprender estas bases, los participantes también mejorarán su capacidad de comunicarse con los desarrolladores e implementadores de estos sistemas, así como con los científicos y analistas de datos que involucran muchos proyectos de TI.
Audiencia
- Project Managers que desean implementar Hadoop en su infraestructura de TI o desarrollo existente
- Los gerentes de proyectos necesitan comunicarse con equipos multifuncionales que incluyen grandes ingenieros de datos, científicos de datos y analistas de negocios
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán las herramientas y prácticas de administración proporcionadas por Ambari para administrar con éxito los clústeres de Hadoop.
Al final de esta capacitación, los participantes podrán:
Configure un clúster de Big Data en tiempo real usando Ambari
- Aplicar las características y funcionalidades avanzadas de Ambari a varios casos de uso
- Agregue y elimine nodos sin problemas según sea necesario
- Mejore el rendimiento de un clúster de Hadoop a través de ajustes y ajustes
Audiencia
- DevOps
- Administradores del sistema
- DBAs
- Profesionales de prueba de Hadoop
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Audiencia: desarrolladores
Duración: tres días
Formato: conferencias (50%) y laboratorios prácticos (50%).
Audiencia
Analistas de Negocios
Duración
tres días
Formato
Conferencias y manos sobre laboratorios.
"... Los materiales estaban muy bien preparados y cubiertos a fondo. El laboratorio fue muy servicial y bien organizado "
- Andrew Nguyen, Ingeniero Principal de Integración DW, Microsoft Online Advertising
Audiencia
Administradores de Hadoop
Formato
Conferencias y laboratorios prácticos, balance aproximado 60% conferencias, 40% laboratorios.
Objetivo del curso:
Obtención de conocimientos sobre la administración de clúster de Hadoop
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Datameer para superar la pronunciada curva de aprendizaje de Hadoop a medida que avanzan en la configuración y el análisis de una serie de grandes fuentes de datos.
Al final de esta capacitación, los participantes podrán:
- Crea, selecciona e interactivamente explora un lago de datos empresariales
- Acceda a almacenes de datos de inteligencia empresarial, bases de datos transaccionales y otras tiendas analíticas
- Use una interfaz de usuario de hoja de cálculo para diseñar las tuberías de procesamiento de datos de extremo a extremo
- Acceda a funciones preconstruidas para explorar relaciones de datos complejas
- Utilice asistentes de arrastrar y soltar para visualizar datos y crear paneles
- Use tablas, cuadros, gráficos y mapas para analizar los resultados de las consultas
Audiencia
- Analistas de datos
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
La industria de la salud tiene cantidades masivas de datos clínicos y médicos heterogéneos complejos. La aplicación de análisis de big data en datos de salud presenta un enorme potencial para obtener información para mejorar la prestación de servicios de salud. Sin embargo, la magnitud de estos conjuntos de datos plantea grandes desafíos en los análisis y aplicaciones prácticas en un entorno clínico.
En esta capacitación en vivo (remota) dirigida por un instructor, los participantes aprenderán cómo realizar análisis de big data en salud a medida que realizan una serie de ejercicios prácticos de laboratorio en vivo.
Al final de esta capacitación, los participantes podrán:
- Instale y configure herramientas de análisis de big data como Hadoop MapReduce y Spark
- Comprender las características de los datos médicos.
- Aplicar técnicas de big data para manejar datos médicos.
- Estudiar los sistemas y algoritmos de big data en el contexto de las aplicaciones de salud.
Audiencia
- Desarrolladores
- Científicos de datos
Formato del curso
- Conferencia en parte, discusión en parte, ejercicios y práctica práctica.
Nota
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
El enfoque principal del curso es la manipulación y transformación de datos.
Entre las herramientas del ecosistema de Hadoop, este curso incluye el uso de Pig y Hive, que se utilizan mucho para la transformación y manipulación de datos.
Esta capacitación también aborda las métricas de rendimiento y la optimización del rendimiento.
El curso es completamente práctico y está marcado por presentaciones de los aspectos teóricos.
El curso está dirigido a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en un entorno de sistema distribuido
Gol:
Conocimiento profundo sobre administración de clúster de Hadoop.
Este curso presencial, dirigido por un instructor, presenta el enfoque de Tigon para combinar el procesamiento en tiempo real y por lotes a medida que guía a los participantes a través de la creación de una aplicación de muestra.
Al final de esta capacitación, los participantes podrán:
- Cree aplicaciones potentes de procesamiento de flujo para manejar grandes volúmenes de datos
- Fuentes de flujo de procesos como Twitter y registros de servidor web
- Utilice Tigon para unir, filtrar y agregar secuencias rápidamente
Audiencia
- Desarrolladores
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica