Kursy hadoop

102 znalezione kursy

Kurs Big Data Hadoop Analyst Training - Plan Szkolenia

4 970 pln.
Kurs ma na celu nauczenie uczestników, jak pracować z technologią Big Data i narzędziami potrzebnymi do analizy dużych ilości danych. Podczas kursu uczestnicy zapoznają się z Apache Hadoop i jego ekosystemem, w tym narzędziami Pig, Hive, Impala i ELK. Zdobędą umiejętności w zakresie uzyskiwania dostępu, modyfikowania, przekształcania i analizowania złożonych struktur danych hostowanych w klastrze Hadoop. Kurs obejmie również sposoby poprawy wydajności zadań analitycznych przy użyciu narzędzi Pig, Hive i Impala. Uczestnicy dowiedzą się, jak uruchamiać złożone zapytania na dużych ilościach danych i przeprowadzać interaktywne analizy w czasie rzeczywistym, aby uzyskać cenne spostrzeżenia, które pomogą rozwiązać problemy biznesowe. Ten kurs pomoże ci rozwinąć umiejętności analityczne i umiejętność pracy z technologią Big Data, które są ważnymi kompetencjami w dziedzinie nauki o danych i analityki biznesowej.
Średniozaawansowany, Profesjonalny
28 godziny
online, offline
Przejdź do strony internetowej kursu
Certyfikat
Godziny 28
Rodzaj szkolenia online, offline
Egzamin wstępny
Sprawdzanie prac domowych
Projekt dyplomowy
Pomoc w zatrudnieniu
Kategoria wiekowa dla dorosłych
Poziom szkolenia Średniozaawansowany, Profesjonalny
Język Polski, English

Kurs Hadoop and Spark for Administrators - Plan Szkolenia

6 210 pln.
Ten prowadzony przez instruktora kurs obejmuje interaktywne wykłady, dyskusje, ćwiczenia i praktyczne laboratoria. Podczas kursu uczestnicy poznają kluczowe aspekty, takie jak instalacja i konfiguracja Apache Hadoop, zrozumienie elementów ekosystemu Hadoop (HDFS, MapReduce, YARN, Hadoop Common), praca z rozproszonym systemem plików HDFS w celu skalowania klastra, integracja Hadoop ze Spark, administracja klastrem, monitorowanie, bezpieczeństwo i zarządzanie. Kurs wymaga również wcześniejszego doświadczenia z linią poleceń systemu Linux i zrozumienia koncepcji dużych zbiorów danych. Po ukończeniu kursu uczestnicy będą w stanie z powodzeniem instalować, konfigurować i administrować klastrami Hadoop, pracować z rozproszonym systemem plików HDFS, integrować go ze Sparkiem oraz wykonywać zadania związane z monitorowaniem, bezpieczeństwem i zarządzaniem tymi klastrami.
Średniozaawansowany, Profesjonalny
35 godziny
online, offline
Przejdź do strony internetowej kursu
Certyfikat
Godziny 35
Rodzaj szkolenia online, offline
Egzamin wstępny
Sprawdzanie prac domowych
Projekt dyplomowy
Pomoc w zatrudnieniu
Kategoria wiekowa dla dorosłych
Poziom szkolenia Średniozaawansowany, Profesjonalny
Język Polski, English

Kurs Python, Spark, and Hadoop for Big Data

3 870 pln.
Python to skalowalny, elastyczny i szeroko stosowany język programowania do nauki o danych i uczenia maszynowego. Spark to silnik przetwarzania danych wykorzystywany do wyszukiwania, analizowania i przekształcania dużych zbiorów danych, a Hadoop to biblioteka oprogramowania do przechowywania i przetwarzania danych na dużą skalę. Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla programistów, którzy chcą używać i integrować Spark, Hadoop i Python do przetwarzania, analizowania i przekształcania dużych i złożonych zestawów danych.
Średniozaawansowany
21 godziny
online, offline
Przejdź do strony internetowej kursu
Zajęcia 3
Godziny 21
Częstotliwość 3 razy w tygodniu
Rodzaj szkolenia online, offline
Miasto Szczecin, Kielce, Kraków, Łódź, Wrocław, Poznań, Rzeszów, Katowice, Gliwice, Częstochowa, Gdańsk, Lublin
Kategoria wiekowa dla dorosłych
Poziom szkolenia Średniozaawansowany
Język Polski, English

Kurs Moving Data from MySQL to Hadoop with Sqoop

2 780 pln.
Sqoop to narzędzie typu open source do przesyłania danych między Hadoop a relacyjnymi bazami danych lub komputerami mainframe. Można go używać do importowania danych z systemu zarządzania relacyjnymi bazami danych (RDBMS), takiego jak MySQL lub Oracle, lub komputera mainframe do rozproszonego systemu plików Hadoop (HDFS). Następnie dane mogą zostać przekształcone w Hadoop MapReduce, a następnie ponownie wyeksportowane do RDBMS. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak używać Sqoop do importowania danych z tradycyjnej relacyjnej bazy danych do pamięci masowej Hadoop, takiej jak HDFS lub Hive i odwrotnie.
Średniozaawansowany
14 godziny
online, offline
Przejdź do strony internetowej kursu
Certyfikat
Godziny 14
Rodzaj szkolenia online, offline
Miasto Wrocław, Warszawa
Egzamin wstępny
Sprawdzanie prac domowych
Projekt dyplomowy
Pomoc w zatrudnieniu
Kategoria wiekowa dla dorosłych
Poziom szkolenia Średniozaawansowany
Język Polski, English

Kurs Apache Hadoop: Manipulation and Transformation of Data Performance - Plan Szkolenia

3 720 pln.
Kurs Performance koncentruje się na nauczaniu programistów, architektów i analityków danych, jak skutecznie manipulować i przekształcać dane za pomocą narzędzi ekosystemu Hadoop. Kurs oferuje dogłębne zapoznanie się z tak ważnymi aspektami jak wykorzystanie narzędzi Pig i Hive do manipulacji danymi, optymalizacja wydajności przetwarzania danych oraz diagnozowanie ewentualnych problemów. Uczestnicy dowiedzą się jak efektywnie wykorzystywać MapReduce do przetwarzania i analizy danych, a także poznają różne metody czyszczenia, transformacji i agregacji danych z wykorzystaniem Apache Pig i Hive. Ponadto kurs oferuje dokładną analizę wydajności i optymalizację danych, w tym rozpoznawanie i rozwiązywanie potencjalnych problemów związanych z przetwarzaniem i przechowywaniem dużych ilości danych w Hadoop.
Średniozaawansowany, Profesjonalny
21 godziny
online, offline
Przejdź do strony internetowej kursu
Certyfikat
Godziny 21
Rodzaj szkolenia online, offline
Egzamin wstępny
Sprawdzanie prac domowych
Projekt dyplomowy
Pomoc w zatrudnieniu
Kategoria wiekowa dla dorosłych
Poziom szkolenia Średniozaawansowany, Profesjonalny
Język Polski, English

Kurs Jak zacząć karierę w Data Science

149 pln.
Zalecany kurs
Hadoop, Hive i Kafka W tej części kursu porozmawiamy o praktykach związanych z , czyli MLOps.... Rozpocznij karierę jako specjalista przetwarzania danych. Poznaj możliwe ścieżki rozwoju i przydatne narzędzia w Data Science, Data Engineering i AI.
Podstawowe
5 godziny
online
Przejdź do strony internetowej kursu
Certyfikat
Zajęcia 24
Godziny 5
Częstotliwość codziennie
Rodzaj szkolenia online
Miasto Tarnów
Transmisja Nagrywanie wideo
Egzamin wstępny
Sprawdzanie prac domowych
Projekt dyplomowy
Pomoc w zatrudnieniu
Kategoria wiekowa dla dorosłych, dla uczniów
Poziom szkolenia Podstawowe
Język Polski

Kurs Apache Spark z wykorzystaniem języka Scala

2 950 pln.
.: Java, Python lub Scala Znajomość zagadnień Big Data, platformy Hadoop oraz powiązanych z nią narzędzi... Praktyczne wykorzystanie platformy Apache Spark w kontekście przetwarzania Big Data
Podstawowe
24 godziny
online
Przejdź do strony internetowej kursu
Certyfikat
Zajęcia 9
Godziny 24
Rodzaj szkolenia online
Miasto Warszawa
Transmisja Transmisja na żywo
Egzamin wstępny
Sprawdzanie prac domowych
Projekt dyplomowy
Pomoc w zatrudnieniu
Kategoria wiekowa dla dorosłych, dla uczniów
Poziom szkolenia Podstawowe
Język Polski

Kurs Zaawansowane przetwarzanie strumieni danych w Apache Flink

2 950 pln.
programowania Java oraz Scala, opcjonalnie (jako uzupełnienie) Python Znajomość zagadnień Big Data, platformy Hadoop... Praktyczne wykorzystanie platformy Apache Flink do zaawansowanego przetwarzania strumieni danych w środowiskach Big Data z wykorzystaniem języków Scala, Java i SQL a także platformy Google Cloud Platform (GCP)
Podstawowe
24 godziny
online
Przejdź do strony internetowej kursu
Certyfikat
Zajęcia 10
Godziny 24
Rodzaj szkolenia online
Miasto Warszawa
Transmisja Transmisja na żywo
Egzamin wstępny
Sprawdzanie prac domowych
Projekt dyplomowy
Pomoc w zatrudnieniu
Kategoria wiekowa dla dorosłych, dla uczniów
Poziom szkolenia Podstawowe
Język Polski

Kurs Data Science for Big Data Analytics - Plan Szkolenia

6 210 pln.
Kurs jest przeznaczony dla tych, którzy chcą zdobyć wiedzę i umiejętności w zakresie analizy dużych ilości danych przy użyciu nauki o danych. Uczestnicy nauczą się rozumieć cechy i wyzwania związane z dużymi zbiorami danych, opanują metody i technologie gromadzenia, przechowywania, analizowania, wyszukiwania, wizualizacji i prywatności danych. Program nauczania obejmuje wprowadzenie do nauki o danych i dużych zbiorach danych, przegląd kluczowych technologii przetwarzania dużych zbiorów danych oraz podstawy korzystania z języka programowania R do analizy danych i integracji z platformą Hadoop. Uczestnicy poznają techniki analizy danych, takie jak regresja, klasyfikacja, grupowanie, odkrywanie relacji i eksploracja wzorców asocjacyjnych. Uczestnicy zdobędą praktyczne umiejętności pracy z R i korzystania z pakietów do analizy danych, a także dowiedzą się, jak zintegrować R z Hadoop za pomocą RHadoop. Kurs ma praktyczne podejście, a większość czasu zajęć poświęcona jest na ćwiczenia i studia przypadków z dużymi zbiorami danych, co pozwala uczestnikom zdobyć rzeczywiste doświadczenie w analizie dużych zbiorów danych.
Średniozaawansowany, Profesjonalny
35 godziny
online, offline
Przejdź do strony internetowej kursu
Certyfikat
Godziny 35
Rodzaj szkolenia online, offline
Egzamin wstępny
Sprawdzanie prac domowych
Projekt dyplomowy
Pomoc w zatrudnieniu
Kategoria wiekowa dla dorosłych
Poziom szkolenia Średniozaawansowany, Profesjonalny
Język Polski, English

Kurs projektowanie platformy Big Data z użyciem narzędzi z rodziny Apache

2 950 pln.
jest posiadanie wiedzy i umiejętności z zagadnień ujętych w ramach szkolenia *Big Data i platforma Hadoop... Warsztatowy charakter zajęć. Użycie wielu różnych narzędzi niezbędnych w codziennej pracy z Big Data. Ćwiczenia praktyczne odbywają się w środowisku chmury obliczeniowej (Google Cloud Platform). Praktyka przed teorią - wszystkie szkolenia technologiczne prowadzone są w formie warsztatowej. Konieczna teoria jest uzupełniana praktycznymi zadaniami. Konkretne umiejętności - w ramach każdego szkolenia rozwijamy praktyczne umiejętności związane z daną technologią i tematyką.
Średniozaawansowany
24 godziny
online
Przejdź do strony internetowej kursu
Certyfikat
Zajęcia 3
Godziny 24
Rodzaj szkolenia online
Miasto Warszawa
Transmisja Transmisja na żywo
Egzamin wstępny
Sprawdzanie prac domowych
Projekt dyplomowy
Pomoc w zatrudnieniu
Kategoria wiekowa dla dorosłych
Poziom szkolenia Średniozaawansowany
Język Polski

Kurs przetwarzanie strumieni danych w środowiskach Big Data

3 350 pln.
znajomoЕ›Д‡ programowania obiektowego Java Podstawowa znajomoЕ›Д‡ jД™zyka Scala ZnajomoЕ›Д‡ platformy Hadoop... Jedno z niewielu szkoleń adresujących tematykę przetwarzania strumieni danych dokonując kompleksowego przeglądu jej mechanizmów i narzędzi. Kurs przechodzi od najbardziej podstawowych zagadnień do najbardziej złożonych co pozwala opanować skomplikowany świat przetwarzania strumieni danych. Narzędzia Apache możliwe do uruchomienia w rozwiązaniach lokalnych (on-premise), dostępne na platformach chmurowych. Praktyka przed teorią - wszystkie szkolenia technologiczne prowadzone są w formie warsztatowej. Konieczna teoria jest wyjaśniana na przykładzie praktycznych zadań. Konkretne umiejętności - w ramach każdego szkolenia rozwijamy praktyczne umiejętności związane z daną technologią i tematyką.
Średniozaawansowany
24 godziny
online
Przejdź do strony internetowej kursu
Certyfikat
Zajęcia 3
Godziny 24
Rodzaj szkolenia online
Miasto Warszawa
Transmisja Transmisja na żywo
Egzamin wstępny
Sprawdzanie prac domowych
Projekt dyplomowy
Pomoc w zatrudnieniu
Kategoria wiekowa dla dorosłych
Poziom szkolenia Średniozaawansowany
Język Polski

AWS dla developerów - czyli jak budować aplikacje w chmurze!

Dostępne w systemie ratalnym
Zalecany kurs
Jeśli dopiero zaczynasz swoją przygodę z chmurą AWS i chcesz przekonać się jak szybko można wykorzystać AWS do budowy niesamowitych aplikacji to ten kurs skierowane jest właśnie dla ciebie! Podczas tego kursu przekonasz się jak za pomocą usług typu serverless - można w ciągu kilku minut tworzyć w pełni działające aplikacje internetowe. Bez serwerów! Wykonasz szereg aplikacji, od prostych  aplikacji typu HelloWorld (zaimplementowanych z wykorzystaniem usługi AWS Lambda) wystawianych przez własne API (poprzez Amazon API Gateway), po aplikacje wykorzystujące usługi sztucznej inteligencji, jak konwersja tekstu na audio z wykorzystaniem Amazon Polly, analiza zdjęć dzięki Amazon Rekognition i wiele innych!W ramach kursu, zapoznasz się z następującymi usługami:Lambda - umożliwiająca budowanie mikrousługAPI Gateway - umożliwiająca tworzenie usług typu RESTDynamoDB - czyli nierelacyjne bazy danychSQS - Simple Queue Service - kolejki chmuroweSNS - Simple Notification Service - usługi notyfikacyjnePolly - Usługa sztucznej inteligencji, pozwalająca na konwersję tekstu na audioRekognition - Usługa sztucznej inteligencji, pozwalającej na analizę zdjęćKinesis Firehose - Czyli przechwytywanie strumienia danychAthena - Hadoop w stylu serverlessStep Function - orkiestracja funkcji lambdaCodePipeline - usłiga umożliwiająca tworzenie procesów CI/CD.CodeBuild - usługa do automatycznego budowania paczek projektowychKurs skierowany jest dla:Developerów, którzy pragną poznać nowe sposoby budowy nowoczesnych aplikacji opartych o chmurę obliczeniową.Architektów - którzy chcą zobaczyć o czym należy pamiętać i jak projektować aplikacje w stylu Serverless.Pasjonatów - którzy dopiero zaczynają swoją przygodę z IT i chmurą, i chcą w ciągu kilku godzin poznać szereg nowych technologii ze świata IT.
7 godziny
online
Przejdź do strony internetowej kursu
Certyfikat
Zajęcia 32
Godziny 7
Rodzaj szkolenia online
Egzamin wstępny
Sprawdzanie prac domowych
Projekt dyplomowy
Pomoc w zatrudnieniu
Język Polski

AWS w 7 dni

Dostępne w systemie ratalnym
Zalecany kurs
Jeśli dopiero zaczynasz swoją przygodę z chmurą AWS i chcesz przekonać się jak szybko można wykorzystać AWS do budowy niesamowitych aplikacji, unowocześniania istniejących oraz analizy danych to ten kurs skierowane jest właśnie dla ciebie! Podczas tego kursu omówimy szereg popularnych zagadnień z którymi spotykamy się w dzisiejszych czasach gdy budujemy i projektujemy nowoczesne aplikacje/systemy. Kurs ten to w 95% pokazywanie faktycznego działania chmury AWS, slajdy zostały ograniczone do minimum i obejmują mniej niż 5% całości.Kurs ten został podzielony na następujące sekcje:Pierwsze kroki z AWS - Podczas tej sekcji skupimy się na podstawach podstaw - założymy wspólnie nowe konta chmurowe AWS oraz poznamy zasady jego działania. Zobaczymy jak można korzystać z chmury wykorzystując tzw. konsolę AWS gdzie utworzymy pierwszego użytkownika wykorzystując usługę AWS IAM oraz utworzymy pierwszy prosty serwery wirtualny za pomocą usługi Amazon LightSail.Serwery wirtualne w chmurze - Serwery wirtualne stanowią podstawowy element chmury, podczas tej sekcji zobaczymy na czym polega oraz jak utworzyć serwer oparty o Linuxa oraz Windowsa wykorzystując usługę Amazon EC2. Praca z serwerami oraz usługi do przechowywania danych - W tej sekcji opiszemy najważniejsze usługi, które są wykorzystywane przez użytkowników do przechowywania danych. Zobaczymy na czym polegają różnicę pomiędzy takimi usługami jak EBS, EFS czy wreszcie Amazon S3.Usługi Sztucznej Inteligencji - Kolejnym popularnym tematem i zagadnieniem nowoczesnych aplikacji jest sztuczna inteligencja. Podczas tej sekcji zobaczymy jakie typowe usługi sztucznej inteligencji są oferowane przez AWS i jak można je wykorzystać. Opiszemy tutaj usługi jak Amazon Polly - czyli usługa pozwalająca zamieniać tekst w audio w kilkudziesięciu językach, Amazon Translate - czyli usługa do konwersji tekstu pomiędzy różnymi językami, Amazon Transcribe - czyli konwersja audio na tekst oraz Amazon Rekognition - czyli analiza zdjęć i filmów z wykorzystaniem AI.Autoscaling - Podczas tej sekcji kontynuujemy naszą przygodę z serwerami wirtualnymi. Wykorzystamy jednak dodatkowo funkcjonalność chmury pozwalającą na automatyczne skalowanie, czyli dodawanie (i usuwanie) nowych serwerów wirtualnych w miarę potrzeb i zwiększenia obciążenia naszej aplikacji. Dodatkowo wykorzystamy usługę Elastic Load Balancing aby utworzyć inteligentny load balancer dla naszej aplikacji.Bazy Danych - W tej sekcji opiszemy dwa główne rodzaje usług AWS z rodziny bazodanowej. W pierwszej kolejności utworzymy bazę MySQL z wykorzystaniem usługi Amazon RDS a następnie bazę typu nierelacyjnego wykorzystując usługę  DynamoDB.Kontenery Dockerowe - Kontenery stanowią dzisiaj istotny element budowy nowoczesnych aplikacji internetowych. W tej sekcji, przyjrzymy się ich działaniu oraz zobaczymy jak AWS dodatkowo usprawnia proces ich wykorzystywania. Utworzymy własne repozytorium dockerowe z wykorzystaniem usługi Amazon ECR a następnie uruchomimy prostą stronę WWW opartą o kontenery z wykorzystaniem usług ECS oraz Fargate.BigData - W tej sekcji zajmiemy się istotnym elementem analizy dużych zbiorów danych. W tym celu w pierwszej kolejności przygotujemy zbiór testowy (1GB), który następnie będziemy analizować z wykorzystaniem różnego rodzaju narzędzi dostarczanych przez AWS. W tym celu wykorzystamy usługę Amazon EMR - aby utworzyć cluster hadoop-owy. Dodatkowo zobaczymy jak przeanalizować dane z wykorzystaniem usługi Amazon Athena - czyli w postaci serverless. Na tym jednak nie zakończymy, utworzymy również własną hurtownię danych (Amazon Redshift), którą również wykorzystamy do analizy przygotowanych danych. Na koniec omówimy sposoby wizualizacji danych z wykorzystaniem usługi Amazon QuickSight.
8 godziny
online
Przejdź do strony internetowej kursu
Certyfikat
Zajęcia 62
Godziny 8
Rodzaj szkolenia online
Egzamin wstępny
Sprawdzanie prac domowych
Projekt dyplomowy
Pomoc w zatrudnieniu
Język Polski

Kurs Big Data & Database Systems Fundamentals - Plan Szkolenia

2 480 pln.
Kurs jest częścią zestawu umiejętności dla Data Scientist z domeną wiedzy w zakresie danych i technologii. Program nauczania obejmuje kluczowe koncepcje hurtowni danych, w tym hurtownie danych, OLTP i hurtownie danych, a także metody gromadzenia, ekstrakcji i transformacji danych. Uczestnicy zapoznają się również z procesem ładowania danych i ważnymi aspektami Data Marts. Ponadto kurs oferuje badanie podstaw projektowania baz danych i testowania ETL z objaśnieniem cyklu życia oprogramowania, metodologii testowania i odpowiedzialności za testowanie ETL w fazie danych. Kurs stanowi również wprowadzenie do świata big data, jego roli w środowisku korporacyjnym oraz etapów opracowywania strategii big data. Uczestnicy dowiedzą się o komponentach wymaganych dla platformy big data, rozwiązaniach do przechowywania dużych zbiorów danych oraz ograniczeniach tradycyjnych technologii. Kurs obejmuje również przegląd różnych typów baz danych, baz danych NoSQL oraz narzędzi Hadoop i Apache Spark do przetwarzania i analizy danych.
Średniozaawansowany
14 godziny
online, offline
Przejdź do strony internetowej kursu
Certyfikat
Godziny 14
Rodzaj szkolenia online, offline
Egzamin wstępny
Sprawdzanie prac domowych
Projekt dyplomowy
Pomoc w zatrudnieniu
Kategoria wiekowa dla dorosłych
Poziom szkolenia Średniozaawansowany
Język Polski, English

Apache Spark and Scala Tutorial

Dostępne w systemie ratalnym
This Spark training will enable learners to understand how Spark executes in-memory data processing and runs much faster than Hadoop MapReduce. Learners will master Scala programming and will get trained on different APIs which Spark offers such as Spark Streaming, Spark SQL, Spark RDD, Spark MLlib and Spark GraphX. This Edureka course is an integral part of Big Data developer's learning path.
Podstawowe
47 godziny
online
Przejdź do strony internetowej kursu
Certyfikat
Zajęcia 57
Godziny 47
Częstotliwość codziennie
Rodzaj szkolenia online
Egzamin wstępny
Sprawdzanie prac domowych
Projekt dyplomowy
Pomoc w zatrudnieniu
Kategoria wiekowa dla dorosłych
Poziom szkolenia Podstawowe
Język English