Data Engineer Oferta pracy

Bądź konsultantem, prowadź reverse-engineering platform AI i usprawniaj jakość procesów przetwarzania danych!
ikona: Dział

Branża

HI-Tech
ikona: Lokalizacja

Lokalizacja

Zdalnie
ikona: Wynagrodzenie

Wynagrodzenie

B2B: 150 – 180 PLN netto/h

Technologie

AI ETL tools PySpark CI/CD Docker Azure Python Kubernetes Linux

O projekcie

  • Nie lubisz nudy? Dołącz do szybko rozwijającego się start-up’u i wspieraj wiele projektów, zróżnicowanych pod kątem domeny.
  • Czekają na Ciebie wyzwania związane z reverse-engineering.

 

Twoje zadania

  • Wsparcie działu Data w różnorodnych zapytaniach.
  • Monitorowanie kondycji systemu.
  • Rozwiązywanie problemów technicznych / zarządzanie incydentami.
  • Pomoc i wsparcie klientów oraz proponowanie i wdrażanie usprawnień.
  • Koordynacja utrzymania infrastruktury i platformy (aktualizacje).
  • Integracja innych narzędzi na platformie, takich jak narzędzia BI i ETL.
  • Monitorowanie przepływów danych na platformie w celu identyfikacji problemów z wydajnością.

 

Wymagania

  • Doświadczenie w pracy z wieloma projektami/klientami.
  • Doświadczenie w utrzymywaniu pipeline’ów.
  • Wiedza z zakresu administracji systemem Linux oraz podstawowa wiedza o sieciach.
  • Wiedza na temat przynajmniej jednego z następujących zagadnień: rozproszone przetwarzanie danych (Spark), orkiestracja przepływów ETL/ELT, zarządzanie przepływami danych.
  • Komunikatywność i pragmatyczne podejście do rozwiązywania problemów.

 

Mile widziane

  • Wiedza na temat jednej z głównych chmur (AWS/GCP/Azure).
  • Doświadczenie hands-on z projektami AI.
  • Znajomość koncepcji konteneryzacji (Docker, Kubernetes).
  • Znajomość Palantir Foundry.

Benefity

Budżet rozwojowy
Solidne narzędzia
Opieka medyczna
Zmiana projektu
Gildie Technologiczne
Eventy i integracje
Medicover Sport
Działalność charytatywna

Jak przebiega rekrutacja

1. Wysyłasz CV
2. Rozmowa rekrutacyjna
3. Weryfikacja techniczna
4. Rozmowa z partnerem
5. Otrzymujesz ofertę pracy
6. Witamy się w naszym zespole!
HI-Tech

Data Engineer

B2B: 150 – 180 PLN netto/h

Zdalnie

Aplikuj Poleć znajomego
I otrzymaj od nas 7000zł

Masz pytania?

Nasze Rekruterki i nasi Rekruterzy znają IT
Sprawdź FAQ

Agata Zych

Senior IT Recruitment Specialist
+48 791 790 922 agata.zych@j-labs.pl

Znasz kogoś, kto idealnie pasuje na to stanowisko?

Prześlij nam CV znajomej osoby, zainteresowanej pracą w j‑labs. Po rozpoczęciu przez nią współpracy otrzymasz 7 000 zł.

Poleć znajomego

Zobacz nowe oferty pracy IT

Zobacz wszystkie oferty

Lista ofert pracy

Lead DevOps Engineer (GCP)

Jesteś pasjonatem automatyzacji, chmury GCP oraz chcesz rozwijać swoje umiejętności w branży bankowej? Dołącz do j‑labs!
B2B: 180 – 220 PLN netto/h
Lokalizacja: Kraków / Zdalnie
FinTech
GCP CI/CD Terraform Python DevOps Jenkins

O projekcie

  • Praca nad rozwiązaniem, które umożliwia globalne monitorowanie komunikacji elektronicznej w sektorze finansowym.
  • Monitorowanie kanałów elektronicznych pod kątem:
    • Możliwych naruszeń.
    • Przeciwdziałanie działaniom związanym z nielegalnym obrotem środkami finansowymi i korupcją.
    • Analizy języka stosowanego w komunikacji (zgodność z dobrymi praktykami).
  • Stabilny projekt z możliwością długoterminowej współpracy.
  • Technologie w projekcie: Python, Bash, Groovy, Ansible Tower / Ansible scripts, Jenkins, Terraform, Airflow, GKE, GCE, Vertex AI, BigQuery, Cloud Composer, SQL, Hadoop, ElasticSearch, Network.
  • Praca hybrydowa – z biura w Krakowie ( 4–6 razy w miesiącu).

 

Twoje zadania

  • Dostarczanie rozwiązań DevOps, w tym budowa i utrzymanie środowisk wspierających wewnętrzne projekty.
  • Budowanie i utrzymywanie systemów opartych na chmurze GCP w skali globalnej.
  • Automatyzacja procesów i przepływów pracy, zwłaszcza tych związanych z utrzymaniem zgodności systemów i ich aktualizacją.
  • Zarządzanie operacyjne, w tym analiza przyczyn głównych lub powtarzających się incydentów, zarządzanie dostarczaniem usług, rozwiązywanie złożonych problemów oraz budowanie planów naprawy przyczyn źródłowych.
  • Współpraca z innymi zespołami w celu zapewnienia ciągłości działania systemów oraz ich zgodności z regulacjami.
  • Zarządzanie zespołem DevOps zlokalizowanym w Krakowie.

 

Wymagania

  • Minimum 7 lat doświadczenia na podobnym stanowisku w tym na stanowisku lidera.
  • Bardzo dobra znajomość Python.
  • Biegła znajomość usług GCP, m.in GKE, GCE i inne.
  • Doświadczenie w korzystaniu z Terraform i Ansible do zarządzania infrastrukturą.
  • Doświadczenie w pracy z narzędziami CI/CD i narzędziami do ciągłego testowania.
  • Silne umiejętności analityczne oraz rozwiązywania problemów.
  • Znajomość zasad DevSecOps oraz narzędzi związanych z tym obszarem.
  • Doświadczenie w administracji systemami Linux, preferowany Red Hat.
  • Znajomość języka angielskiego i polskiego – poziom min. B2

 

Mile widziane

  • Doświadczenie z Hadoop.

 

 

 

Senior MLOps Engineer

Dołącz j‑labs! Wykorzystuj Machine Learning do analiz komunikacji elektronicznej.
B2B: 180 – 200 PLN netto/h
Lokalizacja: Kraków / Zdalnie
FinTech
Red Hat BigQuery RedHat Airflow MS SQL GCP CI/CD Terraform Python Linux Ansible SQL

O projekcie

  • Praca znad rozwiązaniem, które umożliwia globalne monitorowanie komunikacji elektronicznej w sektorze finansowym.
  • Praca z wykorzystaniem Machine Learningu.
  • Monitorowanie kanałów elektronicznych pod kątem:
    • Możliwych naruszeń.
    • Przeciwdziałanie działaniom związanym z nielegalnym obrotem środkami finansowymi i korupcją.
    • Analizy języka stosowanego w komunikacji (zgodność z dobrymi praktykami).
  • Duża skala systemu – wyzwania związane z jego rozmiarami i złożonością.

 

Twoje zadania

  • Budowanie procesu deploymentu modeli ML na środowisko produkcyjne.
  • Monitorowanie funkcjonowania modeli ML w środowisku produkcyjnym.
  • Budowanie i utrzymywanie rozbudowanych systemów opartych na chmurze GCP.
  • Automatyzacja procesów i przepływów pracy, zwłaszcza związanych z utrzymaniem systemów w zgodności z przepisami i aktualnościami.

 

Wymagania

  • Wymagana wiedza techniczna: Python, GCP, Bash, Groovy, Ansible Tower / skrypty Ansible, Jenkins, Terraform, Airflow, GKE, GCE, Vertex AI, BigQuery, Cloud Composer, SQL, Hadoop, ElasticSearch, Network.
  • Silne umiejętności rozwiązywania problemów i analityczne.
  • Dobra znajomość zasad i narzędzi DevSecOps.
  • Doświadczenie w administracji systemami Linux, preferowane Red Hat.
  • Doświadczenie w pracy z narzędziami Continuous Integration (CI), Continuous Delivery (CD) i Continuous Testing.
  • Umiejętność automatyzacji procesów przy użyciu języków skryptowych (np. Terraform, Ansible).

 

Senior Fullstack Developer

Dołącz do j‑labs i pracuj przy rozwoju aplikacji sprzedażowych w branży telekomunikacyjnej.
B2B: 160 – 180 PLN netto/h
Lokalizacja: Warszawa
Telco
Java React Angular REST Spring Spring Boot GIT

O projekcie

  • Pracuj nad nowoczesnymi aplikacjami sprzedażowymi, które wspierają m.in. sprzedaż usług online, tworzenie e-umów i e-faktur.
  • Twoje pomysły i decyzje będą miały realny wpływ na wybór narzędzi i technologii, które wdrażamy.
  • Dołączysz do zgranego zespołu, w którym znajdziesz Fullstack Developerów, Architekta oraz Testerów.
  • Praca w metodyce Scrum, co pozwala elastycznie reagować na potrzeby projektu i tworzyć rozwiązania o najwyższej jakości.
  • Praca w modelu hybrydowym – spotkania w biurze w Warszawie dwa razy w tygodniu.

 

Wymagania

  • Min. 7-letnie doświadczenie programistyczne w Javie.
  • Bardzo dobra znajomość Spring, Spring Boot.
  • Doświadczenie w tworzeniu frontendu (React lub Angular).
  • Znajomość technik BDD, TDD.
  • Znajomość baz relacyjnych i nierelacyjnych.
  • Bardzo dobra znajomość REST.
  • Bardzo dobra znajomość systemu kontroli wersji Git.
  • Bardzo dobra znajomość języka angielskiego (min. B2).

Senior BI Developer/Analytics Engineer

Dołącz do zespołu odpowiedzialnego za budowę infrastruktury danych oraz procesów ETL.
B2B: 180 – 215 PLN netto/h
Lokalizacja: Kraków
FinTech
BigQuery Looker Studio DBT Google Looker ETL tools GCP SQL

O projekcie

  • Projekt obejmuje budowę infrastruktury danych, procesów ETL oraz współpracę z globalnymi zespołami w Europie, Indiach i Ameryce Łacińskiej, ze szczególnym naciskiem na rozbudowę kompetencji inżynierskich w Polsce.
  • Zespół koncentruje się na tworzeniu dashboardów w narzędziach takich jak Google Looker i Looker Studio, przekształcających surowe dane w czytelne, wizualnie atrakcyjne raporty dla klientów wewnętrznych oraz na budowaniu potoków ETL i transformacji danych.
  • Praca hybrydowa – z biura w Krakowie 2x w tygodniu.

 

Twoje zadania

  • Tworzenie dashboardów w narzędziach BI – Google Looker i Looker Studio.
  • Współpraca z interesariuszami w celu zrozumienia ich wymagań i dostarczenia spersonalizowanych dashboardów spełniających ich potrzeby.
  • Wsparcie procesu ETL w DBT i Google BigQuery: pozyskiwanie, oczyszczanie i prezentacja danych – projektowanie, rozwój, testowanie, kodowanie i wdrażanie do produkcji.
  • Nacisk na jakość i ograniczenia czasowe.
  • Praca z globalnymi, różnorodnymi zespołami.
  • Praca w zwinnej kulturze zorientowanej na produkt.

 

Wymagania

  • Co najmniej 7-letnie doświadczenie zawodowe w tym w rozwoju BI, tworzeniu dashboardów oraz w pracy z SQL.
  • Doświadczenie w pracy z Google Looker i Looker Studio.
  • Doświadczenie w inżynierii danych, rozwoju ETL w SQL.
  • Doświadczenie w GCP, Big Query oraz DBT.
  • Doświadczenie w implementacji zautomatyzowanych rozwiązań zapewniających jakość danych.
  • Doświadczenie w podejmowaniu decyzji projektowych dotyczących schematów i hurtowni danych.
  • Doświadczenie w orkiestracji i harmonogramowaniu.
  • Doświadczenie w pracy w środowisku DevOps (czyli myślenie, budowanie i uruchamianie).
  • Doświadczenie w Continuous Integration, Continuous Delivery.
  • Biegła znajomość języka polskiego oraz angielskiego.

 

Mile widziane

  • Doświadczenie w modelowaniu danych.
  • Doświadczenie w budowaniu i/lub zarządzaniu chmurowymi platformami danych.
  • Doświadczenie w używaniu Git, skryptowania powłokowego, Pythona.
  • Doświadczenie w architekturze danych.