Senior MLOps Engineer Oferta pracy

Dołącz j‑labs! Wykorzystuj Machine Learning do analiz komunikacji elektronicznej.
ikona: Dział

Branża

FinTech
ikona: Lokalizacja

Lokalizacja

Kraków / Zdalnie
ikona: Wynagrodzenie

Wynagrodzenie

B2B: 180 – 200 PLN netto/h

Technologie

Red Hat BigQuery RedHat Airflow MS SQL GCP CI/CD Terraform Python Linux Ansible SQL

O projekcie

  • Praca znad rozwiązaniem, które umożliwia globalne monitorowanie komunikacji elektronicznej w sektorze finansowym.
  • Praca z wykorzystaniem Machine Learningu.
  • Monitorowanie kanałów elektronicznych pod kątem:
    • Możliwych naruszeń.
    • Przeciwdziałanie działaniom związanym z nielegalnym obrotem środkami finansowymi i korupcją.
    • Analizy języka stosowanego w komunikacji (zgodność z dobrymi praktykami).
  • Duża skala systemu – wyzwania związane z jego rozmiarami i złożonością.

 

Twoje zadania

  • Budowanie procesu deploymentu modeli ML na środowisko produkcyjne.
  • Monitorowanie funkcjonowania modeli ML w środowisku produkcyjnym.
  • Budowanie i utrzymywanie rozbudowanych systemów opartych na chmurze GCP.
  • Automatyzacja procesów i przepływów pracy, zwłaszcza związanych z utrzymaniem systemów w zgodności z przepisami i aktualnościami.

 

Wymagania

  • Wymagana wiedza techniczna: Python, GCP, Bash, Groovy, Ansible Tower / skrypty Ansible, Jenkins, Terraform, Airflow, GKE, GCE, Vertex AI, BigQuery, Cloud Composer, SQL, Hadoop, ElasticSearch, Network.
  • Silne umiejętności rozwiązywania problemów i analityczne.
  • Dobra znajomość zasad i narzędzi DevSecOps.
  • Doświadczenie w administracji systemami Linux, preferowane Red Hat.
  • Doświadczenie w pracy z narzędziami Continuous Integration (CI), Continuous Delivery (CD) i Continuous Testing.
  • Umiejętność automatyzacji procesów przy użyciu języków skryptowych (np. Terraform, Ansible).

 

Benefity

Budżet rozwojowy
Solidne narzędzia
Opieka medyczna
Zmiana projektu
Gildie Technologiczne
Eventy i integracje
Medicover Sport
Działalność charytatywna

Jak przebiega rekrutacja

1. Wysyłasz CV
2. Rozmowa rekrutacyjna
3. Weryfikacja techniczna
4. Rozmowa z partnerem
5. Otrzymujesz ofertę pracy
6. Witamy się w naszym zespole!
FinTech

Senior MLOps Engineer

B2B: 180 – 200 PLN netto/h

Kraków / Zdalnie

Aplikuj Poleć znajomego
I otrzymaj od nas 7000zł

Masz pytania?

Nasze Rekruterki i nasi Rekruterzy znają IT
Sprawdź FAQ

Ewelina Popielec

IT Recruitment Expert
+48 690 075 202 ewelina.popielec@j-labs.pl

Znasz kogoś, kto idealnie pasuje na to stanowisko?

Prześlij nam CV znajomej osoby, zainteresowanej pracą w j‑labs. Po rozpoczęciu przez nią współpracy otrzymasz 7 000 zł.

Poleć znajomego

Zobacz nowe oferty pracy IT

Zobacz wszystkie oferty

Lista ofert pracy

Lead DevOps Engineer (GCP)

Jesteś pasjonatem automatyzacji, chmury GCP oraz chcesz rozwijać swoje umiejętności w branży bankowej? Dołącz do j‑labs!
B2B: 180 – 220 PLN netto/h
Lokalizacja: Kraków / Zdalnie
FinTech
GCP CI/CD Terraform Python DevOps Jenkins

O projekcie

  • Praca nad rozwiązaniem, które umożliwia globalne monitorowanie komunikacji elektronicznej w sektorze finansowym.
  • Monitorowanie kanałów elektronicznych pod kątem:
    • Możliwych naruszeń.
    • Przeciwdziałanie działaniom związanym z nielegalnym obrotem środkami finansowymi i korupcją.
    • Analizy języka stosowanego w komunikacji (zgodność z dobrymi praktykami).
  • Stabilny projekt z możliwością długoterminowej współpracy.
  • Technologie w projekcie: Python, Bash, Groovy, Ansible Tower / Ansible scripts, Jenkins, Terraform, Airflow, GKE, GCE, Vertex AI, BigQuery, Cloud Composer, SQL, Hadoop, ElasticSearch, Network.
  • Praca hybrydowa – z biura w Krakowie ( 4–6 razy w miesiącu).

 

Twoje zadania

  • Dostarczanie rozwiązań DevOps, w tym budowa i utrzymanie środowisk wspierających wewnętrzne projekty.
  • Budowanie i utrzymywanie systemów opartych na chmurze GCP w skali globalnej.
  • Automatyzacja procesów i przepływów pracy, zwłaszcza tych związanych z utrzymaniem zgodności systemów i ich aktualizacją.
  • Zarządzanie operacyjne, w tym analiza przyczyn głównych lub powtarzających się incydentów, zarządzanie dostarczaniem usług, rozwiązywanie złożonych problemów oraz budowanie planów naprawy przyczyn źródłowych.
  • Współpraca z innymi zespołami w celu zapewnienia ciągłości działania systemów oraz ich zgodności z regulacjami.
  • Zarządzanie zespołem DevOps zlokalizowanym w Krakowie.

 

Wymagania

  • Minimum 7 lat doświadczenia na podobnym stanowisku w tym na stanowisku lidera.
  • Bardzo dobra znajomość Python.
  • Biegła znajomość usług GCP, m.in GKE, GCE i inne.
  • Doświadczenie w korzystaniu z Terraform i Ansible do zarządzania infrastrukturą.
  • Doświadczenie w pracy z narzędziami CI/CD i narzędziami do ciągłego testowania.
  • Silne umiejętności analityczne oraz rozwiązywania problemów.
  • Znajomość zasad DevSecOps oraz narzędzi związanych z tym obszarem.
  • Doświadczenie w administracji systemami Linux, preferowany Red Hat.
  • Znajomość języka angielskiego i polskiego – poziom min. B2

 

Mile widziane

  • Doświadczenie z Hadoop.

 

 

 

Senior Fullstack Developer

Dołącz do j‑labs i pracuj przy rozwoju aplikacji sprzedażowych w branży telekomunikacyjnej.
B2B: 160 – 180 PLN netto/h
Lokalizacja: Warszawa
Telco
Java React Angular REST Spring Spring Boot GIT

O projekcie

  • Pracuj nad nowoczesnymi aplikacjami sprzedażowymi, które wspierają m.in. sprzedaż usług online, tworzenie e-umów i e-faktur.
  • Twoje pomysły i decyzje będą miały realny wpływ na wybór narzędzi i technologii, które wdrażamy.
  • Dołączysz do zgranego zespołu, w którym znajdziesz Fullstack Developerów, Architekta oraz Testerów.
  • Praca w metodyce Scrum, co pozwala elastycznie reagować na potrzeby projektu i tworzyć rozwiązania o najwyższej jakości.
  • Praca w modelu hybrydowym – spotkania w biurze w Warszawie dwa razy w tygodniu.

 

Wymagania

  • Min. 7-letnie doświadczenie programistyczne w Javie.
  • Bardzo dobra znajomość Spring, Spring Boot.
  • Doświadczenie w tworzeniu frontendu (React lub Angular).
  • Znajomość technik BDD, TDD.
  • Znajomość baz relacyjnych i nierelacyjnych.
  • Bardzo dobra znajomość REST.
  • Bardzo dobra znajomość systemu kontroli wersji Git.
  • Bardzo dobra znajomość języka angielskiego (min. B2).

Senior BI Developer/Analytics Engineer

Dołącz do zespołu odpowiedzialnego za budowę infrastruktury danych oraz procesów ETL.
B2B: 180 – 215 PLN netto/h
Lokalizacja: Kraków
FinTech
BigQuery Looker Studio DBT Google Looker ETL tools GCP SQL

O projekcie

  • Projekt obejmuje budowę infrastruktury danych, procesów ETL oraz współpracę z globalnymi zespołami w Europie, Indiach i Ameryce Łacińskiej, ze szczególnym naciskiem na rozbudowę kompetencji inżynierskich w Polsce.
  • Zespół koncentruje się na tworzeniu dashboardów w narzędziach takich jak Google Looker i Looker Studio, przekształcających surowe dane w czytelne, wizualnie atrakcyjne raporty dla klientów wewnętrznych oraz na budowaniu potoków ETL i transformacji danych.
  • Praca hybrydowa – z biura w Krakowie 2x w tygodniu.

 

Twoje zadania

  • Tworzenie dashboardów w narzędziach BI – Google Looker i Looker Studio.
  • Współpraca z interesariuszami w celu zrozumienia ich wymagań i dostarczenia spersonalizowanych dashboardów spełniających ich potrzeby.
  • Wsparcie procesu ETL w DBT i Google BigQuery: pozyskiwanie, oczyszczanie i prezentacja danych – projektowanie, rozwój, testowanie, kodowanie i wdrażanie do produkcji.
  • Nacisk na jakość i ograniczenia czasowe.
  • Praca z globalnymi, różnorodnymi zespołami.
  • Praca w zwinnej kulturze zorientowanej na produkt.

 

Wymagania

  • Co najmniej 7-letnie doświadczenie zawodowe w tym w rozwoju BI, tworzeniu dashboardów oraz w pracy z SQL.
  • Doświadczenie w pracy z Google Looker i Looker Studio.
  • Doświadczenie w inżynierii danych, rozwoju ETL w SQL.
  • Doświadczenie w GCP, Big Query oraz DBT.
  • Doświadczenie w implementacji zautomatyzowanych rozwiązań zapewniających jakość danych.
  • Doświadczenie w podejmowaniu decyzji projektowych dotyczących schematów i hurtowni danych.
  • Doświadczenie w orkiestracji i harmonogramowaniu.
  • Doświadczenie w pracy w środowisku DevOps (czyli myślenie, budowanie i uruchamianie).
  • Doświadczenie w Continuous Integration, Continuous Delivery.
  • Biegła znajomość języka polskiego oraz angielskiego.

 

Mile widziane

  • Doświadczenie w modelowaniu danych.
  • Doświadczenie w budowaniu i/lub zarządzaniu chmurowymi platformami danych.
  • Doświadczenie w używaniu Git, skryptowania powłokowego, Pythona.
  • Doświadczenie w architekturze danych.

 

Senior MLOps Engineer

Chcesz wdrażać modele ML, masz doświadczenie w sektorze bankowym i fascynują Cię technologie chmurowe? Dołącz do j‑labs!
B2B: 180 – 210 PLN netto/h
Lokalizacja: Kraków / Zdalnie
FinTech
AI Airflow GCP CI/CD Terraform Docker Python Jenkins

O projekcie

  • Projekt wykorzystuje narzędzia Machine Learning (ML) w celu poprawy wykrywania oraz zmniejszenia liczby przestępstw finansowych.
  • Rozbudowa i rozwój nowej architektury i procesów MLOps.
  • Współpraca z zespołem Data Scientists w celu przekształcania złożonych modeli ML w rozwiązania produkcyjne. Zespół skupia się na wdrażaniu, utrzymaniu i optymalizacji modeli.
  • Projekt daje możliwość budowania wydajnych i skalowalnych pipeline’ów Machine Learning na platformie Google Cloud, zapewniając jednocześnie integrację ze środowiskami lokalnymi.
  • Technologie w projekcie: Python, PySpark, Docker, Jupyter, Airflow, Java, GCP, BigQuery, Cloud Storage, Cloud Composer, Vertex AI, Dataproc, Compute Engine, CI/CD, Terraform, Terragrunt, Jenkins, Groovy, Crane, Kaniko.
  • Lokalizacja: Kraków, hybryda – 1x w tygodniu praca z biura.

 

Twoje zadania

  • Ścisła współpraca z zespołem Data Scientists w celu przygotowania i wstępnego przetwarzania danych do treningu i oceny modeli.
  • Wdrażanie i zarządzanie modelami ML na platformie Vertex AI w GCP, zapewniając ich wydajność i skalowalność.
  • Opracowywanie technik wizualizacji i wyjaśniania zachowań modeli, aby zapewnić przejrzystość i odpowiedzialność modelu zgodnie z wytycznymi PRA S51/23.
  • Współpraca z zespołami infrastruktury i DevOps w celu ustalenia wydajnych strategii wdrażania i skalowania.
  • Budowanie i utrzymywanie pipeline’ów do treningu, strojenia i wdrażania modeli z wykorzystaniem komponentów Vertex AI i narzędzi GCP, takich jak Cloud Composer, przy użyciu Pythona, Javy i Big Query.
  • Implementowanie zautomatyzowanego monitoringu, aby śledzić wydajność modeli i identyfikować potencjalne problemy.
  • Opracowywanie i utrzymywanie kontroli jakości danych oraz walidacji, w tym rekonsyliacji, zgodnie z zasadami kontroli jakości danych i przechowywania danych.
  • Wdrażanie solidnych środków ochrony danych, aby chronić wrażliwe informacje i modele.
  • Ustanowienie i utrzymywanie najlepszych praktyk w zakresie MLOps, w tym kontrola wersji, pipeline’y CI/CD oraz rejestr modeli i punkty końcowe Vertex AI.
  • Implementowanie narzędzi MLOps w celu uproszczenia procesu rozwoju modeli, treningu, strojenia, wdrażania, monitorowania i wyjaśniania.
  • Identyfikowanie i rozwiązywanie problemów związanych z wydajnością modeli ML i pipeline’ów.
  • Rozwiązywanie problemów związanych z ML, aby zapewnić optymalną wydajność modeli i optymalizację kosztów.

 

Wymagania

  • Minimum 8 lat doświadczenia w programowaniu w języku Python – wiedza na poziomie eksperta.
  • Doświadczenie w pracy z GCP, w tym BigQuery, Cloud Composer i Vertex AI.
  • Biegłość w inżynierii danych i rozwoju pipeline’ów.
  • Doświadczenie w zakresie zasad i narzędzi MLOps.
  • Doskonałe umiejętności komunikacyjne, silne umiejętności analityczne i rozwiązywania problemów.
  • Znajomość języka angielskiego i polskiego – poziom min. B2/C1.

 

Mile widziane

  • Doświadczenie w projektowaniu, tworzeniu oraz utrzymywaniu rozproszonych systemów w języku Java.