Senior DevOps Engineer Oferta pracy

Dołącz do naszego zespołu odpowiedzialnego za budowanie światowej klasy platformy i usługi na podstawie ofert publicznej chmury Amazon Web Services (AWS).
ikona: Dział

Branża

FinTech
ikona: Lokalizacja

Lokalizacja

Kraków
ikona: Wynagrodzenie

Wynagrodzenie

B2B: 180 – 220 PLN netto/h

Ups, ta oferta jest już nieaktualna...

Zobacz inne oferty

Technologie

Terraform Docker Python Kubernetes AWS Kafka DevOps Ansible GIT

O projekcie

  • Realizowany dla jednego z największych globalnych banków.
  • Projekt zajmujący się autoryzacją – obsługuje cały ruch w banku. Dostarczanie produktów i usług (PaaS), które poprawiają wydajność. Pomagają w definiowaniu i prezentowaniu najlepszych praktyk i wysokich standardów bezpieczeństwa.
  • Praca hybrydowa: 1 – 2 dni w tygodniu praca z biura w Krakowie.
  • Stack technologiczny – AWS (S3, EC2, VPC i Lambdas itp.), Kubernetes, Istio, Docker, Kafka, AppDynamics, CloudWatch, DataDog, CloudWatch Insights, Splunk, Terraform, Ansible, Bash i Python, GitHub, Test Driven Development, Jenkins CI.
  • Zespół: 6-8 osób.

 

Twoje zadania

  • Będziesz częścią zespołu zajmującego się rozwojem aplikacji.
  • Odpowiedzialność za projektowanie, dostarczanie i operowanie centralnymi rozwiązaniami chmurowymi w celu rozwiązywania wspólnych problemów inżynierskich i operacyjnych, takich jak monitorowanie, logowanie, budowanie, optymalizacja kosztów itp.
  • Budowanie i zarządzanie środowiskami chmurowymi w celu umożliwienia wdrożeń aplikacji do testów i produkcji.
  • Tworzenie powtarzalnych rozwiązań na infrastrukturze chmurowej za pomocą metod Infrastructure as Code (np. Terraform i Ansible).
  • Zapewnianie, że rozwiązania hostowane w chmurze są zintegrowane z centralnie dostarczanymi usługami firmy lub je konsumują.
  • Branie udziału w przeglądach kodu i zatwierdzaniu oraz definiowaniu ciągle poprawiających się standardów kodowania.
  • Rozwijanie i utrzymanie specyficznych dla aplikacji obrazów AMI przy użyciu zasad Infrastructure as Code (np. Packer i Ansible).

 

Wymagania

  • Minimum 5 lat doświadczenia na podobnym stanowisku.
  • Biegła znajomość usług AWS, takich jak S3, EC2, VPC, Lambda i inne.
  • Doświadczenie w zarządzaniu klastrami Kubernetes oraz praktyczna znajomość Dockera, w tym tworzenie i zarządzanie kontenerami.
  • Umiejętność konfiguracji i używania narzędzi takich jak AppDynamics, CloudWatch, DataDog, CloudWatch Insights, Splunk.
  • Umiejętność tworzenia oraz utrzymania pipeline’ów CI/CD.
  • Doświadczenie w korzystaniu z Terraform i Ansible do zarządzania infrastrukturą
  • Znajomość Bash/Python na poziomie pozwalającym na automatyzację zadań oraz tworzenie skryptów.
  • Znajomość języka angielskiego i polskiego – poziom min. B2

Benefity

Budżet rozwojowy
Solidne narzędzia
Opieka medyczna
Zmiana projektu
Gildie Technologiczne
Eventy i integracje
Medicover Sport
Działalność charytatywna

Jak przebiega rekrutacja

1. Wysyłasz CV
2. Rozmowa rekrutacyjna
3. Weryfikacja techniczna
4. Rozmowa z partnerem
5. Otrzymujesz ofertę pracy
6. Witamy się w naszym zespole!
FinTech

Senior DevOps Engineer

B2B: 180 – 220 PLN netto/h

Kraków

Ups, ta oferta jest już nieaktualna...

Zobacz inne oferty

Masz pytania?

Nasze Rekruterki i nasi Rekruterzy znają IT
Sprawdź FAQ

Agata Zych

Senior IT Recruitment Specialist
+48 791 790 922 agata.zych@j-labs.pl

Zobacz nowe oferty pracy IT

Zobacz wszystkie oferty

Lista ofert pracy

Lead DevOps Engineer (GCP)

Jesteś pasjonatem automatyzacji, chmury GCP oraz chcesz rozwijać swoje umiejętności w branży bankowej? Dołącz do j‑labs!
B2B: 180 – 220 PLN netto/h
Lokalizacja: Kraków / Zdalnie
FinTech
GCP CI/CD Terraform Python DevOps Jenkins

O projekcie

  • Praca nad rozwiązaniem, które umożliwia globalne monitorowanie komunikacji elektronicznej w sektorze finansowym.
  • Monitorowanie kanałów elektronicznych pod kątem:
    • Możliwych naruszeń.
    • Przeciwdziałanie działaniom związanym z nielegalnym obrotem środkami finansowymi i korupcją.
    • Analizy języka stosowanego w komunikacji (zgodność z dobrymi praktykami).
  • Stabilny projekt z możliwością długoterminowej współpracy.
  • Technologie w projekcie: Python, Bash, Groovy, Ansible Tower / Ansible scripts, Jenkins, Terraform, Airflow, GKE, GCE, Vertex AI, BigQuery, Cloud Composer, SQL, Hadoop, ElasticSearch, Network.
  • Praca hybrydowa – z biura w Krakowie ( 4–6 razy w miesiącu).

 

Twoje zadania

  • Dostarczanie rozwiązań DevOps, w tym budowa i utrzymanie środowisk wspierających wewnętrzne projekty.
  • Budowanie i utrzymywanie systemów opartych na chmurze GCP w skali globalnej.
  • Automatyzacja procesów i przepływów pracy, zwłaszcza tych związanych z utrzymaniem zgodności systemów i ich aktualizacją.
  • Zarządzanie operacyjne, w tym analiza przyczyn głównych lub powtarzających się incydentów, zarządzanie dostarczaniem usług, rozwiązywanie złożonych problemów oraz budowanie planów naprawy przyczyn źródłowych.
  • Współpraca z innymi zespołami w celu zapewnienia ciągłości działania systemów oraz ich zgodności z regulacjami.
  • Zarządzanie zespołem DevOps zlokalizowanym w Krakowie.

 

Wymagania

  • Minimum 7 lat doświadczenia na podobnym stanowisku w tym na stanowisku lidera.
  • Bardzo dobra znajomość Python.
  • Biegła znajomość usług GCP, m.in GKE, GCE i inne.
  • Doświadczenie w korzystaniu z Terraform i Ansible do zarządzania infrastrukturą.
  • Doświadczenie w pracy z narzędziami CI/CD i narzędziami do ciągłego testowania.
  • Silne umiejętności analityczne oraz rozwiązywania problemów.
  • Znajomość zasad DevSecOps oraz narzędzi związanych z tym obszarem.
  • Doświadczenie w administracji systemami Linux, preferowany Red Hat.
  • Znajomość języka angielskiego i polskiego – poziom min. B2

 

Mile widziane

  • Doświadczenie z Hadoop.

 

 

 

Senior MLOps Engineer

Dołącz j‑labs! Wykorzystuj Machine Learning do analiz komunikacji elektronicznej.
B2B: 180 – 200 PLN netto/h
Lokalizacja: Kraków / Zdalnie
FinTech
Airflow RedHat BigQuery Red Hat MS SQL GCP CI/CD Terraform Python Linux Ansible SQL

O projekcie

  • Praca znad rozwiązaniem, które umożliwia globalne monitorowanie komunikacji elektronicznej w sektorze finansowym.
  • Praca z wykorzystaniem Machine Learningu.
  • Monitorowanie kanałów elektronicznych pod kątem:
    • Możliwych naruszeń.
    • Przeciwdziałanie działaniom związanym z nielegalnym obrotem środkami finansowymi i korupcją.
    • Analizy języka stosowanego w komunikacji (zgodność z dobrymi praktykami).
  • Duża skala systemu – wyzwania związane z jego rozmiarami i złożonością.

 

Twoje zadania

  • Budowanie procesu deploymentu modeli ML na środowisko produkcyjne.
  • Monitorowanie funkcjonowania modeli ML w środowisku produkcyjnym.
  • Budowanie i utrzymywanie rozbudowanych systemów opartych na chmurze GCP.
  • Automatyzacja procesów i przepływów pracy, zwłaszcza związanych z utrzymaniem systemów w zgodności z przepisami i aktualnościami.

 

Wymagania

  • Wymagana wiedza techniczna: Python, GCP, Bash, Groovy, Ansible Tower / skrypty Ansible, Jenkins, Terraform, Airflow, GKE, GCE, Vertex AI, BigQuery, Cloud Composer, SQL, Hadoop, ElasticSearch, Network.
  • Silne umiejętności rozwiązywania problemów i analityczne.
  • Dobra znajomość zasad i narzędzi DevSecOps.
  • Doświadczenie w administracji systemami Linux, preferowane Red Hat.
  • Doświadczenie w pracy z narzędziami Continuous Integration (CI), Continuous Delivery (CD) i Continuous Testing.
  • Umiejętność automatyzacji procesów przy użyciu języków skryptowych (np. Terraform, Ansible).

 

Senior Fullstack Developer

Dołącz do j‑labs i pracuj przy rozwoju aplikacji sprzedażowych w branży telekomunikacyjnej.
B2B: 160 – 180 PLN netto/h
Lokalizacja: Warszawa
Telco
Java React Angular REST Spring Spring Boot GIT

O projekcie

  • Pracuj nad nowoczesnymi aplikacjami sprzedażowymi, które wspierają m.in. sprzedaż usług online, tworzenie e-umów i e-faktur.
  • Twoje pomysły i decyzje będą miały realny wpływ na wybór narzędzi i technologii, które wdrażamy.
  • Dołączysz do zgranego zespołu, w którym znajdziesz Fullstack Developerów, Architekta oraz Testerów.
  • Praca w metodyce Scrum, co pozwala elastycznie reagować na potrzeby projektu i tworzyć rozwiązania o najwyższej jakości.
  • Praca w modelu hybrydowym – spotkania w biurze w Warszawie dwa razy w tygodniu.

 

Wymagania

  • Min. 7-letnie doświadczenie programistyczne w Javie.
  • Bardzo dobra znajomość Spring, Spring Boot.
  • Doświadczenie w tworzeniu frontendu (React lub Angular).
  • Znajomość technik BDD, TDD.
  • Znajomość baz relacyjnych i nierelacyjnych.
  • Bardzo dobra znajomość REST.
  • Bardzo dobra znajomość systemu kontroli wersji Git.
  • Bardzo dobra znajomość języka angielskiego (min. B2).

Senior BI Developer/Analytics Engineer

Dołącz do zespołu odpowiedzialnego za budowę infrastruktury danych oraz procesów ETL.
B2B: 180 – 215 PLN netto/h
Lokalizacja: Kraków
FinTech
DBT ETL tools Google Looker Looker Studio BigQuery GCP SQL

O projekcie

  • Projekt obejmuje budowę infrastruktury danych, procesów ETL oraz współpracę z globalnymi zespołami w Europie, Indiach i Ameryce Łacińskiej, ze szczególnym naciskiem na rozbudowę kompetencji inżynierskich w Polsce.
  • Zespół koncentruje się na tworzeniu dashboardów w narzędziach takich jak Google Looker i Looker Studio, przekształcających surowe dane w czytelne, wizualnie atrakcyjne raporty dla klientów wewnętrznych oraz na budowaniu potoków ETL i transformacji danych.
  • Praca hybrydowa – z biura w Krakowie 2x w tygodniu.

 

Twoje zadania

  • Tworzenie dashboardów w narzędziach BI – Google Looker i Looker Studio.
  • Współpraca z interesariuszami w celu zrozumienia ich wymagań i dostarczenia spersonalizowanych dashboardów spełniających ich potrzeby.
  • Wsparcie procesu ETL w DBT i Google BigQuery: pozyskiwanie, oczyszczanie i prezentacja danych – projektowanie, rozwój, testowanie, kodowanie i wdrażanie do produkcji.
  • Nacisk na jakość i ograniczenia czasowe.
  • Praca z globalnymi, różnorodnymi zespołami.
  • Praca w zwinnej kulturze zorientowanej na produkt.

 

Wymagania

  • Co najmniej 7-letnie doświadczenie zawodowe w tym w rozwoju BI, tworzeniu dashboardów oraz w pracy z SQL.
  • Doświadczenie w pracy z Google Looker i Looker Studio.
  • Doświadczenie w inżynierii danych, rozwoju ETL w SQL.
  • Doświadczenie w GCP, Big Query oraz DBT.
  • Doświadczenie w implementacji zautomatyzowanych rozwiązań zapewniających jakość danych.
  • Doświadczenie w podejmowaniu decyzji projektowych dotyczących schematów i hurtowni danych.
  • Doświadczenie w orkiestracji i harmonogramowaniu.
  • Doświadczenie w pracy w środowisku DevOps (czyli myślenie, budowanie i uruchamianie).
  • Doświadczenie w Continuous Integration, Continuous Delivery.
  • Biegła znajomość języka polskiego oraz angielskiego.

 

Mile widziane

  • Doświadczenie w modelowaniu danych.
  • Doświadczenie w budowaniu i/lub zarządzaniu chmurowymi platformami danych.
  • Doświadczenie w używaniu Git, skryptowania powłokowego, Pythona.
  • Doświadczenie w architekturze danych.