Senior Cloud Data Engineer

Miejsce pracy zdalnie (wizyty w biurze w Warszawie 1x w miesiącu)
Wynagrodzenie 120-145 PLN/h + VAT
Rodzaj umowy B2B
Region Polska
Opis oferty

Miejsce pracy: głównie zdalnie (wizyty w biurze w Warszawie 1x w miesiącu, czasem rzadziej)

Start: ASAP (max. 1 miesiąc wypowiedzenia)

Współpraca: B2B z ITFS

Wynagrodzenie: 120-145 zł/h + VAT (bez płatnych urlopów)

Branża: żywnościowa

Projekt: obszar giełdowy, dział ryzyka, migracja hurtowni danych Oracle

Proces rekrutacyjny: krótka rozmowa z ITFS (ok. 15 min) ➡ 2 rozmowy miękko-techniczne z Klientem ➡ decyzja

Zakres obowiązków
  • Implementacja nowych funkcjonalności i logiki zgodnie z wymaganiami biznesowymi w środowisku Google Cloud Platform (głównie BigQuery i Dataform)
  • Praca z relacyjnymi i wielowymiarowymi bazami danych
  • Udział w dopasowywaniu i skalowaniu rozwiązań, diagnozowaniu problemów, optymalizacji kodu i kontrolach jakości po wdrożeniu, z naciskiem na wydajność, efektywność zasobów i optymalizację kosztów w GCP
  • Rozwój i optymalizacja procesów transformacji i ładowania danych
  • Migracja i modernizacja istniejących struktur danych Oracle do BigQuery z wykorzystaniem natywnych funkcji chmurowych
  • Skuteczne wykorzystanie standardowych komponentów pipeline firmy, proponowanie dostosowań i najlepszych praktyk w metodach data engineering
  • Współpraca z zespołami integracji oraz data & analytics w celu zapewnienia i utrzymania zautomatyzowanej linii danych podczas migracji
  • Zapewnienie zgodności z regulacjami prywatności i bezpieczeństwa danych; integracja standardów bezpieczeństwa firmy z środowiskiem GCP
  • Współpraca z zespołami wielofunkcyjnymi, analitykami danych i interesariuszami biznesowymi w celu zrozumienia i doprecyzowania wymagań danych
  • Mentoring młodszych członków zespołu
Poszukiwane kompetencje
  • Min. 5 lat doświadczenia zawodowego z Oracle PL/SQL, w tym procedur składowanych, funkcji, pakietów i triggerów
  • Wykształcenie wyższe informatyczne lub pokrewne
  • Min. 2-3 lata doświadczenia z GCP BigQuery i Dataform (modelowanie danych, optymalizacja zapytań, manipulacja danymi) – najbardziej preferowane; dopuszczalne doświadczenie z Azure/AWS
  • Praktyka z systemami kontroli wersji Git/Bitbucket/Azure Repos
  • Doświadczenie w pracy z hurtowniami danych i procesami ETL
  • Umiejętność integracji różnych źródeł danych
  • Dobra znajomość analitycznych funkcji Oracle
  • Znajomość j. angielskiego na poziomie B2+

 

Mile widziane

  • Znajomość Tableau
  • Doświadczenie z SAP i SAP BW
  • Podstawowa wiedza o frameworku Agile
Oferujemy
  • Przejrzyste warunki współpracy w firmie o pewnej i stabilnej pozycji rynkowej oraz możliwość rozwoju
  • Możliwość skorzystania z benefitów (dofinansowanie do pakietu medycznego Enel-med i Multisport oraz podstawowy pakiet księgowy - darmowy do trzech faktur miesięcznie)
Data ostatniej modyfikacji czwartek, 15 stycznia 2026