CLIENT ZONE
Data QA Specialist
Wrocław
Data QA Specialist
Lokalizacja: praca zdalna (Polska)Liczba potrzebnych osób: 1 FTEWynagrodzenie: stawka B2B – do ustaleniaDługość kontraktu: do ustalenia (start ASAP)Start: ASAPWaluta: PLN
🗓️ Termin składania aplikacji:
Rekrutacja aktywna – kandydaci weryfikowani na bieżąco.
🌍 O projekcie:
Dla jednego z naszych klientów poszukujemy Data QA Specialist, który dołączy do zespołu odpowiedzialnego za zapewnienie jakości w obszarze danych – w szczególności w środowisku opartym na ELT, Snowflake, narzędziach modelowania danych oraz platformach wizualizacyjnych.
Rola obejmuje testowanie przepływów danych, raportów, modeli oraz procesów integracji, a także pracę w nowoczesnym ekosystemie opartym na dbt, Pythonie, SQL i narzędziach AWS.
Projekt koncentruje się na automatyzacji, jakości danych, testach opartych o dane oraz zapewnieniu rzetelności procesów analitycznych.
🎯 Zakres obowiązków:
• testowanie przepływów danych w środowisku ELT,• weryfikacja modeli danych w Snowflake i dbt,• testowanie raportów oraz dashboardów (np. ThoughtSpot),• analiza danych – SQL (agregacje, joiny, CTE, window functions),• praca z Pythonem (Jupyter, Pandas) w kontekście weryfikacji danych,• testy data-driven i database testing,• współpraca z Data Engineers, analitykami i zespołami produktowymi,• testowanie pipeline’ów danych i monitorowanie jakości danych,• praca z narzędziami AWS (S3, Athena, QuickSight),• tworzenie i utrzymanie scenariuszy BDD (Cucumber),• weryfikacja integralności i spójności danych w różnych warstwach (lake, warehouse, marts).
🧠 Wymagania
Core knowledge areas:• hurtownie danych / data lakes / data marts,• znajomość procesów data engineering,• ETL vs ELT (aktualny projekt wykorzystuje ELT),• testowanie baz danych i przepływów danych,• SQL — bardzo dobra znajomość (joins, unions, CTEs, window functions, agregacje),• testowanie raportów,• Snowflake,• dbt – znajomość SQL, Jinja templates, YAML,• narzędzia do wizualizacji danych (preferowany ThoughtSpot),• Python / Jupyter / Pandas,• BDD (Cucumber),• AWS (S3, Athena, QuickSight).
Technologie / umiejętności techniczne:• Data Engineering• Data Mining• Data Modeling• Data Visualization• Data Warehouse & BI• Data-Driven Testing• ETL / ELT• Pandas• Python• Snowflake• SQL
⚙️ Technologie (stack):
• Snowflake• dbt (SQL, Jinja, YAML)• SQL (zaawansowany)• Python + Pandas + Jupyter• ThoughtSpot (lub inne narzędzia BI)• AWS: S3, Athena, QuickSight• Cucumber (BDD)
🕒 Organizacja pracy:
• start: ASAP,• zaangażowanie: pełne FTE,• praca w pełni zdalna,• godziny pracy do uzgodnienia, standardowo w przedziale 9:00–17:00 (PL).
📄 Proces rekrutacji:
1️⃣ Wstępna rozmowa techniczna / weryfikacja kompetencji2️⃣ Rozmowa z klientem
💼 W ramach oferty zapewniamy:
• udział w projekcie data/analytics działającym w oparciu o najnowsze technologie,• pracę w ekosystemie Snowflake + dbt + Python + AWS,• możliwość wpływu na jakość danych i procesy testowania,• stabilny kontrakt i transparentny proces rekrutacyjny,• wsparcie DorwijNerda na każdym etapie współpracy.
🚀 Jak aplikować:
Jeśli masz doświadczenie w Data QA i chcesz pracować w nowoczesnym środowisku opartym na ELT i Snowflake – wyślij swoją aplikację!
KRAZ 19622