About the Role
18 500 – 20 200 PLN
netto /miesiąc
B2BEtat: 100%
APLIKUJĘ
Zapisz się na Job Alert
Dodaj do ulubionych
Udostępnij
Zadaj pytanie
Data Engineer
Scalo
Warszawa
23.5k–26.9k PLN
B2B
#SQL#Python#PySpark
AI/ML Engineer
apreel
Zdalnie
20.2k–26.9k PLN
B2B
#Generative AI#LLM#RAG
Data Scientist
apreel
Zdalnie
20.2k–25.2k PLN
B2B
#BigQuery#Spark#Scala
Podobne ogłoszenia
ZAPISZ SIĘ NA JOB ALERT
Data Engineer @Scalo
Data Science#SQL#Python#PySpark#AWS#Kafka#Hadoop
23.5k–26.9k PLN
Warszawa
Praca hybrydowa
AI/ML Engineer @apreel
Data Science#Generative AI#LLM#RAG#LAN#LlamaIndex#OpenShift
20.2k–26.9k PLN
Praca zdalna
Data Scientist @apreel
Data Science#BigQuery#Spark#Scala#Python#GCP
20.2k–25.2k PLN
Praca zdalna
Data Engineer @ConnectPoint
Data Science#SQL#Python#PostgreSQL#ETL#Data warehouse#Databricks
15.0k–20.0k PLN
Warszawa
Senior Data Engineer @Click IT Group
Data Science#SQL#Python#Spark#PySpark
18.5k–21.8k PLN
Praca zdalna
Senior Data Engineer @Scalo
Data Science#Python#GCP#ETL#Kafka#CI/CD#Spark
23.5k–26.9k PLN
Warszawa
Azure Data Engineer / ka @Codetalent
Data Science#Azure DevOps#Azure Data Stack#SQL#ETL#Spark#Agile
25.0k–31.0k PLN
Praca zdalna
Senior Data Engineer @Scalo
Data Science#PostgreSQL#ETL#Informatica#Kafka#Linux#Python
20.2k–25.2k PLN
Warszawa
Data Engineer @Scalo
Data Science#SQL#Python#JSON#PySpark#Scala
18.5k–20.2k PLN
Warszawa
Machine Learning / MLOPS Engineer @Scalo
Data Science#Python#Kubernetes#GCP#ML
18.5k–19.3k PLN
Warszawa
Poprzednio przeglądane oferty
Inżynier Cloud @apreel
Administrator usług chmurowych#Cloud#GCP#Azure#IaC#Terraform#Ansible
21.8k–24.4k PLN
Warszawa
Mid/Senior IAM Engineer (Azure Data & Security) @1dea
Security#IAM#Security#Azure#Cloud#Databricks#Purview
28.6k–33.6k PLN
Praca zdalna
Project Manager @PTT Consulting
Project Manager#Agile#Scrum#PMP#PRINCE2
21.8k–25.2k PLN
Praca zdalna
Senior Kotlin Developer (Zero Trust | oAuth) @1dea
Java#Java#Kotlin#Zero Trust#oAuth#KMM#OpenID Connect
26.9k–31.9k PLN
Praca zdalna
130819
Data Engineer with GCP
Square One Resources
Warszawa / 100% zdalnie
Data Science
GCPPythonSQLPL/SQLKafkaSpark
Regular
PolskiAngielski
XP
min. 3 lata doświadczenia
Kogo poszukujemy?
Must-Have Requirements
Strong hands-on experience with Google Cloud Platform (GCP) – mandatory
Advanced knowledge of SQL and PL/SQL
Proficiency in Python (Scala is a plus)
Minimum 3 years of experience in a data-focused role (Data Analyst / Data Quality Analyst / Data Engineer)
Solid understanding of data quality management and data governance practices
Experience with ETL processes and real-time data processing
Hands-on experience with Linux and bash scripting
Practical knowledge of Apache Spark and Apache Kafka (Cloudera stack)
Bachelor’s or Master’s degree in Data Science, Computer Science, Statistics, Economics, or a related field
Nice to Have
Experience with CI/CD pipelines and automation tools
Knowledge of metadata management and data quality frameworks
Experience working with complex, multi-source data environments
Background in international or multi-country data projects
Strong communication skills and ability to translate technical topics into business language
Fluent English (spoken and written)
Proactive mindset, attention to detail, and willingness to continuously learn
Czym będziesz się zajmować?
Our Client is one of the leading telecommunications operators in Poland, providing mobile telephony, internet, and advanced digital solutions. As part of a large international group, the company focuses on innovation, digital transformation, and continuous technology development to stay competitive in a rapidly evolving market.
Long-term project focused on the migration of an Oracle Data Warehouse to Google Cloud Platform (GCP).
You will join a data-focused team responsible for building modern, scalable data pipelines and ensuring high data quality in a cloud-based environment.
Responsibilities
Build and maintain data ingestion processes from various source systems into a Data Lake
Design, develop, and optimize complex data pipelines ensuring reliable and efficient data flow
Create, enhance, and maintain frameworks supporting data pipeline development
Implement comprehensive testing frameworks for data pipelines
Collaborate closely with data analysts and data scientists to deliver high-quality, trusted data
Ensure strong data governance, security, and compliance practices
Research and implement new technologies to improve pipeline performance
Integrate data from diverse source systems such as Kafka, MQ, SFTP, databases, APIs, and file shares
Gdzie i jak będziesz pracował?
Puławska 2b, Warszawa
Tryb pracy: Elastyczne godziny pracy
Godziny pracy biura: 7-20
Model pracy
Stacjonarnie
Hybrydowo
100% zdalnie
POKAŻ NA MAPIE
Kim jesteśmy?
Square One Resources
Wielkość firmy: 50
https://www.squareoneresources.pl
W Square One Poland dążymy tam, gdzie nie dotarła jeszcze żadna agencja rekrutacyjna: prosto na orbitę transparentności i działania w duchu win-win. Tradycyjny outsourcing to dla nas za mało. Jesteśmy towarzyszem, opiekunem, wsparciem na każdej drodze rekrutacyjnej podróży.
Niezależnie od tego, czy chcesz zatrudnić specjalistów IT czy szukasz nowych wyzwań przy realizacji projektów technologicznych, Square One to partner dla Ciebie. Dzięki naszemu 30-letniemu doświadczeniu na rynku, jesteśmy w stanie dostosować się do jego wymagań i odpowiedzieć na jego potrzeby.
Współpracujemy z klientami reprezentującymi różne branże, zarówno międzynarodowymi korporacjami, jak i mniejszymi firmami czy startupami. Nie zamykamy się na żadną technologię. Tworzymy zgrany zespół, dla którego nie ma rzeczy niemożliwych, a już na pewno nie w rekrutacji!
LISTA
APLIKUJĘ
pomoc@solid.jobs
ogloszenia@solid.jobs
rodo@solid.jobs
+48 883 004 203
SOLID.Jobs © 2026
SOLID.Jobs
Dlaczego warto?
Cennik
Regulamin
Prywatność
Partnerzy
Znajdź pracę
Oferty pracy
Ścieżki kariery
Jak szukać pracy?
Jak napisać dobre CV?
Profile firm
Raporty
Kalkulator wynagrodzeń
Rozwijaj się
Prasówka
Blog
Podcast
Jak rekrutować?
SOLID.Recruitment
Generatory IT
Bądź w kontakcie
Kontakt
LinkedIn
Facebook
X | Twitter
Youtube
Zgłoś pomysł
Stawiamy na wsparcie całego procesu rekrutacji, ponieważ wystawienie ogłoszenia to jedynie początek tego procesu.
Zachęcamy firmy do prowadzenia rekrutacji zgodnie z naszym autorskim procesem SOLID.Recruitment, który pomaga kandydatom w staniu się lepszymi specjalistami.
Tech Stack
GCPSQLPL/SQLPythonApache SparkApache KafkaETLLinuxBashScalaCI/CDdata governance