About the Role
Projekt-Nr 35598-06
DevOps Engineer (m/w) für GCP und ein Geospatial / Weather Data Engineer (m/w)
Projektangebot für Freelancer
Position: IT Beratung / Consulting
Projektleitung / Organisation / Koordination
Software-Entwicklung / Programmierung
Projekttyp: Freiberufliche Position (Freelancer)
Projektbeschreibung
Wir suchen für unsren Kunden zwei Positionen (gerne auch in einer Person vereint)
Es geht um den Aufbau einer Weather Data Pipeline für Energy Trading.
gesucht wird ein DevOps Engineer für GCP und ein Geospatial / Weather Data Engineer (exotisch, aber hier unabdingbar)
1. Core Cloud & Infrastruktur (GCP)
Die Plattform wird auf GCP gehostet. Der Ingenieur benötigt nachweisliche Erfahrung im Aufbau von Hochleistungsrechnerumgebungen.
• Compute Engine: Fachwissen in der Verwaltung von GPU-Instanzen (NVIDIA A100s). Muss Spot-/Preemptible-Lebenszyklen und Committed Use Discounts (CUDs) verstehen.
• Speicherarchitektur: Möglichkeit, skalierbare Speicherhierarchien zu entwerfen. Erfahrung in der Verwaltung ausgeglichener persistenter Festplatten mit hohem I/O-Vorgang für GPU-Caching. Große Ausgabetensoren müssen zur Archivierung nahtlos zu GCS migriert werden.
• Netzwerk und Sicherheit: Konfigurieren von VPCs, API-Gateways und IAM-Rollen basierend auf den Best Practices des Kunden. Dies gewährleistet den sicheren Datenabruf von externen APIs und die sichere Weiterleitung an nachgelagerte Anwendungen.
2. Datenverarbeitung & -formatierung
Python ist die obligatorische Programmiersprache für dieses Projekt. Der/Die Entwickler/in muss über fundierte Kenntnisse des wissenschaftlichen Python-Stacks verfügen.
• Multidimensionale Datenverarbeitung: Expertenkenntnisse in xarray und numpy zur Bearbeitung massiver atmosphärischer Gitter.
• Cloud-native Formate: Tiefes Verständnis des Zarr-Speicherformats. Optimierung von Chunking-Strategien für parallele Operationen auf GCS erforderlich. Erfahrung in der Konvertierung älterer Formate (GRIB, NetCDF) nach Zarr ist unerlässlich.
• Paralleles Rechnen: Erfahrung mit Dask zur Verteilung speicherintensiver Aufgaben auf mehrere Kerne oder Knoten.
• CUDA & Geschäftsintegration: Verwaltung von PyTorch/CUDA-Abhängigkeiten und Integration von Modellausgaben in SQL-Datenbanken.
3. Datenaufnahmepipelines
Das Projekt erfordert den konsistenten Abruf großer Datenmengen aus externen Quellen.
• API-Integration: Entwicklung fehlertoleranter Fetcher für AWS S3 (GFS), ECMWF Open Data (IFS) und Copernicus CDS (ERA5).
• Datentransformation: Erstellung von Interpolationsskripten zur Ausrichtung eingehender GCM-Gitter an exakte 0,25-Grad-äquirektanguläre Gitter.
• Lexikon-Mapping: Standardisierung von Variablennamen verschiedener Anbieter gemäß den NVIDIA Earth-2-Standards (z. B. t2m, u100, v100).
4. Orchestrierung & Scheduling
Das System muss autonom laufen, um täglich Handelssignale bereitzustellen.
• Apache Airflow: Umfassende Erfahrung in der Erstellung von DAGs zur Orchestrierung der gesamten Pipeline.
• Betriebssicherheit: Implementierung strikter Fehlerbehandlung, automatischer Wiederholungsversuche und Alarmierungsmechanismen gemäß den Best Practices des Kunden.
• Ereignisgesteuerte Architektur: Entwicklung von Pipelines zur sofortigen Auslösung des Analog-Matchings nach Generierung des NVIDIA Earth-2-Ausgabetensors.
Anforderungen
Projektsprache:
Deutsch
Geplanter Projektstart: 30.03.2026
Projektende: 17.07.2026
Einsatzort: Remote
Auslastung: 75 PT
Schnellbewerbung
Hinweis: Falls Sie nicht angemeldet sind, werden Sie automatisch zur Einlog-Seite weitergeleitet. Erst nach der Anmeldung kann Ihre Anforderung berücksichtigt werden.
für Freelancer
Login
Registrieren
Projektangebote
APP: Projekte auf Ihrem Handy
für Kunden
Leistungsumfang
Kontakt
Übersicht der Freelancer
Kontakt
people4project GmbH
Lörenskogstr. 3
85748 Garching bei München
+49 (89) 55 29 39 - 40
Kontakt-Formular
Tech Stack
GCPCompute EngineGPUNVIDIA A100sStorage ArchitectureVPCsAPI GatewaysIAMPythonxarraynumpyZarrGRIBNetCDFDaskCUDAPyTorchSQLAWS S3ECMWF Open DataCopernicus CDSApache AirflowGeospatial DataWeather Data