Aufgaben
- Design und Entwicklung effizienter Datenpipelines
- Datenbankmodellierung und Optimierung von Datenstrukturen
- Entwicklung und Management von ETL-Prozessen
- Nutzung von Snowflake und Azure Data Factory für Cloud-Datenlösungen
- Integration von IoT-Daten mit Azure IoT Hub
Profil
- Bachelor-Abschluss in Informatik, IT, Ingenieurwesen oder einem verwandten Bereich
- Tiefgreifende Erfahrung als Data Engineer oder in einer ähnlichen Rolle
- Erfahrung mit Datenpipeline-Tools und -Techniken
- Kenntnisse in Snowflake und Azure Data Factory
- Erfahrung mit IoT-Datenintegration und Apache Airflow
Benefits
- Spannendes, innovatives Umfeld
- 37,5 Arbeitsstunden pro Woche
- Möglichkeit zum Home Office gegeben
Gehaltsinformationen
- Bis zu 85.000€ möglich, je nach Berufserfahrung