Zurück zu Karriere

Data Engi­neer (m/w/d)


Data Engineering


Was erwar­ten wir von Dir?

  • Ein Abschluss in Sta­tis­tik, Infor­ma­tik, Nach­rich­ten­tech­nik oder einem ver­wand­ten Studiengang.
  • Nach­ge­wie­sene Erfah­rung mit Python oder Scala.
  • Erfah­rung mit Orches­trie­rungs-Tools wie Air­flow oder Oozie.
  • Fähig­keit zur Nut­zung von CI/CD- und DevOps-Tools wie Git, AWS CI/CD Pipe­lines, Azure DevOps usw.
  • Kennt­nisse in SQL.
  • Kennt­nisse in KNIME sind von Vorteil.
  • Fähig­keit zur Ent­wick­lung von Lösun­gen in den Berei­chen Daten­auf­nahme, Daten­be­rei­ni­gung, ETL, Erstel­lung von Data Marts und Bereit­stel­lung von Daten für Nutzer.
  • Tech­no­lo­gi­sche Exper­tise in der Ent­wick­lung von Lösun­gen auf Cloud-Daten­platt­for­men wie AWS, Azure oder GCP.

Deine Auf­ga­ben

  • Ent­wick­lung, Bereit­stel­lung und Ver­wal­tung von Daten­pipe­lines unter Ein­hal­tung von CI/CD-Prak­ti­ken.
  • Orches­trie­rung von Daten­pipe­lines mit Tools wie Air­flow, Oozie, Azure Data Fac­tory usw.
  • Ent­wick­lung von Python-Skrip­ten oder Scala-Code zur Datenverarbeitung.
  • Erhe­bung und Ana­lyse von Anfor­de­run­gen an Datenpipelines.
  • Bera­tung zu den bes­ten Archi­tek­tur- und Design­prin­zi­pien bei der Ent­wick­lung von Datenpipelines.

Was Du erwar­ten kannst

  • Arbei­ten mit moderns­ten Tech­no­lo­gien, die deine beruf­li­che Wei­ter­ent­wick­lung beschleunigen.
  • Genieße ein aus­ge­zeich­ne­tes Arbeits­um­feld, in dem Men­schen lie­ben, was sie tun.
  • Sei Teil eines inter­na­tio­na­len und ambi­tio­nier­ten Teams – und habe dabei Spaß.

Was erwar­ten wir von Dir?

  • Ein Abschluss in Sta­tis­tik, Infor­ma­tik, Nach­rich­ten­tech­nik oder einem ver­wand­ten Studiengang.
  • Nach­ge­wie­sene Erfah­rung mit Python oder Scala.
  • Erfah­rung mit Orches­trie­rungs-Tools wie Air­flow oder Oozie.
  • Fähig­keit zur Nut­zung von CI/CD- und DevOps-Tools wie Git, AWS CI/CD Pipe­lines, Azure DevOps usw.
  • Kennt­nisse in SQL.
  • Kennt­nisse in KNIME sind von Vorteil.
  • Fähig­keit zur Ent­wick­lung von Lösun­gen in den Berei­chen Daten­auf­nahme, Daten­be­rei­ni­gung, ETL, Erstel­lung von Data Marts und Bereit­stel­lung von Daten für Nutzer.
  • Tech­no­lo­gi­sche Exper­tise in der Ent­wick­lung von Lösun­gen auf Cloud-Daten­platt­for­men wie AWS, Azure oder GCP.

Deine Auf­ga­ben

  • Ent­wick­lung, Bereit­stel­lung und Ver­wal­tung von Daten­pipe­lines unter Ein­hal­tung von CI/CD-Prak­ti­ken.
  • Orches­trie­rung von Daten­pipe­lines mit Tools wie Air­flow, Oozie, Azure Data Fac­tory usw.
  • Ent­wick­lung von Python-Skrip­ten oder Scala-Code zur Datenverarbeitung.
  • Erhe­bung und Ana­lyse von Anfor­de­run­gen an Datenpipelines.
  • Bera­tung zu den bes­ten Archi­tek­tur- und Design­prin­zi­pien bei der Ent­wick­lung von Datenpipelines.

Was Du erwar­ten kannst

  • Arbei­ten mit moderns­ten Tech­no­lo­gien, die deine beruf­li­che Wei­ter­ent­wick­lung beschleunigen.
  • Genieße ein aus­ge­zeich­ne­tes Arbeits­um­feld, in dem Men­schen lie­ben, was sie tun.
  • Sei Teil eines inter­na­tio­na­len und ambi­tio­nier­ten Teams – und habe dabei Spaß.

Was erwar­ten wir von Dir?

  • Ein Abschluss in Sta­tis­tik, Infor­ma­tik, Nach­rich­ten­tech­nik oder einem ver­wand­ten Studiengang.
  • Nach­ge­wie­sene Erfah­rung mit Python oder Scala.
  • Erfah­rung mit Orches­trie­rungs-Tools wie Air­flow oder Oozie.
  • Fähig­keit zur Nut­zung von CI/CD- und DevOps-Tools wie Git, AWS CI/CD Pipe­lines, Azure DevOps usw.
  • Kennt­nisse in SQL.
  • Kennt­nisse in KNIME sind von Vorteil.
  • Fähig­keit zur Ent­wick­lung von Lösun­gen in den Berei­chen Daten­auf­nahme, Daten­be­rei­ni­gung, ETL, Erstel­lung von Data Marts und Bereit­stel­lung von Daten für Nutzer.
  • Tech­no­lo­gi­sche Exper­tise in der Ent­wick­lung von Lösun­gen auf Cloud-Daten­platt­for­men wie AWS, Azure oder GCP.

Deine Auf­ga­ben

  • Ent­wick­lung, Bereit­stel­lung und Ver­wal­tung von Daten­pipe­lines unter Ein­hal­tung von CI/CD-Prak­ti­ken.
  • Orches­trie­rung von Daten­pipe­lines mit Tools wie Air­flow, Oozie, Azure Data Fac­tory usw.
  • Ent­wick­lung von Python-Skrip­ten oder Scala-Code zur Datenverarbeitung.
  • Erhe­bung und Ana­lyse von Anfor­de­run­gen an Datenpipelines.
  • Bera­tung zu den bes­ten Archi­tek­tur- und Design­prin­zi­pien bei der Ent­wick­lung von Datenpipelines.

Was Du erwar­ten kannst

  • Arbei­ten mit moderns­ten Tech­no­lo­gien, die deine beruf­li­che Wei­ter­ent­wick­lung beschleunigen.
  • Genieße ein aus­ge­zeich­ne­tes Arbeits­um­feld, in dem Men­schen lie­ben, was sie tun.
  • Sei Teil eines inter­na­tio­na­len und ambi­tio­nier­ten Teams – und habe dabei Spaß.

Unser Team

Diese Bewerbung wird bearbeitet von




Erica Matamoros
Unser Team

Diese Bewerbung wird bearbeitet von




Erica Matamoros
Unser Team

Diese Bewerbung wird bearbeitet von




Erica Matamoros

Schließ dich den besten Expert*innen für Cloud Data & AI an. Wir warten auf dich!


Oder mit einem Freund teilen



Erhalte einen Ein­blick in unsere Unter­neh­mens­kul­tur und werde Teil des synvert Teams!

Stel­len

Wirf einen Blick auf andere Stellenangebote.


top