Zurück zu Karriere

Soft­ware Engi­neer (AI Stra­tegy & Ena­blem­ent) (m/w/d)


AI · Programmierung


        								                            				
                            				

Deine Auf­ga­ben

  • Du lei­test die Stra­te­gie, das Design und die Bereit­stel­lung von KI-gesteu­er­ten Lösun­gen, dar­un­ter LLMs, ML-Modelle und intel­li­gente Workflows.
  • Ent­wer­fen und imple­men­tie­ren von ska­lier­ba­ren KI-Sys­te­men, die sich naht­los in Unter­neh­mens­in­fra­struk­tu­ren und Ent­wick­lungs­pro­zesse inte­grie­ren lassen.
  • Du arbei­test eng mit den Teams aus den Berei­chen Tech­nik, Pro­dukt­ent­wick­lung und Füh­rung zusam­men, um her­aus­zu­fin­den, wo KI den größ­ten Mehr­wert bie­ten kann, und hilfst dabei, diese Chan­cen in kon­krete Lösun­gen umzusetzen.
  • Ent­wi­ckeln und pfle­gen von inter­nen Tools, Frame­works und Richt­li­nien, damit andere Teams effek­tiv mit KI- und ML-Tech­no­lo­gien arbei­ten können.
  • Du lei­test die Ein­füh­rung von GenAI-Funk­tio­nen, ein­schließ­lich Prompt Engi­nee­ring, RAG-Pipe­lines und agen­ten­ba­sier­ten Archi­tek­tu­ren, wobei Sie stets den Fokus auf lang­fris­tige Wart­bar­keit legen.
  • Du stellst sicher, dass die Sys­teme beob­acht­bar, test­bar und leis­tungs­fä­hig sind und den Anfor­de­run­gen an Daten­schutz, Sicher­heit und Com­pli­ance entsprechen.
  • Sich aktiv über das sich ent­wi­ckelnde KI/ML-Öko­sys­tem (GenAI, MLOps, Vek­tor­su­che, Model Ser­ving) auf dem Lau­fen­den hal­ten und neue Tools und Prak­ti­ken auf ihre Eig­nung für Unter­neh­men hin bewerten.

Was erwar­ten wir von Dir?


Wich­tige Anforderungen

  • Min­des­tens 4 Jahre Erfah­rung in der Soft­ware- oder ML-Ent­wick­lung mit fun­dier­ten Kennt­nis­sen in Backend-Archi­tek­tur und ver­teil­ten Systemen.
  • Nach­weis­li­che Erfolge bei der Ent­wick­lung und Bereit­stel­lung von KI-gestütz­ten Sys­te­men in der Pro­duk­tion, vor­zugs­weise in Unternehmensumgebungen.
  • Beherr­schung von Python (oder Node.js) mit umfas­sen­der Erfah­rung in der Ent­wick­lung robus­ter, wart­ba­rer und ska­lier­ba­rer Dienste.
  • Fun­dierte Kennt­nisse in den Berei­chen LLMs, Embed­dings, Prompt Engi­nee­ring, RAG-Mus­ter und GenAI-Tools (z. B. Lang­Chain, Trans­for­mers, Hug­ging Face, OpenAI-APIs).
  • Siche­rer Umgang mit der Kom­ple­xi­tät der rea­len Welt: Multi-Ten­ant-Set­ups, Beob­acht­bar­keit, Leis­tung, Kos­ten­ver­fol­gung und Governance.
  • Ver­traut­heit mit moder­nen Infrastruktur-Tools: Con­tai­ne­ri­sie­rung (Docker), Orches­trie­rung (z. B. Air­flow, Tem­po­ral), Cloud-Ser­vices (AWS, Azure, GCP).
  • Erfah­rung in der Lei­tung funk­ti­ons­über­grei­fen­der Initia­ti­ven und der Betreu­ung von tech­ni­schen Teams im Bereich KI-Fähigkeiten.
  • Flie­ßende Eng­lisch­kennt­nisse und aus­ge­zeich­nete Kom­mu­ni­ka­ti­ons­fä­hig­kei­ten, Fähig­keit zur effek­ti­ven inter­dis­zi­pli­nä­ren Zusammenarbeit.

Wün­schens­wert

  • Erfah­rung mit Model-Ser­ving- und Infe­renz-Frame­works (z. B. vLLM, Ten­sorRT-LLM, LiteLLM).
  • Ver­traut­heit mit Vek­tor­da­ten­ban­ken (z. B. Qdrant, Wea­viate, Pine­cone) und seman­ti­schem Suchdesign.
  • Erfah­rung mit MLOps- oder AIOps-Prak­ti­ken, ein­schließ­lich Über­wa­chung, Nach­schu­lung und Lebenszyklusmanagement.
  • Hin­ter­grund­wis­sen in Daten­wis­sen­schaft oder ML über GenAI-Anwen­dungs­fälle hin­aus – z. B. Zeit­rei­hen, Anoma­lie­er­ken­nung, Empfehlungssysteme.
  • Bei­träge zu Open-Source-Tools oder inter­nen Enablement-Plattformen.

Deine Auf­ga­ben

  • Du lei­test die Stra­te­gie, das Design und die Bereit­stel­lung von KI-gesteu­er­ten Lösun­gen, dar­un­ter LLMs, ML-Modelle und intel­li­gente Workflows.
  • Ent­wer­fen und imple­men­tie­ren von ska­lier­ba­ren KI-Sys­te­men, die sich naht­los in Unter­neh­mens­in­fra­struk­tu­ren und Ent­wick­lungs­pro­zesse inte­grie­ren lassen.
  • Du arbei­test eng mit den Teams aus den Berei­chen Tech­nik, Pro­dukt­ent­wick­lung und Füh­rung zusam­men, um her­aus­zu­fin­den, wo KI den größ­ten Mehr­wert bie­ten kann, und hilfst dabei, diese Chan­cen in kon­krete Lösun­gen umzusetzen.
  • Ent­wi­ckeln und pfle­gen von inter­nen Tools, Frame­works und Richt­li­nien, damit andere Teams effek­tiv mit KI- und ML-Tech­no­lo­gien arbei­ten können.
  • Du lei­test die Ein­füh­rung von GenAI-Funk­tio­nen, ein­schließ­lich Prompt Engi­nee­ring, RAG-Pipe­lines und agen­ten­ba­sier­ten Archi­tek­tu­ren, wobei Sie stets den Fokus auf lang­fris­tige Wart­bar­keit legen.
  • Du stellst sicher, dass die Sys­teme beob­acht­bar, test­bar und leis­tungs­fä­hig sind und den Anfor­de­run­gen an Daten­schutz, Sicher­heit und Com­pli­ance entsprechen.
  • Sich aktiv über das sich ent­wi­ckelnde KI/ML-Öko­sys­tem (GenAI, MLOps, Vek­tor­su­che, Model Ser­ving) auf dem Lau­fen­den hal­ten und neue Tools und Prak­ti­ken auf ihre Eig­nung für Unter­neh­men hin bewerten.

Was erwar­ten wir von Dir?

 

Wich­tige Anforderungen

  • Min­des­tens 4 Jahre Erfah­rung in der Soft­ware- oder ML-Ent­wick­lung mit fun­dier­ten Kennt­nis­sen in Backend-Archi­tek­tur und ver­teil­ten Systemen.
  • Nach­weis­li­che Erfolge bei der Ent­wick­lung und Bereit­stel­lung von KI-gestütz­ten Sys­te­men in der Pro­duk­tion, vor­zugs­weise in Unternehmensumgebungen.
  • Beherr­schung von Python (oder Node.js) mit umfas­sen­der Erfah­rung in der Ent­wick­lung robus­ter, wart­ba­rer und ska­lier­ba­rer Dienste.
  • Fun­dierte Kennt­nisse in den Berei­chen LLMs, Embed­dings, Prompt Engi­nee­ring, RAG-Mus­ter und GenAI-Tools (z. B. Lang­Chain, Trans­for­mers, Hug­ging Face, OpenAI-APIs).
  • Siche­rer Umgang mit der Kom­ple­xi­tät der rea­len Welt: Multi-Ten­ant-Set­ups, Beob­acht­bar­keit, Leis­tung, Kos­ten­ver­fol­gung und Governance.
  • Ver­traut­heit mit moder­nen Infrastruktur-Tools: Con­tai­ne­ri­sie­rung (Docker), Orches­trie­rung (z. B. Air­flow, Tem­po­ral), Cloud-Ser­vices (AWS, Azure, GCP).
  • Erfah­rung in der Lei­tung funk­ti­ons­über­grei­fen­der Initia­ti­ven und der Betreu­ung von tech­ni­schen Teams im Bereich KI-Fähigkeiten.
  • Flie­ßende Eng­lisch­kennt­nisse und aus­ge­zeich­nete Kom­mu­ni­ka­ti­ons­fä­hig­kei­ten, Fähig­keit zur effek­ti­ven inter­dis­zi­pli­nä­ren Zusammenarbeit.

Wün­schens­wert

  • Erfah­rung mit Model-Ser­ving- und Infe­renz-Frame­works (z. B. vLLM, Ten­sorRT-LLM, LiteLLM).
  • Ver­traut­heit mit Vek­tor­da­ten­ban­ken (z. B. Qdrant, Wea­viate, Pine­cone) und seman­ti­schem Suchdesign.
  • Erfah­rung mit MLOps- oder AIOps-Prak­ti­ken, ein­schließ­lich Über­wa­chung, Nach­schu­lung und Lebenszyklusmanagement.
  • Hin­ter­grund­wis­sen in Daten­wis­sen­schaft oder ML über GenAI-Anwen­dungs­fälle hin­aus – z. B. Zeit­rei­hen, Anoma­lie­er­ken­nung, Empfehlungssysteme.
  • Bei­träge zu Open-Source-Tools oder inter­nen Enablement-Plattformen.

Deine Auf­ga­ben

  • Du lei­test die Stra­te­gie, das Design und die Bereit­stel­lung von KI-gesteu­er­ten Lösun­gen, dar­un­ter LLMs, ML-Modelle und intel­li­gente Workflows.
  • Ent­wer­fen und imple­men­tie­ren von ska­lier­ba­ren KI-Sys­te­men, die sich naht­los in Unter­neh­mens­in­fra­struk­tu­ren und Ent­wick­lungs­pro­zesse inte­grie­ren lassen.
  • Du arbei­test eng mit den Teams aus den Berei­chen Tech­nik, Pro­dukt­ent­wick­lung und Füh­rung zusam­men, um her­aus­zu­fin­den, wo KI den größ­ten Mehr­wert bie­ten kann, und hilfst dabei, diese Chan­cen in kon­krete Lösun­gen umzusetzen.
  • Ent­wi­ckeln und pfle­gen von inter­nen Tools, Frame­works und Richt­li­nien, damit andere Teams effek­tiv mit KI- und ML-Tech­no­lo­gien arbei­ten können.
  • Du lei­test die Ein­füh­rung von GenAI-Funk­tio­nen, ein­schließ­lich Prompt Engi­nee­ring, RAG-Pipe­lines und agen­ten­ba­sier­ten Archi­tek­tu­ren, wobei Sie stets den Fokus auf lang­fris­tige Wart­bar­keit legen.
  • Du stellst sicher, dass die Sys­teme beob­acht­bar, test­bar und leis­tungs­fä­hig sind und den Anfor­de­run­gen an Daten­schutz, Sicher­heit und Com­pli­ance entsprechen.
  • Sich aktiv über das sich ent­wi­ckelnde KI/ML-Öko­sys­tem (GenAI, MLOps, Vek­tor­su­che, Model Ser­ving) auf dem Lau­fen­den hal­ten und neue Tools und Prak­ti­ken auf ihre Eig­nung für Unter­neh­men hin bewerten.

Was erwar­ten wir von Dir?

 

Wich­tige Anforderungen

  • Min­des­tens 4 Jahre Erfah­rung in der Soft­ware- oder ML-Ent­wick­lung mit fun­dier­ten Kennt­nis­sen in Backend-Archi­tek­tur und ver­teil­ten Systemen.
  • Nach­weis­li­che Erfolge bei der Ent­wick­lung und Bereit­stel­lung von KI-gestütz­ten Sys­te­men in der Pro­duk­tion, vor­zugs­weise in Unternehmensumgebungen.
  • Beherr­schung von Python (oder Node.js) mit umfas­sen­der Erfah­rung in der Ent­wick­lung robus­ter, wart­ba­rer und ska­lier­ba­rer Dienste.
  • Fun­dierte Kennt­nisse in den Berei­chen LLMs, Embed­dings, Prompt Engi­nee­ring, RAG-Mus­ter und GenAI-Tools (z. B. Lang­Chain, Trans­for­mers, Hug­ging Face, OpenAI-APIs).
  • Siche­rer Umgang mit der Kom­ple­xi­tät der rea­len Welt: Multi-Ten­ant-Set­ups, Beob­acht­bar­keit, Leis­tung, Kos­ten­ver­fol­gung und Governance.
  • Ver­traut­heit mit moder­nen Infrastruktur-Tools: Con­tai­ne­ri­sie­rung (Docker), Orches­trie­rung (z. B. Air­flow, Tem­po­ral), Cloud-Ser­vices (AWS, Azure, GCP).
  • Erfah­rung in der Lei­tung funk­ti­ons­über­grei­fen­der Initia­ti­ven und der Betreu­ung von tech­ni­schen Teams im Bereich KI-Fähigkeiten.
  • Flie­ßende Eng­lisch­kennt­nisse und aus­ge­zeich­nete Kom­mu­ni­ka­ti­ons­fä­hig­kei­ten, Fähig­keit zur effek­ti­ven inter­dis­zi­pli­nä­ren Zusammenarbeit.

Wün­schens­wert

  • Erfah­rung mit Model-Ser­ving- und Infe­renz-Frame­works (z. B. vLLM, Ten­sorRT-LLM, LiteLLM).
  • Ver­traut­heit mit Vek­tor­da­ten­ban­ken (z. B. Qdrant, Wea­viate, Pine­cone) und seman­ti­schem Suchdesign.
  • Erfah­rung mit MLOps- oder AIOps-Prak­ti­ken, ein­schließ­lich Über­wa­chung, Nach­schu­lung und Lebenszyklusmanagement.
  • Hin­ter­grund­wis­sen in Daten­wis­sen­schaft oder ML über GenAI-Anwen­dungs­fälle hin­aus – z. B. Zeit­rei­hen, Anoma­lie­er­ken­nung, Empfehlungssysteme.
  • Bei­träge zu Open-Source-Tools oder inter­nen Enablement-Plattformen.

Bene­fits preline

Was Du erwar­ten kannst




Vielfältiges, globales & erfahrenes Team


Weiterentwicklung durch Academy


Hybrides Arbeiten


Aufstiegschancen und berufliche Entwicklung


Neuestes Equipment


Gesundheitsleistungen


Afterwork-Events


Mitarbeiter- empfehlungen
Unser Team

Diese Bewerbung wird bearbeitet von




Beatriz Agostinho

Ana Patrícia Marques
Bene­fits preline

Was Du erwar­ten kannst




Vielfältiges, globales & erfahrenes Team


Weiterentwicklung durch Academy


Hybrides Arbeiten


Aufstiegschancen und berufliche Entwicklung


Neuestes Equipment


Gesundheitsleistungen


Afterwork-Events


Mitarbeiter- empfehlungen
Unser Team

Diese Bewerbung wird bearbeitet von




Beatriz Agostinho

Ana Patrícia Marques
Bene­fits preline

Was Du erwar­ten kannst




Vielfältiges, globales & erfahrenes Team


Weiterentwicklung durch Academy


Hybrides Arbeiten


Aufstiegschancen und berufliche Entwicklung


Neuestes Equipment


Gesundheitsleistungen


Afterwork-Events


Mitarbeiter- empfehlungen
Unser Team

Diese Bewerbung wird bearbeitet von




Beatriz Agostinho

Ana Patrícia Marques

Schließ dich den besten Expert*innen für Cloud Data & AI an. Wir warten auf dich!


Oder mit einem Freund teilen



Erhalte einen Ein­blick in unsere Unter­neh­mens­kul­tur und werde Teil des synvert Teams!

Stel­len

Wirf einen Blick auf andere Stellenangebote.


top