
Communications, Media & Telecom - Design und Entwicklung einer Google Cloud-basierten Datenplattform
Communications, Media & Telecom
Durch die Entwicklung eines Data Lakes in der Google Cloud und die Einführung von Best Practices in der Software- und Datentechnik konnte synvert einen schnelleren Datenzugriff und eine effizientere Datenaggregation für Analysen erreichen, was zu erheblichen Zeitersparnissen und einer höheren Frequenz regelmäßiger Geschäftsberichte führte und zeitnahe Unternehmensentscheidungen ermöglichte.
Ausgangslage
Die Daten des Kunden waren in einer Oracle-Datenbank gespeichert, aber nicht alle Teams verfügten über zentral gespeicherte Daten, z. B. fehlten Website-Daten, und es gab Datensilos für jede Abteilung, was abteilungsübergreifende Analysen und Reportings erschwerte.
Die Datenbank war überlastet und zu kompliziert, so dass der Zugriff für die Datenanalyse nur langsam möglich war und Reportings in Stücken verarbeitet werden mussten, was die Häufigkeit der verfügbaren Berichte einschränkte.
Die Architektur
Die Data Lake Architektur wurde auf der Google Cloud Platform umgesetzt. Hierbei wurden Technologien wie Gitlab, dbt und Google BigQuer verwendet.
synvert Vorteile
Durch das verbesserte Data Warehouse hat synvert einen schnelleren Datenzugriff und eine effizientere Datenaggregation für Analysen erreicht. Dies führt zu erheblichen Zeitersparnissen und einer höheren Frequenz regelmäßiger Geschäftsberichte, was zeitnahe Unternehmensentscheidungen ermöglicht.
Die Benutzer sind in der Lage, ihre eigenen Berichte in Power BI zu erstellen, wobei alle Abteilungen einfach und schnell auf denselben Data Lake zugreifen können, was die Komplexität und die Zeit bis zum Erhalt von Erkenntnissen verringert. Die meisten Datentransformationen werden bereits im Data Lake mit BigQuery und dbt durchgeführt, so dass die Abteilungen Daten- und Businesslogik unternehmensweit anpassen können.
Services von synvert
synvert entwickelte einen Data Lake in der Google Cloud, und führte Best Practices in der Software- und Datentechnik ein. Dazu gehörten Git-Repositories, CI/CD, objektorientierte Programmierung, Linting und Testautomatisierung. Die Entwicklung von Datenqualitätstests und die Modellierung nach Data Vault 2.0 wurden ebenfalls implementiert. Data Mesh ermöglichte es den Anwendern, bereichsübergreifende Datenanalysen durchzuführen. Darüber hinaus wurden die internen Berater erfolgreich in den oben genannten Technologien und Methoden geschult.