Eine von 15 offenen Stellen bei Galenica AG
Mitarbeit am Design und der Entwicklung der neuen Datenplattform in der Azure Cloud im Bereich der Logistik. Erstellung von Datenmodellen entsprechend den Anforderungen und Anwendungsfällen der Business Analytics und Data Science. Organisation und Strukturierung von Datenbeständen mit Hilfe verschiedener moderner Cloud- und Big-Data-Technologien. Anbindung von Datenquellen und Entwicklung von Transformations- und Datenintegrationsabläufen. Enge Zusammenarbeit mit weiteren Spezialisten in einem agilen Umfeld für spezifische Themen wie DevOps oder Datenarchitektur.
Das stärkste Netzwerk im Schweizer Gesundheitsmarkt. Als Galenica Gruppe sind wir die marktprägende Gesundheitsdienstleisterin unseres Landes. Unsere Unternehmen bieten eine reiche Vielfalt an zukunftsorientierten Berufen, die etwas gemeinsam haben: Unsere Mitarbeitenden setzen sich mit viel Engagement für die Gesundheit und das Wohlbefinden der Menschen in der Schweiz ein. Dafür betreiben wir das schweizweit grösste Apothekennetz und führen bekannte Eigenmarken sowie exklusive Marken und Produkte von Geschäftspartnern. Weiter sind wir die führende Grossistin im Schweizer Gesundheitsmarkt und bieten Lieferanten Qualitätslogistik mit den dazugehörigen Dienstleistungen an. Der Hauptsitz befindet sich in Bern, wo alle Fäden zusammenlaufen. Hier werden wertvolle Services für die ganze Gruppe erbracht, u.a. von HR, IT, Marketing, Kommunikation oder Finanzen.
Fach-/Hochschulabschluss als Informatiker oder eine vergleichbare Ausbildung
Mindestens 5 Jahre Erfahrung als Data Engineer
Sehr gute Erfahrung mit Cloud-Technologien (idealerweise in der Azure Cloud mit Synapse Analytics, Data Lake Storage, Data Factory, Azure DevOps und Microsoft Fabric)
Solide Kenntnisse von Datenmodellierungs-, Datenspeicherungs- und Datenzugangstechniken mit Erfahrung in Big-Data-Architekturen und Integrationsmodellen
Sehr gute Programmierkenntnisse in Python, Java oder Scala und SQL
Gute Arbeitserfahrung mit dezentralen Systemen und Beherrschung von Tools wie dbt, Apache Spark, Apache Flink oder Apache Beam
Deutsch- oder Französisch- und gute Englischkenntnisse sind Voraussetzung