myitjob GmbH

Senior Business Intelligence Developer/-in

📍 Region Graubünden

Role and responsibilities

Datenengineering und -architektur Entwurf, Entwicklung und Wartung skalierbarer Datenpipelines (ETL/ELT) zur Integration von Daten aus mehreren Systemen und Quellen Sicherstellung der Datenqualität, -konsistenz und -integrität in allen Umgebungen Optimierung der Datenflüsse und Abfrageleistung in Data Warehouses (z. B. Snowflake, Azure Synapse, BigQuery, Redshift usw.) Pflege und Verbesserung von Data-Lake- und Warehouse-Strukturen in Übereinstimmung mit Best Practices und Governance-Standards

Datenmodellierung und BI Entwurf und Implementierung logischer und physischer Datenmodelle, die für Analyse- und Self-Service-BI-Tools (Power BI, Tableau, Qlik usw.) optimiert sind Entwicklung wiederverwendbarer semantischer Modelle, Datensätze und Berechnung von Kennzahlen Zusammenarbeit mit den Stakeholdern aus dem Unternehmen, um KPIs, Metriken und analytische Dimensionen zu definieren Unterstützung der Endbenutzer beim Verständnis und Zugriff auf Daten für Berichte und Analysen

Governance & Quality Implementierung von Standards für Datenvalidierung, Versionierung und Dokumentation Mitwirkung an Initiativen zur Daten-Governance und Sicherstellung der Einhaltung von Datenschutz- und Datensicherheitsvorschriften (DSGVO usw.) Proaktive Überwachung und Fehlerbehebung bei Datenpipelines und BI-Leistungsproblemen

Team / description

Arbeitsort: Bonaduz, 1 Tag Homeoffice pro Woche Pensum: 80-100%

Qualifications and Skills

  • Bachelor- oder Master-Abschluss in Informatik, Datenverarbeitung, Informationssystemen oder einem verwandten Bereich

  • Mindestens 3 Jahre Erfahrung in den Bereichen Datenverarbeitung, BI-Entwicklung oder Datenmodellierung

  • Fundierte SQL-Kenntnisse und Erfahrung mit relationaler und dimensionaler Datenmodellierung (Stern-/Schneeflockenschemata)

  • Praktische Erfahrung mit modernen Data-Warehouse-Technologien (z. B. Azure Synapse, Snowflake, BigQuery, Redshift)

  • Beherrschung von ETL/ELT-Tools (z. B. Azure Data Factory, dbt, Informatica, Talend, SSIS)

  • Erfahrung mit BI-Tools wie Power BI, Tableau oder Qlik

  • Kenntnisse in Skript- oder Programmiersprachen (Python, PySpark) sind von Vorteil

  • Fundierte Kenntnisse in den Bereichen Data Governance, Metadatenmanagement und Datenlebenszyklusprinzipien

  • Ausgeprägte analytische und problemlösungsorientierte Fähigkeiten

  • Ausgezeichnete Kommunikations- und Kooperationsfähigkeiten mit technischen und nicht-technischen Stakeholdern

  • Strukturierte und detailorientierte Arbeitsweise

  • Proaktive Denkweise mit Fokus auf kontinuierlicher Verbesserung und Automatisierung