Eins von 164 Stellenprofilen beim Arbeitgeber Brack.Alltron Service AG
Als Data Engineer bist du das Herzstück unserer datengesteuerten Strategie und spielst eine entscheidende Rolle bei der Gestaltung unserer Datenlandschaft. Entwicklung einer innovativen Datenplattform: Entwicklung und Betrieb unserer Cloud-basierten Self-Service-Datenplattform, die es den Produktteams ermöglicht, Datenprodukte innerhalb eines Data Mesh Frameworks zu erstellen. Dynamische Daten-Pipelines: Entwickle Blaupausen für vielseitige Datenpipelines zur Aufnahme und Umwandlung von Daten, damit Softwareentwicklungsteams im gesamten Unternehmen ihre eigenen Pipelines erstellen können. Nahtlose Datenintegration: Erstelle Verbindungen zu Betriebsdaten über Datenbanken und Nachrichtenwarteschlangen, um einen reibungslosen Datenfluss zu gewährleisten. Umfassende Datenermittlung: Erleichtere den unternehmensweiten Datenzugriff durch die Implementierung eines robusten Datenkatalog-Tools. Effiziente Datenveröffentlichung: Richte einfache Veröffentlichungsmechanismen ein und sorge für einen zuverlässigen Datentransfer in der gesamten Organisation. Qualitätssicherung und Überwachung: Entwicklung und Pflege von Tools zur Sicherstellung der Datenqualität und zur Echtzeitüberwachung. Beratende Zusammenarbeit: Arbeite als Berater in Teams, um Ingenieure bei der Entwicklung ihrer eigenen Datenprodukte zu unterstützen. Dezentralisierte gemeinsame Datennutzung: Setze dich für eine Datenarchitektur ein, die den dezentralen Datenaustausch zwischen funktionsübergreifenden Teams fördert, und biete Best Practices und beratende Unterstützung an. Skalierbare Datenplattform: Arbeite mit dem DevOps-Team zusammen, um eine skalierbare Datenplattform mit einer leistungsstarken Abfrage-Engine für große bereichsübergreifende Operationen aufzubauen und zu betreiben. Vielseitige Infrastruktur: Entwickle eine umfassende Dateninfrastruktur, die sich sowohl auf lokale als auch auf Cloud-Umgebungen erstreckt. Kontinuierliche Verbesserung: Überwache, analysiere und optimiere die Leistung, Sicherheit und Zuverlässigkeit unserer Dateninfrastruktur. Föderierte Datenverwaltung: Bereitstellung von Fachwissen und Tools zur Unterstützung der dezentralen Datenverwaltung innerhalb der IT. Integrität und Sicherheit: Wahrung der Datenintegrität und -sicherheit durch klare Governance-Richtlinien und Gewährleistung schriftlicher Datenverträge für jeden Datenproduktverbrauch. Befähigung von Bereichsteams: Unterstützung der Bereichsteams beim Treffen fundierter Entscheidungen in ihren jeweiligen Bereichen. Den Trends immer einen Schritt voraus: Halte dich über die neuesten Entwicklungen im Bereich Data Engineering und maschinelles Lernen auf dem Laufenden und integriere neue Ansätze in unsere Prozesse. Kontinuierliches Lernen: Verbessere deine Fähigkeiten mit Online-Kursen, die von Cloud-Anbietern angeboten werden. Vertrauensvolle Partnerschaften: Arbeite eng mit Führungskräften aus den Bereichen Engineering Online Shops, Business Applications und Data Analytics zusammen, um technische und geschäftliche Ziele aufeinander abzustimmen. Effektive Kommunikation: Kommuniziere klar und überzeugend auf allen Ebenen und setze dich für datengesteuerte Initiativen ein.
«Gemeinsam gestalten wir den Handel von morgen» Brack.Alltron beschäftigt rund 1300 Mitarbeitende und erwirtschaftet über eine Milliarde Umsatz. Das Unternehmen gibt es, weil ein Mensch den Mut hatte, neue Wege zu finden und sie zu gehen. Unsere Erfolgsgeschichte zeigt, dass durch jeden Einzelnen, gemeinsam etwas Grosses entsteht und wir lieben unsere Einzigartigkeit. Wir setzen uns ambitionierte Ziele, dabei ist es uns sehr wichtig, dass wir verantwortlich handeln, uns gegenseitig fördern und fordern und Freude haben an dem, was wir tagtäglich tun. Die Competec-Gruppe sucht ständig qualifizierte Mitarbeitende in verschiedenen Bereichen. Ein spannendes Geschäftsumfeld und interessante Zusatzleistungen machen die Competec-Gruppe zu einem attraktiven Arbeitgeber, der 2016 sogar mit dem «Swiss Arbeitgeber Award» ausgezeichnet worden ist.
Ein Bachelor- oder Masterabschluss in Informatik oder einem verwandten Fachgebiet oder gleichwertige Erfahrung.
Mindestens 5 Jahre Berufserfahrung in den Bereichen Data Engineering, Software Engineering oder verwandten Bereichen.
Nachgewiesene Erfahrung im Aufbau von Datenplattformen, Data Lake Houses und Data Warehouses.
Erfahrung in der Entwicklung von Datenpipelines und ETL/ELT-Prozessen.
Erfahrung in agilen Umgebungen, unter Verwendung von Methoden wie Scrum oder Kanban.
Beherrschung von Python und SQL (Java, JavaScript ist ein Plus).
Vertrautheit mit Datenprodukten von Google Cloud Platform, AWS oder Azure (GCP-Erfahrung ist von Vorteil).
Solides Verständnis von Datentechnologien und Konzepten wie Data Mesh, Lambda-Architekturen und Lakehouse-Architekturen.
Starke analytische Fähigkeiten und die Fähigkeit, komplexe Konzepte klar zu kommunizieren.
Leidenschaft für technologische Innovation und kontinuierliche Verbesserung.
Aktives Engagement in der Datengemeinschaft und Beiträge zu Open-Source-Projekten.
Beherrschung der deutschen und englischen Sprache für eine effektive Kommunikation.