adesso Schweiz AG

Data Engineer

📍 8048 Zürich

Rolle und Verantwortlichkeiten

Datenstrecken entwickeln: Du konzipierst und entwickelst entlang der gesamten Pipeline und nutzt dafür z.B. Fivetran, dbt, Airflow, Matillion oder andere Tools des modernen Data Stacks, und setzt Snowflake Features ein. Datenquellen anbinden & verarbeiten: Von der Analyse der Anforderungen über Design und Realisierung bis hin zur Qualitätssicherung und dem Betrieb hast du alle Phasen im Blick. Data Pipelines umsetzen: Du implementierst Data Pipelines, Data Ingest und Data Processing. Analytics Plattformen entwickeln: Du entwickelst Container-basierte Analytics Plattformen und effiziente CI/CD Pipelines. Innovationen vorantreiben: Du verstehst es, Bedürfnisse und Anforderungen des Kunden zu verstehen und technisch aufzubereiten. Lösungen weiterentwickeln: Du unterstützt Kunden bei der Optimierung bestehender Datenlösungen.

Team / Beschreibung

adesso steht für IT-Exzellenz und damit auch für exzellente Entwicklungsmöglichkeiten für alle adessi. Wir wachsen gemeinsam und lernen voneinander – an unseren Projekten, im Team und mit herausragenden Trainingsangeboten. Wir haben IT im Herzen, die Branche im Blick und den Erfolg unserer Kunden im Sinn. Denn erfolgreiches Geschäft entsteht durch innovative Ideen, zukunftsfähige Strategien und kluge IT-Lösungen. Immer sind dabei Menschen beteiligt, die etwas bewegen wollen und das einfach machen. Wir gestalten und bauen Software, die unsere Kunden begeistert. In Projekten, die uns fordern. Und das in einem Umfeld, das uns Spass macht, in der Erfolg gemeinsam entsteht und sich alle wohlfühlen.

Qualifikationen und Fähigkeiten

  • Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Statistik, Mathematik oder einem anderen analytischen Fach.

  • Zertifizierungen von Vorteil: Snowflake SnowProCode oder SnowProAssociate, sowie einschlägige Zertifizierungen fĂĽr Daten-Plattform-Lösungen (z.B. Databricks, MS Fabric) und Zertifizierungen von Cloud-Providern (AWS / Azure).

  • Erfahrung in Data Platform Projekten, idealerweise mit Snowflake und beherrschst Data Platform Konzepte (DWH/Data Lake/Datalakehouse und Data Mesh) und die Modellierung mit Data Vault 2.0. oder klassischen Modellierungspattern wie Snowflake und Star.

  • Erfahrung im Bereich Cloud Data Platforms und einem Cloud Hyperscaler wie AWS, GCP oder Azure mit grundlegenden Kenntnissen in Cloudinfrastruktur (VPC, IAM, etc.) und IaC wie z.B. mit Terraform.

  • Entwicklung von Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität sowie umfassenden MarktĂĽberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während Kenntnisse in einer dieser Sprachen mitgebracht werden: SQL, Python, Java, Scala oder Spark.

  • Sehr gute Deutsch- und gute Englischkenntnisse; Französisch von Vorteil.