Consultant Big Data (m/w/d)
T-Systems International GmbH
Leinfelden-Echterdingen, Germany
vor 3 Tg.

Job-ID : 112320 DE 2

Consultant Big Data (m / w / d)

Gesellschaft :

T-Systems International GmbH

Standorte : Berlin, Deutschland

Berlin, Deutschland

Darmstadt, Deutschland

Essen, Deutschland

Leinfelden-Echterdingen, Deutschland

München, Deutschland

Karrierelevel : Young Professional

Vertragsart :

Vollzeit - unbefristet

Bewerbungsschluss : 30.04.2020

Berufserfahrung : 1-3 Jahre

Wochenarbeitszeit : 40.00

Reiseanteil : 25-50%

25-50%

Erforderliche Sprachkenntnisse :

Deutsch, Englisch

Als Consultant Big Data (m / w / d) wirken Sie federführend bei der Konzeption und Entwicklung von Systemen auf Basis Big Data Technologien mit.

Sie unterstützen unsere Kunden bzw. unsere Systementwicklung direkt beim Design von Use Cases und deren technischer Umsetzung.

Technologisch arbeiten Sie im Apache Hadoop Opensource Toolstack mit dessen zahlreichen Tools und Erweiterungen. Die Schwerpunkte Ihrer Tätigkeit liegen in den Bereichen Data Engineering und Data Analytics.

Das umfasst sowohl den Entwurf von SW-Architekturen als auch deren Umsetzung und Überführung in den Betrieb.

Dazu gehören u. a. folgende Tätigkeiten :

  • Mitarbeit bei der Erarbeitung von Kunden Use Cases
  • Umsetzung von Kundenprojekten mit OpenSource SW-Komponenten und kommerzieller Analysesoftware
  • Implementierung von Data Pipelines und Dashboards im Rahmen von Produktentwicklungen oder Kundenprojekten
  • Unterstützung des Vertriebs bei Kundenterminen und Aufarbeitung der kundenspezifischen Anforderungen
  • Aktive Mitarbeit in der Big Data Community der Business Area Data Intelligence, um die Themen in der Portfolio Unit Digital Solutions nachhaltig zu verankern
  • Sie haben mindestens einen Bachelor in Informatik, Wirtschaftsinformatik oder Data Science und mindestens 1 - 3 Jahre Berufserfahrung.

    Sie verfügen über Erfahrung und Kompetenz, um datengetriebene Systeme auf Basis des Hadoop Technologiestacks zu entwerfen und zu entwickeln.

    Sie evaluieren und konfigurieren SW-Komponenten, entwerfen und entwickeln Algorithmen für Kundenlösungen. Sie haben umfassende Erfahrung mit verschiedenen Apache Hadoop Distributionen (z.

    B. Hortonworks, Cloudera, MapR).

    Weiterhin begeistern Sie uns durch folgende Eigenschaften und Kenntnisse :

  • Software Engineering Know-how mit agilen Methoden (z. B. Scrum, DevOps) für den gesamten Software Lifecycle
  • Sie beherrschen einige der gängigen Tools des Big Data Ökosystems, z. B. Spark, Kafka, Docker, Unix, Jupyter, Zeppelin, Talend, Tableau, Qliksense
  • Kenntnisse in einer der folgenden Programmiersprachen : Scala, Python, Java, R, Javascript, SQL
  • Kenntnisse der Datenschutz- und Sicherheitsherausforderungen und Lösungen in IoT und Datenanalytik
  • Die Fähigkeit, fachliche Geschäftsanforderungen in technologische Konzepte zu übersetzen
  • Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift
  • Schwerbehinderte Menschen werden bei gleicher Eignung vorrangig berücksichtigt.

    Multinationale Konzerne und öffentliche Institutionen sind unsere Kunden. Wir machen Wirtschaft und Gesellschaft startklar für die Gigabit-Gesellschaft.

    Überall auf der Welt. Mit einer globalen Infrastruktur aus Rechenzentren, Netzen und integrierten Lösungen. Sie haben Lust auf die vernetzte Zukunft?

    Dann zeigen Sie uns Ihre Innovationskraft.

    Bewerben
    E-Mail
    Wenn ich auf "Fortfahren" klicke, gebe ich neuvoo das Einverständnis, meine Informationen zu speichern und mir wie in den Nutzungsbedingungen und Datenschutzbestimmungen beschrieben, personalisierte E-Mail Alerts zu schicken.
    Fortfahren
    Bewerbungsformular