Wir verwenden Cookies, um unsere Website und unseren Service zu optimieren.
FunktionalImmer aktiv
Notwendige Cookies helfen dabei, eine Webseite nutzbar zu machen, indem sie Grundfunktionen wie Seitennavigation und Zugriff auf sichere Bereiche der Webseite ermöglichen. Die Webseite kann ohne diese Cookies nicht richtig funktionieren.
Statistiken
ClickCease
Der Anbieter des Webtools analysiert Ihre Browserdaten nach auffälligem Verhalten in Bezug auf Klickbetrug, also die Häufigkeit von Werbeaufrufen einer IP.
Marketing
Google AdSense
Cookie von Google, das für Ad-Targeting und Anzeigenmessung verwendet wird.
Wir suchen ein DevOps Engineer für Kundenprojekte (w/m/d) – Karlsruhe / Stuttgart / Mannheim und Umgebung, ggfs. Remote
Als ein innovatives KI-Unternehmen aus Karlsruhe gestalten wir als Vorreiter die digitalisierte Welt von morgen aktiv mit.
Die KENBUN IT AG entwickelt modernste KI-Technologien bis zur Marktreife und unterstützt Unternehmen auf ihrem Weg in die digitale Transformation. Wir setzen auf fortschrittliche Sprachlösungen wie unser natürlichsprachliches Assistenzsystem KIDOU sowie auf zukunftssichere Big Data Technologien wie unsere skalierbare KI- und Big Data Plattform KIDAN. Darüber hinaus begleiten wir unsere Kunden bei der Umsetzung innovativer Projekte in den Bereichen Künstliche Intelligenz, Big Data und Sprachsteuerung. Unsere Fachkenntnisse bringen wir in Forschungsprojekten wie CASSANDRA und IntWertL ein.
Agilität ist bei uns nicht nur eine Arbeitsweise, sie ist Teil unserer Unternehmenskultur. Eigeninitiative und Verantwortung sind bei uns gelebte Praxis.
Möchtest Du die Zukunft mitgestalten? Dann bewirb Dich bei uns!
Aufgaben
Deine Aufgaben:
Integration und Betrieb von Big Data-Anwendungen
Arbeit mit Big Data-Technologien (Hadoop, Spark, Storm, Cassandra, Kafka)
Unterstützung beim Aufbau und Betrieb von Big Data-Systemen für unsere Kunden
Installation und Konfiguration komplexer Big Data-Umgebungen
Deployment und Betrieb von Software auf Big Data-Systemen
Sicherheitsmanagement in komplexen Umgebungen (Kerberos, ADS)
Support und Fehlermanagement von Big Data-Systemen
Arbeit mit Cloud-Plattformen (OpenShift, AWS, MS Azure, Google Cloud)
Automatisierung mit Tools wie Ansible und Docker
Qualifikation
Dein Profil:
Abgeschlossenes Studium im IT-Bereich oder vergleichbare Qualifikationen, z.B. durch Ausbildung
Fundierte Kenntnisse in Big Data-Architekturen und -Technologien (Hadoop, Spark, Cassandra, Storm)
Sehr gute Linux-Kenntnisse
Erfahrung mit Skriptsprachen (Python, Bash)
Kenntnisse in Jobsteuerungssystemen
Erfahrung mit Programmiersprachen wie Java, Scala oder Python
Selbstständige und zielorientierte Arbeitsweise
Kommunikations- und Teamfähigkeit
Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift
Benefits
Was wir bieten:
Anspruchsvolle, konzeptionelle Aufgabenstellungen
Viel Raum für Kreativität und die Übernahme von Verantwortung in einem abwechslungsreichen Tätigkeitsfeld
Individuelle Förderung zur Entfaltung Deines Potenzials
Persönliche Betreuung in der Einarbeitungsphase für einen reibungslosen Einstieg
Exzellente Arbeitsatmosphäre in einem motivierten Team mit modernster Büroausstattung
Flexible Arbeitszeiten und Homeoffice-Optionen
Vereinbarkeit von Familie und Beruf
Unterstützung beim Umzug
Beteiligung am Erfolg eines dynamisch wachsenden Startups
Work-Life-Balance, z.B. Sabbatical, Gesundheits- und Fitnessangebote
Viel Freiraum und Möglichkeiten, das Unternehmen aktiv mitzugestalten
31 Tage Urlaub
Bewirb Dich jetzt mit Deinen Bewerbungsunterlagen (Anschreiben, Lebenslauf, Gehaltsvorstellung und Eintrittsdatum) im PDF-Format.