Mario-Leander Reimer
Mario-Leander Reimer ist Managing Director und CTO bei QAware. Er ist Spezialist für den Entwurf, die Umsetzung und den Betrieb von verteilten System- und Softwarearchitekturen auf Basis von Open-Source-Bausteinen. Er beschäftigt sich intensiv mit den Technologien der Cloud-native Landscape und deren Einsatzmöglichkeiten im Unternehmensumfeld. Er ist Speaker auf nationalen und internationalen Konferenzen und er unterrichtet Software- Qualitätssicherung an der TH Rosenheim.
Beiträge
In einer zunehmend komplexen Welt von hybriden Clouds und global verteilten Anwendungen stellt die Orchestrierung und das Scheduling über mehrere Kubernetes-Cluster hinweg eine echte Herausforderung dar.
In diesem Vortrag wird Karmada (Kubernetes Armada) vorgestellt, ein Framework, das die Ausführung von Cloud-nativen Anwendungen über mehrere Cluster und Clouds hinweg ermöglicht, ohne dass Anpassungen an den Anwendungen vorgenommen werden müssen.
Wir demonstrieren die zahlreichen Funktionen wie Hochverfügbarkeit, Fault Tolerance und Traffic Scheduling live in einem Hybrid Cloud Setup, um die Flexibilität eindrucksvoll zu veranschaulichen. Dieser Vortrag richtet sich an fortgeschrittene SRE's, Platform Engineers und #CloudNativeNerds, um neue Horizonte zu eröffnen und in die Welt des Kubernetes Cluster Managements einzuführen.
Kubernetes has evolved far beyond its roots as an orchestration platform. Today, it's a powerful and flexible engine capable of managing a wide variety of workloads, from virtual machines to WebAssembly applications to AI inference models. In this talk, we'll explore how Kubernetes can be leveraged to run non-traditional workloads, tackling common challenges and showcasing cutting-edge solutions.
We'll start by discussing KubeVirt, a technology that enables seamless migration of on-premise VMs into a Kubernetes environment, making it easier to consolidate infrastructure and modernize legacy systems. Next, we’ll dive into WebAssembly (WASM) workloads using SpinKube, highlighting WASM’s security, sandboxing, and near-instant startup times that make it ideal for lightweight cloud-native applications. Lastly, we’ll cover running AI models and inferences on Kubernetes with an emphasis on optimizing performance through proper cluster topology, hardware considerations like GPUs, and scalable configurations.
Throughout the talk, I will showcase live demos of each workload type—VMs, WASM apps, and AI models—running on Kubernetes, providing practical examples and real-world use cases. Whether you're looking to expand Kubernetes usage in your projects or exploring new workloads to orchestrate, this session will offer valuable insights and hands-on solutions for diverse compute needs.