Programm Donnerstag

Konferenz


09:00 - 09:15

Begrüßung



10:15-10:45
  • Kaffeepause

A1 - 10:45 - 11:30

FAI.me Buildservice

FAI.me ist der Names eines Build Services unter https://fai-project.org/FAIme.
Dieser Webdienst ermöglicht es personalisierte Installationsmedien zu erstellen, die eine vollautomatische Installation von Debian GNU/Linux durchführen. Der Dienst erstellt auch fertig Festplatten Abbilder, mit der eine virtuelle Machine gestartet werden kann, oder die in einer Cloud Umgebung genutzt werden können. Die beiden Varianten des Webdienstes nutzen das Framework FAI (Fully Automatic Installation) ohne das der Benutzer sich selber mit der FAI Konfiguration beschäftigen muss.

Der Benutzer kann auf der Webseite eine Debian Distribution und einen Desktop auswählen, Benutzername, Passwort und die Sprache setzen und eigene Softwarepakete hinzufügen. Aus diesen Informationen erstellt der FAI Buildserver ein individuelles Installationsimage zum Herunterladen. Wird dieses Image von CD oder einem USB-Stick auf einem Rechner oder in einer leeren VM gestartet, so läuft der ganze
Installationsprozess ohne weitere manuelle Eingabe ab. Nach wenigen Minuten ist der Rechner dann voll einsatzfähig.

Beim Erstellen von bootfähigen Festplatten Abbildern kann der Nutzer zusätzlich die Festplattengröße und das Format (raw, qcow2, vmdk,...) einstellen. Als Download erhält er ein Image, das direkt in KVM, VMware oder VirtualBox gebootet werden kann, ohne das eine
Installation noch durchlaufen wird.

Im Expertenmodus für die Installationsimages kann zusätzlich ein Schema für die Festplattenpartionierung ausgewählt werden, es kann ein SSH Schlüssel für den Zugang zum root Account hinterlegt werden und
ein eigenes Paketrepository mit angegeben werden.

Der Vortrag demonstriert das Erstellen verschiedener Installationsmedien und Cloudimages und wie diese benutzt werden. Die Technik, hinter dem Buildserver und FAI wird auch vorgestellt.
B1 - 10:45 - 11:30

Orchestrierung für Orchester

Das Ziel des Forschungsprojekts fast-music ist es, 60 MusikerInnen und eine(r) DirigentIn das gemeinsame Musizieren über das öffentliche Internet zu ermöglichen. Dazu wird eine Client-Server-Anwendung entwickelt. Das Projektteam besteht aus drei Mitarbeitern und einem Projektleiter. Das Projekt wird nach drei Jahren im Mai 2019 abgeschlossen.

Die Entwicklung setzt auf einer existierenden Lösung für das verteilte Musizieren von bis zu fünf Musikern auf. Diese Anwendung wurde bis Projektstart im Wesentlichen von einem einzelnen Entwickler entwickelt. Um die größere Anzahl von live-Multimediastreams verteilen zu können, war es erforderlich die Netzwerkstruktur von einer „Peer to Peer“ auf eine Sterntopologie umzustellen.

Die zentrale Komponente zur Multimedia-Datenverarbeitung ist dabei ein neu entwickeltes Serverbackend mit einem Proxy und sechs Processing-Servern, geschrieben in C und Faust. Serverseitig wird außerdem ein Content Management System (CMS) eingesetzt, dessen Frontend und Anwendungslogik mittels PHP von einem Webserver zur Verfügung gestellt werden. Eine relationale Datenbank hält die zugehörigen Daten. Darüberhinaus bietet das CMS den Streaming-Komponenten Schnittstellen für Authentifizierung und Autorisierung.

Der Client besteht aus einer Streaming-Komponente (in C) , die sowohl standalone als auch als Bestandteil einer integrierten Web-Applikation (Electron, mit Typescript) betrieben werden kann. Zielplattformen sind Linux, OS-X und Windows, jeweils in den 64-bit Varianten.

Die verschiedenen angebotenen Dienste, die eingesetzten Programmiersprachen und Zielbetriebssysteme führen zu einer heterogenen Umgebung. Entsprechend komplex gestaltet sich die Bereitstellung von Umgebungen für Entwicklung, Test, Integration, und produktivem Betrieb. Um den sonst resultierenden manuellen Aufwand und die mit manuellen Tätigkeiten einhergehenden Fehler zu minimieren, sowie Abhängikeiten explizit zu erfassen, erweist sich eine weitgehende Automatisierung als sinnvoll.

Die dazu eingesetzten Werkzeuge werden präsentiert und deren Einsatz diskutiert. Insbesondere werden die Anwendung von Containern und Grenzen der Anwendbarkeit im Kontext des Projektes fast-music betrachtet:

- Praktische Erfahrungen bei der Migration bestehender Systeme

- Erfahrungen mit Standard versus Custom-Images

- Unterstützung der Entwickler durch Compiler (C, FAUST, Typescript) und Packager

- Orchestrierung mittels Docker-Compose

- Containerisierung von Infrastrukturdiensten (Networkboot, Netzwerküberwachung)

- Ergänzender Einsatz von Shell-Skripten

- Erfahrungen im Team

A2 - 11:30 - 12:15

Images mit OBS und Kiwi

Entwicklungsumgebungen aufzusetzen kann im besten Fall langwierig, auf jeden Fall aber fehleranfällig und für Neueinsteiger in Open-Source-Projekte sehr abschreckend sein.
Im Normalfall setzt man eine virtuelle Maschine auf, installiert die erforderliche Software und muss dann noch alles konfigurieren. Außerdem brauchen solche Umgebungen regelmäßige Wartung und Updates.

Dieser Vortrag zeigt einen anderen Weg auf: Reproduzierbare Umgebungen, automatische Updates auf neue Paketversionen - ganz einfach, indem man den Open Build Service ein Docker Container Image aus RPMs und einer KIWI XML Datei bauen lässt. Nie wieder mühsam mit VMs kämpfen, keine händischen Installations- und Konfigurationsmarathons mehr, einfach das gebrauchsfertige Docker Image aus dem OBS herunterladen und loslegen ...
B2 - 11:30 - 12:15

SAP HANA auf Power installieren und konfigurieren

"Auf dem Weg von einer SAP-Umgebung auf AIX und Windows mit DB2 Datenbanken zu einer modernen Linux-Umgebung stehen wir vor der Herausforderung eine größere Menge von HANA Systemen bereitzustellen und diese dann dauerhaft zu betreiben. Für die HANA-Plattform sind grundsätzlich Intel- und Power-Systeme zertifiziert. Basierend auf den sehr guten Erfahrungen mit der IBM Power Hardware und der sehr hohen Flexibilität der Virtualisierung auch für HANA haben wir uns für
Power entschieden. Es steht damit ein Wechsel des Betriebssystems von AIX nach Linux an.

In einer bisher traditionell betriebenen Systemumgebung auf IBM Power-Hardware mit AIX und DB2 haben wir folgende Aspekte der Installation bzw. Konfiguration erheblich durch den Einsatz von Configuration Management/SALT vereinfachen können:

* Erstellung, Anbindung und Konfiguration von SAN-Storage
* Netzwerk-Anbindung mittels Bonding
* System-Härtung
* Anbindung von Backup- und Monitoring-Systemen
* Linux-Konfiguration für SAP HANA und SAP Netweaver
* Installation und Konfiguration von SAP HANA

Nach den ersten produktiven Systemen, die mit Hilfe des SUSE Managers und SALF aufgebaut wurden, können wir das Fazit ziehen, dass der Einsatz von SALT für uns sinnvoll und äußerst hilfreich ist. Die wichtigsten Teile für uns sind die Installation mit Autoyast und das Configuration Management mittels SALT.

Im Vortrag werde ich die Ideen hinter unserem Configuration Management darstellen, und anhand von Beispielen auf die Implementierung eingehen
und besonders kniffelige Einstellungen darstellen. In diesem Vortrag möchte ich vorstellen, wie wir mittels SUSE Manager und SALT die Erst-Konfiguration erheblich vereinfacht und vereinheitlicht haben. Dazu verwenden wir ein Template-System, das aus wenigen Daten wie
Hostname, SAP System Identification, Dateisystemgrößen und einigem mehr eine Konfiguration erstellt, die dann mittels SALT ausgebracht wird.

12:15-13:45
  • Mittagspause

A3 - 13:45 - 14:30

Kubernetes mit kubeadm installieren

Vor der Workload steht der Cluster oder wie setzt man ein Kubernetes Multi-Master auf? Mit dem Kubernetes-Werkzeug kubeadm wird die Installation und Wartung von Kubernetes Clustern erleichtert.
Dieser Vortrag zeigt den Aufbau eines Kubernetes Clusters mit kubeadm von Grund auf. Die Praxis dazu verfolgen die Zuhörer während der begleitenden Live-Demo.
B3 - 13:45 - 14:30

Blue Spice


A4 - 14:30 - 15:15

OpenShift

Kubernetes ist dabei, sich als Standard für die Orchestrierung von Containern zu etablieren, aber einen Cluster from Scratch zu betreiben, ist schwierig. Eine einfachere Option besteht darin, eine Distribution wie OpenShift zu verwenden, die in vielen Aspekten praktisch vorkonfiguriert ist. OpenShift wird federführend von Red Hat entwickelt, ist aber ohne Einschränkungen als Open-Source-Projekt verfügbar.

Wir zeigen, wie sich OpenShift installieren und konfigurieren lässt und gehen näher auf die Unterschiede zwischen Kubernetes und OpenShift ein. Der Workshop gibt einen Überblick über die Möglichkeiten, OpenShift auf unterschiedlichen Plattformen zu installieren und die verfügbaren Storage-Optionen.

Wir zeigen, sich in wenigen Schritten eine komplette Build-Pipeline mit dem in OpenShift integrierten Jenkins realisieren lässt, bis zum Deployment im OpenShift-Cluster.
B4 - 14:30 - 15:15

API-Design


A5 - 15:15 - 16:00

Kubernetes und Istio

Microservices sind in der heutigen IT allgegenwärtig. Dieses neue Architekturmuster bringt viele Verbesserungen, aber auch neue Herausforderungen mit sich, denen sich Entwickler und Betriebsmannschaft stellen müssen. Auch Microservices müssen verwaltet, überwacht und vernetzt werden ...

Das Open-Source-Projekt Istio setzt genau hier an. Seit 2017 arbeiten die Entwickler daran, die Verwaltung, Verknüpfung, Absicherung und Überwachung von Microservices zu vereinfachen und definierte Schnittstellen zwischen den Microservices untereinander und zur Außenwelt zu schaffen.

Welche Idee steckt hinter Istio? Wo setzt es an? Wie genau hilft es mir bei der Bereitstellung von Microservices? Was hat das alles mit Kubernetes zu tun?
Der Vortrag beleuchtet diese und weitere Fragen rund um Kubernetes und Microservices.

16:00-16:30
  • Kaffeepause

A6 - 16:30 - 17:15

Netbox

Netbox bieten neben der Funktion als Data Center Infrastructure Management auch ein komplettes IP Address Management.

In diesem Vortrag sollen die Vorzüge einer zentralen IP Adressen Verwaltung und des Infrastruktur Managements mit Hilfe von Netbox genauer beleuchtet werden. Auch unsere gewonnenen Erfahrungen beim Umstieg auf Netbox möchte wir gerne mit dem Publikum teilen und anhand von Best Practices aufzeigen warum und wie wir Netbox als DCIM / IPAM Lösung einsetzen. Durch die Migration bestehender Lösungen wie beispielsweise Racktables wurde das DCIM und IPAM angereichert und als neue Source of Truth etabliert.

Der DCIM Teil von Netbox beinhaltet die Verwaltung von Geräten, wie Servern und Netzwerkhardware, die Lokation im Rechenzentrum sowie das Kabelmanagement. Auch eine virtuelle Infrastruktur kann inventarisiert und verwaltet werden.

Im IPAM Modul werden VLANs, Netze, IP Adressen sowie Verbindungen zwischen Rechenzentren und Provider erstellt und mit dem DCIM Modul verbunden werden.

Verschiedene Systeme wie das DNS oder Saltstack als Config Management wurden an Netbox gekoppelt und reichern hieraus automatisch ihre Daten an.

Auch die Netzwerk-Konfiguration der Router und Switches wurde durch die zentrale Datenhaltung in Netbox erleichtert und weiter automatisiert. Das Registrieren von IP Adressen wird über die enthaltene REST-API wesentlich vereinfacht und erlaubt durch Scripte einfach die bestehende Datenbank zu pflegen.

A7 - 17:15 - 18:00

Gitlab-CI Buildcluster aufbauen

Die Anforderungen an eine modernes CI/CD Plattform sind groß. Es sollen immer genug Ressourcen zur Verfügung stehen, jedes Team braucht andere Abhängigkeiten und eigentlich wollen wir gar nicht so viele Ressourcen dafür aufwenden.

In diesem Talk möchte ich euch zeigen wie wir auf Basis von Kubernetes einen Gitlab CI Buildcluster gebaut haben. Dazu haben wir uns die verschiedenen Möglichkeiten einen Gitlab Runner zu betreiben angeschaut. Der Vortrag geht auf die verschiedenen Herausforderungen ein die dafür gelöst werden mussten. Dazu zählt das Bauen von Container Images im Docker Image. Hier gehen wir auf die verschiedenen Tools wie docker-in-docker, img, buildah, oder kaniko ein.

Ich werde zeigen wie wir die Anzahl der Nodes des Clusters in Abhängigkeit von den ausstehenden Builds skalieren. Außerdem gehen wir darauf ein, wie wir sicherstellen, dass aus einem zentralen Build Cluster jedes Team nur in den AWS Account deployen können, den sie verwalten.


Wir haben Amazon EKS genutzt um diesen Buildcluster umzusetzen. Hier werde ich unsere Erfahrungen mit EKS teilen. Was läuft gut, was bedarf noch nacharbeiten von Amazon.
B7 - 17:15 - 18:00

SmartOS

OpenSolaris gibt es nicht mehr. Aber seine Abkömmlinge erfreuen sich bester Gesundheit. Einer der bekanntesten ist SmartOS, das von der Firma Joyent als Hosting-Plattform entwickelt und eingesetzt wird. Spätestens nach der Übernahme von Joyent durch Samsung ist SmartOS einer der Big Player im Cloud- und Virtualisierungsumfeld. Dennoch ist es kostenlos, jeder kann und darf es benutzen.

Neben den bekannten von Solaris geerbten Features (ZFS, Zones, DTrace...) glänzt SmartOS mit einer extrem guten Linux-Hosting-Performance und einer breiten Auswahl an Virtualisierungstechniken; die technisch modernste ist sicherlich das von FreeBSD übernommene bhyve.

Ich möchte zeigen, wie so ein SmartOS funktioniert, und warum sich der Einsatz nicht nur in riesigen Cloud-Farmen lohnt, sondern ebenso zuhause, wo man vielleicht nur zwei Linuxe und eine Solaris-Zone braucht. SmartOS ist ideal als Bastel-Plattform abseits der Linux-Monokultur und kann zu allen möglichen Einsatzzwecken auch abseits der Cloud verwendet werden.

Und ich möchte natürlich meine Begeisterung über Solaris-Systeme rüberbringen. 🙂

18:30 - 24:00
  • Geselliger Abend
Warenkorb entfernt rückgängig
  • Warenkorb ist leer.