Kategorien
Bits & Freiheit

Einführung ins Self-Hosting – Anwendungen selbst betreiben

Selfhosting bedeutet – Du nimmst die Sache selbst in die Hand. Statt deine Daten in die glitschigen Tentakel von Google, Microsoft und Konsorten zu schieben, betreibst du deine eigenen Dienste wie Cloud-Speicher, Passwort-Manager oder Media-Server auf deiner eigenen Hardware.

Ob im Keller, auf dem Dachboden oder auf einem alten Laptop von 2012. Hauptsache, du kontrollierst, was passiert. Keine fremde Cloud, kein „kostenloser“ Service, der dich in Wahrheit als Produkt verkauft. Einfach nur du, dein Server und das beruhigende Summen der Lüfter. Im Klartext: Selfhosting heißt, du installierst und verwaltest Software selbst. Auf deiner Hardware oder einem gemieteten Server. Keine Marketing-Cloud, keine undurchsichtigen AGB, kein „Wir respektieren deine Privatsphäre, versprochen Bro“.

Du bist der Admin. Der Chef. Der Hausmeister. Der Held deiner digitalen Welt.

1. Vorteile von Selfhosting

Datenschutz

Deine Daten bleiben bei dir. Punkt. Kein Data-Mining, kein Werbetracking, kein „Ups, wir haben aus Versehen 3 Millionen Accounts veröffentlicht“. Du weißt immer, wer deine Daten hat – nämlich du. Und das ist in Zeiten von Metadaten-Analyse und personalisierter Werbung ein verdammt gutes Gefühl.

Kontrolle

Du entscheidest, was läuft, wann es läuft, und wer reindarf. Kein Zwangsupdate um 3 Uhr morgens, kein UI-Redesign aus der Hölle. Du kannst Funktionen behalten, die Big-Tech schon vor Jahren beerdigt hat – weil sie dir nützen, nicht der Werbeabteilung.

Unabhängigkeit

Schluss mit „Service XYZ wird zum 31.12. eingestellt“ oder „Diese Funktion steht nur noch Pro-Nutzern zur Verfügung“. Wenn du den Dienst selbst betreibst, läuft er genau so lange, wie du es willst – oder bis du apt upgrade ohne Backup machst. Kein CEO, keine AGB-Änderung, keine Sperre wegen „Verstoß gegen Richtlinien“.

Lernfaktor

Du wirst Begriffe lernen wie „Reverse Proxy“, „Portweiterleitung“ und „Cronjob“. Du wirst Dinge erkunden wie „Warum startet mein Container nicht?“, dich nachts um zwei fluchend im Terminal wiederfinden und trotzdem weitermachen. Selfhosting macht dich nicht nur unabhängiger, sondern auch smarter.

Stolz

Wenn du das erste Mal deine eigene Cloud öffnest, auf deinem eigenen Server, selbst konfiguriert, abgesichert, gebackupt – dann weißt du: Das ist kein Klick-und-fertig. Das ist echte digitale Selbstbestimmung. Und verdammt, das fühlt sich gut an.

2. Grundlagen und Vorbereitung

Bevor du jetzt blindlings irgendwelche Server aufsetzt und glaubst, du wärst der nächste Linus Torvalds, machen wir erst mal einen Schritt zurück. Selfhosting ist kein „Klick und fertig“-Abenteuer wie ein Instagram-Filter. Du brauchst ein bisschen Grundwissen. Nicht viel, aber genug, um dich nicht sofort in einem Haufen Logs, Fehlermeldungen und panischen Suchanfragen wiederzufinden. Also: Let’s get nerdy.

2.1 Grundlegende Kenntnisse

Grundlagen der Netzwerktechnik

Du willst Dienste im Netzwerk anbieten? Dann solltest du wenigstens grob wissen, was ein IP-Paket ist und nein, das hat nichts mit der Post zu tun. Wenn du IP-Adressen, Subnetze und Router nur für Begriffe aus dem Nerd-Olymp hältst, hol dir erst mal ’ne Tasse Kaffee.

IP-Adressen: Das sind die Adressen, unter denen deine Geräte erreichbar sind, quasi wie Hausnummern im Internet.

Router und Portweiterleitung: Der Router ist dein Türsteher. Damit dein Server erreichbar ist, musst du ihm sagen: „Hey, wenn jemand an Tür 443 klopft (HTTPS), lass ihn durch zum Server hinten links.“

Firewall: Das ist der Typ, der checkt, ob du überhaupt rein darfst. Richtig konfiguriert blockt er ungebetene Gäste ab, lässt aber deine Dienste durch.

Grundlagen der Serververwaltung

Wenn du schon bei der Kommandozeile schwitzt, ist jetzt ein guter Zeitpunkt, sich mit dem Terminal anzufreunden. Denn grafische Oberflächen sind zwar nice, aber bei echten Problemen hilft oft nur die gute alte Shell.

SSH: Das ist dein Fernzugang zum Server. Stell’s dir vor wie TeamViewer, aber ohne Maus und Klicki-Bunti. Sicher, schnell, nerdig.

Terminalbefehle: Dinge wie cd, ls, nano, sudo apt update sollten keine Hieroglyphen für dich sein.

Startpage ist dein bester Freund, aber du musst wissen, wonach du suchst. Die genaue Syntax kann je nach Distribution leicht variieren (z.B. apt-get statt apt in älteren Debian-basierten Systemen, obwohl apt mittlerweile Standard ist).

Dateisysteme und Rechte: Versteh, wer worauf Zugriff hat. Sonst installiert dein Server im schlimmsten Fall plötzlich ein Crypto-Mining-Tool, weil du überall 777-Rechte verteilt hast wie Süßigkeiten an Halloween.

Grundlagen der Sicherheit

Komm mir jetzt nicht mit „Ich hab doch nichts zu verbergen“. Wenn du einen Server betreibst, bist du ein potenzielles Ziel. Punkt.

Passwörter: Stark, einzigartig, verwaltbar. Passwortmanager nutzen. Keine Ausreden.

Verschlüsselung: Daten sollen nicht im Klartext durch die Weltgeschichte rauschen. Nutze SSL/TLS für Webseiten, verschlüssle Festplatten und sichere SSH mit Schlüsseln ab.

Backups: Stell dir vor, du wachst auf und dein Server ist futsch. Ohne Backup bist du dann echt der Depp vom Dienst. Also: regelmäßig, automatisiert und an mehreren Orten sichern.

2.2 Hardware-Anforderungen

Empfohlene Hardware für den Einstieg

Du musst kein Rechenzentrum betreiben, um loszulegen. Oft reicht schon Zeug, das bei dir sowieso rumliegt.

Raspberry Pi

Ältere, ideal für kleine Dienste. Wenig Stromverbrauch, viele Anleitungen, aber bei komplexeren Dingen bald am Limit. Neuere Modelle wie der Raspberry Pi 5 mit mehr RAM sind potenziell leistungsstärkere Optionen für anspruchsvollere Dienste.

Alter PC oder Laptop

Gut, wenn du was kleines planst oder einfach mal was ausprobieren willst.

NAS mit Docker-Support

Für die Bequemen unter uns. Viele NAS-Systeme bieten einfache Containerverwaltung. Perfekt, wenn du dich nicht komplett in Linux eingraben willst. Die Performance von Docker auf NAS-Systemen hängt stark vom jeweiligen Modell und dessen Ressourcen ab.

Mindestanforderungen für verschiedene Dienste

Nicht jeder Dienst hat die gleichen Ansprüche. Pi-hole: Läuft auf fast allem, wahrscheinlich sogar auf ’nem Toaster.

Nextcloud: Will RAM. 2 GB Minimum, mehr ist besser.

Jellyfin: Frisst CPU, vor allem bei Live-Transcoding.

Matrix/Synapse: Nicht unterschätzen – der will RAM und CPU, sonst wird’s schnell zäh wie kalter Pudding.

2.3 Software-Anforderungen

Betriebssysteme fürs Selfhosting

Raspberry Pi OS (früher Raspbian)

Das Ding, das deine Himbeere versteht wie kein anderer. Basierend auf Debian, optimiert für den kleinen Stromsparer. Gibt’s als Desktop-Version oder als „Lite“, ganz ohne grafischen Firlefanz, perfekt für Server im Schuhkartonformat. Stabil, schlank, anfängerfreundlich. Der Klassiker für Bastler und Heim-Admins mit Hang zur Effizienz.

Debian

Die Mutter aller Server-Distros. Stabil wie ein Betonklotz, keine unnötigen Gimmicks. Perfekt, wenn du ein System willst, das nicht alle zwei Wochen was Neues ausprobiert. Nicht flashy, aber verdammt zuverlässig, quasi der Volvo unter den Distros.

Ubuntu Server

Die etwas benutzerfreundlichere Variante von Debian. Mehr Komfort, größere Community, häufigere Updates. Ideal für Leute, die das Terminal nicht scheuen, aber trotzdem nicht komplett im Arch-Wiki abtauchen wollen. Viel verwendet, gut dokumentiert, schnell startklar.

Alpine Linux

Mini-OS für maximale Effizienz. Winzig klein, sauschnell, super für Container. Braucht kaum Ressourcen, dafür auch kaum Komfort. Wer’s schlank, hart und minimalistisch mag, fühlt sich hier wohl. Alle anderen: lieber bei Debian bleiben.

Container & Virtualisierung

Docker

Der Platzhirsch. Dienste in Containern isolieren, blitzschnell deployen, alles in kleinen hübschen Images verpackt. Riesen-Community, Milliarden von Anleitungen. Wer als Anfänger Selfhosting halbwegs modern betreiben will, kommt an Docker kaum vorbei.

Podman

Docker ist cool, aber Podman ist wie Docker auf Koffein, nur ohne die Nebenwirkungen. Podman braucht keinen ständig laufenden Hintergrunddienst (Daemon). Weniger Angriffsfläche, weniger Ressourcenverbrauch, mehr Kontrolle darüber, wann was läuft. Anders gesagt: Docker ist wie ein Butler, der immer da ist, auch wenn du ihn nicht brauchst. Podman hingegen kommt nur dann ins Spiel, wenn du ihn rufst. Außerdem läuft Podman standardmäßig ohne Root-Rechte, was heißt: Du kannst Container starten, ohne deinem System gleich Admin-Zugriff um die Ohren zu hauen. Sicherer, schlanker, nerdiger.

Aber Achtung: Für totale Anfänger ist Podman manchmal etwas zickiger als Docker, weil viele Tools und Anleitungen auf Docker ausgelegt sind. Wenn du aber eh schon planst, das Terminal zu deinem zweiten Zuhause zu machen, gönn dir Podman.

LXC / LXD

Die Hardcore-Container-Variante. Weniger „run nginx in 5 Sekunden“, mehr „ich bau mir mein eigenes Mini-Linux“. Mehr Kontrolle als Docker, aber auch mehr Setup-Aufwand. Super für alle, die wissen, was ein Init-System ist und warum ein Container kein halber VM-Ersatz sein sollte, sondern ein ganzer.

Virtuelle Maschinen (z. B. mit KVM/QEMU)

Wenn du’s richtig getrennt willst. Jede VM ist ein eigenes Betriebssystem mit vollem Zugriff auf alles, wie ein zweiter Rechner im Rechner. Etwas schwerfälliger als Container, aber dafür bombensicher abgeschottet. Ideal, wenn du dir nicht traust, dass dein frisch installierter Mailserver nicht gleich das ganze System zerschießt.

Proxmox

Die Edelsuite für alle, die’s ernst meinen. Webinterface, Backup-Snapshots, Clusterfunktionen, alles drin. Lässt dich VMs und LXC-Container easy managen. Wenn du mehr als nur „ein bisschen Nextcloud“ willst und lieber alles schön sauber getrennt laufen lässt: Proxmox ist dein Freund.

Verwaltung & Automatisierung

Portainer

Die Weboberfläche für Docker. Container klicken statt tippen, ideal für den Einstieg oder für Leute, die sich keine 50 Docker-Kommandos merken wollen. Sieht gut aus, funktioniert solide, macht deinen Server fast schon „Oma-kompatibel“.

Cockpit

Dein grafisches Cockpit für den Linux-Server. CPU-Auslastung? Check. Dienste starten? Klick. Updates? Machste mal eben. Ideal, wenn du zwar auf Linux schwörst, aber trotzdem gern siehst, was du da tust. Perfekt für Admins mit GUI-Herz.

Ansible

Schreib’s einmal, roll’s hundertmal aus. Ansible automatisiert dein Setup mit simplen Textdateien. Keine Klickerei, keine Copy-Paste-Orgien. Infrastruktur as Code. Klingt fancy, ist aber pure Effizienz. Muss man sich reinfuchsen, lohnt sich aber hart, wenn du mehrere Systeme betreibst.

Fazit zu Kapitel 2:

Bevor du lossprintest, lern das Gehen. Mit einem kleinen Verständnis für Netzwerke, einer gesunden Paranoia in Sachen Sicherheit und einem halbwegs stabilen Gerät als Grundlage bist du bestens gerüstet. Und denk dran: Es ist noch kein Admin vom Himmel gefallen, aber viele sind gescheitert, weil sie zu schnell hochfliegen wollten.

3. Erste Schritte

Jetzt, wo du die Grundlagen geschnallt hast und deine Hardware bereitsteht, wird’s ernst. In diesem Kapitel geht’s um die ersten praktischen Schritte: Wie bringst du deinem Blechhaufen bei, ein Server zu sein? Und wie sorgst du dafür, dass er nicht sofort vom Internet aufgefressen wird?

3.1 Einrichtung des Servers

Erste Regel: Kein Windows. Zweite Regel: Kein Windows.

Linux-Distribution wählen:

Raspberry Pi OS, Ubuntu Server oder Debian sind für Anfänger ideal. USB-Stick rein, ISO drauf, installieren. Wenn du’s noch einfacher willst, nimm ein Tool wie Balena Etcher oder den Raspberry Imager zum aufspielen.

Headless Setup:

Dein Server hat keinen Monitor? Kein Problem. Willkommen in der Welt des „Headless“-Betriebs. Beim Setup kannst du SSH (Fernzugriff übers Netzwerk) direkt aktivieren. Beim Raspberry Pi Imager zum Beispiel geht das über die erweiterten Optionen. So brauchst du keinen Bildschirm und keine Tastatur, sondern kannst dich direkt von deinem Laptop oder Desktop aus verbinden. Du stellst dir quasi deinen Server in die Ecke, lässt ihn vor sich hin rödeln, und greifst dann gemütlich per WLAN oder LAN vom Sofa aus drauf zu. Wie ein echter Hacker, nur ohne Kapuze.

Systembenutzer anlegen:

Ganz wichtig: Du brauchst einen Benutzer mit sogenannten sudo-Rechten. Das bedeutet, er darf Admin-Aufgaben ausführen, aber nur, wenn du’s ausdrücklich willst. Eine Art „Admin light“, bei dem du vorher nochmal „Ja, mach das wirklich“ sagen musst.

Nicht einfach den Benutzer „root“ für alles verwenden – das ist der Superadmin. Wenn du dich da vertippst oder ein falsches Skript loslässt, war’s das mit deinem Server. Nutze lieber einen normalen Benutzer mit sudo-Rechten, z. B. „tux“ oder „admin“ oder was auch immer. Hauptsache nicht „root“, außer du stehst auf Chaos und Neuinstallationen.

So geht’s (wenn du z. B. mit Ubuntu oder Debian arbeitest):

Einloggen als root (oder beim Setup mit deinem 1. Nutzer)

sudo su

Neuen Benutzer anlegen

adduser deinname

->Du wirst nach einem Passwort gefragt – setzen UND MERKEN

Zur sudo-Gruppe hinzufügen

usermod -aG sudo deinname

Willst du den Benutzer direkt beim Setup (z. B. mit Ubuntu Server) anlegen, wirst du automatisch gefragt und kannst gleich einen mit sudo-Rechten einrichten. Dieser Abschnitt hier ist vor allem hilfreich, wenn du im Nachhinein noch was ändern musst.

Grundlegende Serverkonfiguration

Paketquellen aktualisieren

sudo apt update && sudo apt upgrade -y -

dein neuer bester Freund.

Unnötige Dienste deaktivieren: Jeder Dienst, den du nicht brauchst, ist ein potenzielles Sicherheitsloch. Weg damit.

Zeitzone und Hostname setzen: Kleinkram, aber wichtig für Logs und Ordnung. timedatectl set-timezone Europe/Berlin zum Beispiel.

3.2 Netzwerkkonfiguration

Einrichtung eines lokalen Netzwerks

Dein Server soll erreichbar sein – aber nicht für jeden Dorftrottel mit WLAN. Deshalb:

Feste IP-Adresse vergeben

Standardmäßig bekommt dein Server vom Router automatisch eine IP-Adresse zugewiesen, das nennt sich DHCP (Dynamic Host Configuration Protocol). Klingt cool, ist aber Mist für Server. Warum? Weil sich diese automatisch zugewiesenen Adressen manchmal ändern. Und das ist schlecht, wenn du willst, dass dein Server immer unter derselben Adresse erreichbar ist.

Was tun?

Du brauchst eine feste IP-Adresse. Dafür gibt’s zwei Möglichkeiten:

DHCP-Reservierung im Router: Du sagst deinem Router: „Hey, wenn dieser eine Rechner mit dieser MAC-Adresse (eine Art Gerätekennung) anfragt, gib ihm immer dieselbe IP.“ Die meisten Router können das.

Direkt im Server einstellen: Du trägst im System manuell eine feste IP ein, z. B. in der Datei /etc/network/interfaces oder über den NetworkManager, je nach System.

DNS-Hostname setzen

Dein Server sollte auch einen Namen haben, sonst wirst du dir ständig IP-Adressen merken müssen, und das ist ungefähr so praktisch wie Telefonnummern im Kopf behalten.

Ein Beispiel für so einen Namen wäre karl.der.server.local. Der ist nur in deinem Heimnetz sichtbar (weil .local ein lokaler Domainzusatz ist). Klingt vielleicht albern, hilft aber, wenn du später mal mehrere Dienste hast.

Portweiterleitung und Firewall-Einstellungen

Jetzt kommt die Sache mit dem „Zugänglich-machen-von-außen“. Wenn du willst, dass du z. B. von deinem Smartphone oder Laptop aus unterwegs auf deinen Server zugreifen kannst, musst du Ports freigeben, das nennt sich Portweiterleitung.

Portweiterleitung im Router

Ein Port ist wie eine Tür in deinem Server. Jeder Dienst (z. B. deine Webseite, Nextcloud, etc.) benutzt eine bestimmte Tür. Damit die Pakete aus dem Internet nicht an deiner Routerwand zerschellen, musst du ihm sagen: „Wenn jemand an Tür 443 klopft (das ist die HTTPS-Tür), dann leite das bitte an meinen Server weiter.“

Wichtige Ports:

Port 443: Für verschlüsseltes HTTPS. Pflicht.

Port 80: Unverschlüsseltes HTTP – braucht man meist nur zum Einrichten von TLS/SSL-Zertifikaten mit Let’s Encrypt.

Also im Router sagen:→ „Port 443 weiterleiten an Server-IP“→ „Port 80 weiterleiten an Server-IP“ (später evtl. wieder dichtmachen)

Firewall einrichten (UFW)

Du willst nicht, dass alles und jeder auf deinen Server schießen kann. Deshalb: Firewall aktivieren. Die einfachste Lösung unter Ubuntu/Debian ist UFW – „Uncomplicated Firewall“ (kein Witz, die heißt wirklich so).

sudo ufw allow ssh

erlaubt Verbindungen über SSH

sudo ufw allow https

erlaubt HTTPS-Verkehr (Port 443)

sudo ufw enable

aktiviert die Firewall

Mehr brauchst du erstmal nicht. Alles andere bleibt zu, genau wie’s sein soll.

3.3 Sicherheitseinstellungen

Einrichtung SSH-Zugang

SSH steht für Secure Shell und ist wie die Fernbedienung für deinen Server, aber sicher verschlüsselt. Ohne Bildschirm und Tastatur direkt am Server kannst du ihn damit bequem vom Laptop aus steuern.

SSH aktivieren

Falls SSH noch nicht läuft (meist ist’s schon installiert), aktivierst du es mit:

sudo systemctl enable ssh sudo systemctl start ssh

Passwort-Login deaktivieren (und warum du das tun solltest)

Statt Benutzername + Passwort zu nutzen (was erraten oder durchprobiert werden kann), solltest du SSH-Schlüssel verwenden. Das ist eine Art digitaler Haustürschlüssel, den nur du besitzt.

Stell dir das so vor:

Passwort = normales Türschloss

SSH-Schlüssel = Tresor mit biometrischem Scan

So deaktivierst du den Passwort-Login (aber erst, wenn du den Schlüsselzugang getestet hast, sonst sperrst du dich aus!):

sudo nano /etc/ssh/sshd_config

Und dann in dieser Datei Folgendes einstellen (Zeilen ggf. einkommentieren):

PermitRootLogin no PasswordAuthentication no

Danach den SSH-Dienst neu starten:

sudo systemctl restart ssh

Fail2ban installieren

Fail2ban ist wie ein digitaler Türsteher. Wenn jemand mehrfach das falsche Passwort probiert, fliegt er raus, also die IP wird für eine Zeit gesperrt. Sehr effektiv gegen sogenannte Brute-Force-Angriffe (wildes Raten von Passwörtern).

Installation unter Debian/Ubuntu:

sudo apt install fail2ban

Fertig. Standardkonfiguration reicht für den Anfang.

Einrichtung von Firewalls und Sicherheitsupdates

Firewallregeln checken

Wie bei einer Clubtür: Du entscheidest, wer rein darf, alle anderen bleiben draußen. Regelmäßig prüfen, ob die Firewall nur das erlaubt, was du willst:

sudo ufw status verbose

Automatische Updates aktivieren

Du willst doch nicht jeden Sonntag von Hand Sicherheitsupdates einspielen, oder? Darum aktivierst du automatische Updates:

sudo apt install unattended-upgrades sudo dpkg-reconfigure --priority=low unattended-upgrades

Dann kannst du dich zurücklehnen – wichtige Sicherheitsupdates kommen von allein rein.

Fazit zu Kapitel 3

Dein Server steht jetzt da wie ein kleiner digitaler Bunker. Er hat:

  • eine feste Adresse (IP und Name),
  • eine klare Einlasskontrolle (Ports und Firewall),
  • einen gesicherten Zugang (SSH mit Schlüsseln),
  • und automatische Schutzmaßnahmen (Updates und Fail2ban).

Kurz gesagt:Er kann reden, hören und sich zur Not auch verteidigen.Willkommen im Club der Selbsthoster.

4. Selfhosting-Dienste

Jetzt geht’s darum, aus deinem Blechkameraden eine eierlegende Wollmilch-Selbsthost-Sau zu machen. Ob Kalender, Streaming, Smart Home oder sogar dein eigener Chatserver, alles geht, du musst nur wissen, wie.

4.1 Einfache Dienste zum Einstieg

Nextcloud – Dein persönliches Google Drive

Willst du Google zeigen, wo der Hammer hängt? Dann ist Nextcloud dein Freund.

Was kann das Ding? Dateiablage, Kalender, Kontakte, Notizen, Office – alles lokal, alles unter deiner Kontrolle.

Installation: Am einfachsten via Docker.

SSL nicht vergessen: Am besten gleich mit Let’s Encrypt absichern.

Tipp: Nutze die Mobile-Apps für Android/iOS, dann hast du dein eigenes Cloud-Ökosystem in der Hosentasche.

Pi-hole – Der Internet-Werbeblocker deines Vertrauens

Weg mit der Werbung. Weg mit Trackern. Willkommen in der digitalen Sauberkeit.

Was ist das? Ein DNS-Server, der Werbung und Tracker gar nicht erst auflöst.

Installation: Kinderleicht per Curl-Script oder Docker:

curl -sSL https://install.pi-hole.net | bash

Wirkung: Plötzlich ist dein ganzes Netzwerk sauber. Sogar die Apps auf dem Fernseher schnüffeln nicht mehr rum.

4.2 Fortgeschrittene Dienste

Matrix/Synapse – Weg mit WhatsApp

Federated, verschlüsselt, offen. Der Chatserver, den du selbst kontrollierst.

Matrix ist das Protokoll, Synapse ist die Referenz-Implementierung.

Was kann’s? Gruppen, Direktnachrichten, Ende-zu-Ende-Verschlüsselung.

Clients: Element (Web, Desktop, Mobile) ist die bekannteste App dafür.

Warnung: Braucht ein bisschen Power und RAM, nix für den kleinsten Raspberry. Es gibt auch schlankere Matrix-Implementierungen wie Dendrite, die weniger Ressourcen benötigen, aber möglicherweise noch nicht den vollen Funktionsumfang von Synapse bieten.

Gitea – Deine private GitHub-Alternative

Für alle Code-Menschen unter uns: Git-Server ohne Microsoft.

Was ist das? GitHub in schlank, privat und ohne NSA.

Features: Repositories, Pull Requests, Issues, Wiki – alles drin.

Installation: Ein Binary, ein Docker-Container – du entscheidest.

Jellyfin – Medienstreaming für dein Wohnzimmer

Netflix? Plex? Nein danke. Jellyfin ist deine private Streamingzentrale.

Was kann das? Filme, Serien, Musik, Live-TV. Gestreamt auf alle Geräte.

Kompatibilität: Webbrowser, Fire TV, Android TV, iOS…

Hardwarebedarf: Transcoding kann aufwendiger sein, nimm was mit Dampf unterm Kühler.

Fazit zu Kapitel 4:

Jetzt hast du nicht nur einen Server, du hast ein digitales Imperium aufgebaut. Dein Kalender? Lokal. Deine Dateien? Lokal. Deine Filme? Lokal. Dein Chat? Lokal. Und das Beste: Kein einziger Konzern verdient an deinen Daten. Willkommen in der Freiheit.

5. Wartung und Sicherheit

Herzlichen Glückwunsch, du hast ein paar Dienste am Start und bist auf dem besten Weg, deinen eigenen kleinen Cyberspace zu regieren.

Jetzt kommt der unangenehme Teil: Du musst den Kram auch am Laufen halten. Regelmäßig. Zuverlässig. Und möglichst sicher. Klingt trocken, ist aber das Rückgrat deines Setups. Wer will schon nachts aufwachen, weil irgendwer aus Tschetschenien gerade deinen Nextcloud-Server entert?

5.1 Regelmäßige Wartung

Software-Updates und Patches

Updates sind wie die Inspektion beim Auto: Du kannst sie ignorieren, aber wenn dir die Karre um die Ohren fliegt, ist das Geheule groß.

Updates bringen neue Programmversionen, schließen Sicherheitslücken und beheben Bugs.

Warum das wichtig ist? Weil dein Server ständig Angriffsziel ist. Und veraltete Software ist wie eine Haustür ohne Schloss, lädt einfach jeden ein.

Wie oft? Einmal pro Woche ist ein guter Rhythmus. Bei sicherheitskritischen Diensten (z. B. öffentlich erreichbare Webanwendungen) gern auch öfter.

Wie läuft das ab?Entweder manuell über die Kommandozeile oder automatisch mit Zeitplänen.Beispiele:

Bei Ubuntu/Debian:

sudo apt update && sudo apt upgrade

Bei Fedora/CentOS:

sudo dnf update

Bei Docker-Containern:

docker pull dein/image

Und bevor du was Größeres updatest und einfach überhaupt: Backup machen. Immer. Ohne Diskussion.

Überwachung und Logging

Du willst wissen, wenn dein Server im Sterben liegt und nicht erst, wenn der Familien-Nextcloud-Zug in Flammen steht.

Was bedeutet Logging?Dein System schreibt still und leise alles mit: Fehlermeldungen, Anmeldeversuche, Abstürze, Updates.. alles. Diese Protokolle nennt man Logs.

Warum überhaupt?Weil du ohne diese Infos im Dunkeln tappst. Wenn ein Dienst ausfällt oder jemand versucht, sich unberechtigt einzuloggen, erfährst du das nur über Logs oder Überwachungstools.

Tools, die dir dabei helfen können:

journalctl: Zeigt Systemereignisse.

logwatch: Schickt dir eine tägliche oder wöchentliche Übersicht per Mail.

fail2ban: Überwacht Loginversuche und sperrt auffällige IP-Adressen automatisch.

Uptime Kuma: Ein hübsches Web-Tool zur Überwachung von Diensten, mit Push-Benachrichtigung bei Ausfällen.

Tipp: Richte Logrotation ein, also eine automatische „Aufräumaktion“ für alte Logs. Sonst platzt dir irgendwann die Festplatte vor lauter Textmüll.

Was solltest du konkret im Blick behalten?

Ob alle deine Dienste noch laufen.

Wie viel RAM, CPU und Festplattenspeicher dein System frisst.

Wer sich wann wo einloggt – oder es zumindest versucht.

Ob deine Website oder Nextcloud noch erreichbar sind.

5.2 Sicherheitsmaßnahmen

Backups – Dein digitales Sicherheitsnetz

Wenn du keine Backups hast, wirst du irgendwann mit einem leeren Blick auf eine leere Festplatte starren. Und fluchen.

Was ist ein Backup?Eine zusätzliche Kopie deiner wichtigen Daten, falls mal was kaputtgeht, gelöscht wird oder du Mist gebaut hast.

Wie macht man’s richtig?Nutze die 3-2-1-Regel:

3 Kopien deiner Daten (Original + 2 Backups) auf 2 verschiedenen Medien (z. B. Festplatte + Cloud) und 1 davon außerhalb deiner Wohnung (z. B. bei Mutti).

Welche Tools sind gut?

rsync: Einfach und flexibel, perfekt für Skripte.

borgbackup und restic: Fortgeschrittene Tools mit Verschlüsselung und Deduplizierung.

Für Nextcloud: eigene Backup-Skripte oder Apps nutzen.

Automatisierung?Ja bitte. Per Cronjob oder systemd-Timer. Dann läuft’s im Hintergrund, wie ein pflichtbewusster kleiner Backup-Gnom.

Und testen nicht vergessen!Ein Backup, das du nie ausprobiert hast, ist wie ein Feuerlöscher aus dem Euroshop: Sieht gut aus, hilft aber nicht.

Verschlüsselung – Schnüffeln verboten

Wenn du deine Daten nicht verschlüsselst, kannst du sie auch gleich als Torrent ins Netz stellen.

SSL/TLS für Webseiten:Nutze Let’s Encrypt. Das macht deinen Webverkehr sicher, also z. B. für deine selbstgehostete Website oder Nextcloud. Mit Tools wie certbot sogar komplett automatisch.

Festplattenverschlüsselung:Mit LUKS (Linux Unified Key Setup) kannst du deine gesamte Festplatte absichern. Gerade bei Laptops oder Servern mit sensiblen Daten sehr empfehlenswert.

VPN für Fernzugriffe:Nutze WireGuard oder OpenVPN, wenn du von unterwegs auf deinen Server willst. Dann landet dein Passwort nicht im Klartext auf irgendwelchen Zwischenstationen im Internet.

Zwei-Faktor-Authentifizierung (2FA)

Ein Passwort schützt deine Dienste. Zwei Faktoren machen’s richtig sicher.

Was ist 2FA?Neben deinem Passwort brauchst du einen zusätzlichen Code. Meist über eine App auf dem Handy.

Wo einrichten?Überall, wo’s geht: Nextcloud, Gitea, Home Assistant, Matrix – du wirst es später nicht bereuen.

Welche Apps taugen was?Nimm z. B. Aegis (Open Source für Android), FreeOTP oder Authy. Finger weg vom Google Authenticator, wir nutzen diese Datenkraken hier nicht, egal wofür!

Ganz wichtig:Backup-Codes abspeichern. Auf Papier. Oder verschlüsselt. Sonst kommst du selbst nicht mehr rein, wenn das Handy mal den Geist aufgibt.

Fazit zu Kapitel 5:

Selfhosting ist kein Set-and-Forget-Ding. Wenn du deinen Server sich selbst überlässt, mutiert er zum digitalen Komposthaufen mit offener Tür und ohne Alarmanlage.

Aber wenn du dich regelmäßig kümmerst, mit Updates, Backups, Monitoring und einer gesunden Prise Paranoia, dann hast du eine stabile, sichere Homebase im Netz. Und genau darum geht’s beim Selfhosting.

6. Community und Ressourcen

Selfhosting ist kein einsames Hobby für Höhlenbewohner mit Aluhut, es lebt von Austausch, Hilfe und kollektiver Nerdigkeit. Ohne Community gäb’s keine coolen Projekte, keine Hilfe bei kaputten Docker-Containern und keine Memes über DNS-Konfiguration. Also: Lass dich nicht nur inspirieren, sondern vernetz dich!

6.1 Community und Unterstützung

Foren und Online-Communities

Wo die Klugen wohnen und wo Leute wie du Fragen stellen können, ohne gleich dumm dazustehen.

Reddit:

Deutsche Foren:

6.2 Dokumentation und Tutorials

Offizielle Dokus/Wikis

Jede gute Selfhosting-App hat eine Doku. Lies sie. Wirklich. Kein Witz.

YouTube-Tutorials

Für visuelle Lerntypen..

Empfohlene Channels (Englisch):

Auf Deutsch:

Bücher

Ja, echte Bücher, aus Papier. Gibt’s noch.

*Keine Werbung. Nur Empfehlung, da selbst gelesen und für gut befunden.

  • Self-Hosting von Florian Bottke
  • How Linux Works(super Einsteigerlektüre mit Tiefgang)
  • Linux Hardening in Hostile Networks(wenn du richtig einsteigen willst)

Tools und Software, die dir helfen

  • Monitoring: Uptime Kuma, Netdata, Zabbix
  • Backup: BorgBackup, Restic
  • Passwortverwaltung: Bitwarden (kannst du sogar selfhosten!)
  • Containerverwaltung: Portainer (Web-GUI für Docker)
  • Sicherheit: Fail2ban, CrowdSec, RKHunter

Motivation zum Dranbleiben

Selfhosting ist wie ein neues Hobby mit steiler Lernkurve. Und ja, es wird auch mal nervig. Es wird Tage geben, da fragst du dich, warum du dir das antust. Irgendwas läuft nicht, ein Dienst hängt oder ein Update schießt dir alles ab. Willkommen in der Realität. Aber mit jeder gelösten Herausforderung wächst du.

Du lernst nicht nur Technik, du baust dir ein Stück digitale Unabhängigkeit. Du wirst sicherer, kritischer, informierter. Und irgendwann blickst du auf deinen selbstgebauten Tech-Zoo und denkst dir: „Verdammt, das hab ich echt selber gemacht.“

Und keine Panik: Du bist nicht allein. Die Selfhosting-Community ist riesig, hilfsbereit und voll mit Leuten, die genau wie du mal keinen Plan hatten. Tutorials, Foren, Blogs… alles da. Nimm dir Zeit, das wird schon.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert