Zugang

Zugang zum Linux-Cluster

Um den Zugang zum Linux-Cluster zu nutzen, müssen Sie ihn einmalig selbst freischalten. Öffnen Sie dazu das Identitätsmanagement (IDM) und wählen Sie den Menüpunkt "Zugriff anfordern" aus. Anschließend klicken Sie auf die Kachel "Zugriff auf den Linux-Cluster verwalten". Erst danach ist eine Verbindung zum Cluster möglich.

Die Verbindung zum Linux-Cluster erfolgt über eine SSH-Verbindung. Aktuell gibt es zwei Headnodes: Den ursprünglichen Zugang erreichen Sie über its-cs1.its.uni-kassel.de. Alle bereits auf das neue Betriebssystem umgestellten Nodes erreichen Sie über its-cs132.its.uni-kassel.de. Sobald die Umstellung abgeschlossen ist, wird its-cs132 in its-cs1 umbenannt. Bitte beachten Sie, dass Ihre Programme nicht direkt auf dem Headnode ausgeführt werden, sondern im Batchbetrieb über das Jobmanagement-System SLURM.

Für die Nutzung benötigen Sie einen UniAccount (ukxxxxxx) sowie einen Arbeitsplatzrechner mit installierter SSH-Client-Software.

Windows

Für den Zugriff auf den Linux-Cluster unter Windows empfehlen wir die Nutzung der kostenlosen Software MobaXterm [extern]. Nach der Installation starten Sie MobaXterm und eröffnen eine neue Session vom Typ "SSH". Als Remote Host tragen Sie its-cs1.its.uni-kassel.de ein und verwenden Ihren UniAccount <ukxxxxxx> mit der Domäne <@uni-kassel.de> dahinter als Benutzernamen. Eine VPN-Verbindung ist für den Zugriff aus dem Internet nicht erforderlich.

Bitte beachten Sie, dass bei der Eingabe Ihres Passworts kein sichtbares Feedback wie Sternchen angezeigt wird. Tippen Sie Ihr Passwort einfach ein und bestätigen Sie mit Enter. Nach erfolgreicher Anmeldung befinden Sie sich in Ihrem Homeverzeichnis auf dem Cluster.

Um Daten einfach zu übertragen, können Sie Ihren lokalen Rechner ebenfalls mit Ihrem Homeverzeichnis verbinden . Für den Zugriff von außerhalb des Universitätsnetzwerks empfehlen wir die Nutzung der VPN Software der Uni Kassel. Alternativ können Sie auch die Software WinSCP verwenden, mit der Sie ohne VPN-Verbindung arbeiten können.

Linux

Unter Linux ist die SSH-Client-Software in der Regel bereits vorinstalliert. Sie können sich mit folgendem Kommando mit dem Cluster verbinden:

ssh -Y uk00123@its-cs1.its.uni-kassel.de

Sie befinden sich nun in Ihrem Homeverzeichnis. Um Daten zu transferieren können Sie entweder ihren Computer ebenfalls mit Ihrem Homeverzeichnis verbinden, oder alternativ die folgenden Kommandos verwenden:

scp :

 scp file.txt uk00123@its-cs1.its.uni-kassel.de:/home/users/000/uk00123

bzw. sftp:

sftp uk00123@its-cs1.its.uni-kassel.de

Connected to its-cs1.its.uni-kassel.de.

sftp>

Um sich beim Einloggen die Eingabe der gesamten Hostadresse unter Linux zu sparen, kann mit der Datei config im .ssh-Ordner des lokalen home-Verzeichnisses gearbeitet werden:

cat ~/.ssh/config
Host cs1
  Hostname its-cs1.its.uni-kassel.de
  User uk00123
ForwardX11 yes

Jetzt ist ein Login mit dem kürzeren Kommando ssh cs1 möglich.

Speicherplatz

Während eines Jobs können alle Nodes auf die Daten Ihres Homeverzeichnisses zugreifen, da es global über das Netzwerk verfügbar ist. Der Zugriff auf lokal gespeicherte Daten (zum Beispiel im Verzeichnis /local) ist schneller, allerdings sind diese Daten nur auf dem jeweiligen Rechnerknoten verfügbar.

Wenn der Platz im Homeverzeichnis während eines Jobs nicht ausreicht, können Sie Daten während der Laufzeit auf /work ablegen. Beachten Sie bitte, dass Dateien in den Verzeichnissen /work und /local nach einer bestimmten Bestandszeit automatisch gelöscht werden.

Hier eine Übersicht der verfügbaren Verzeichnisse:

  • Im Homeverzeichnis stehen Ihnen 10 GB Speicherplatz zur Verfügung. Es ist global verfügbar und wird regelmäßig gesichert. Daten bleiben dort unbegrenzt gespeichert.

  • Das Verzeichnis /work bietet 8 TB Speicherplatz, ist ebenfalls global verfügbar, jedoch nicht gesichert. Dateien werden nach 30 Tagen Inaktivität gelöscht.

  • Im Verzeichnis /local stehen 1,8 TB lokaler Speicher zur Verfügung. Auch hier erfolgt keine Sicherung, und Dateien werden nach 30 Tagen gelöscht.

  • Das temporäre Verzeichnis /tmp auf den Nodes bietet 2 GB Speicherplatz. Dateien werden hier bereits nach zwei Tagen gelöscht.

Bitte beachten Sie, dass Sie sich den Speicherplatz auf /work mit anderen Nutzenden teilen. Prüfen Sie bei großen Kopiervorgängen vorher die aktuelle Belegung mit dem Befehl df -h /work, um Platzprobleme zu vermeiden.

Bei Gruppenressourcen sind Speichergröße und Bestandszeit individuell und abhängig vom gestellten Antrag.