Zugang


Zugang zum Linux-Cluster

Der Zugang zum Linux-Cluster erfolgt über eine SSH-Verbindung zu dem Rechner its-cs1.its.uni-kassel.de. Sie benötigen dazu einen UniAccount und einen Arbeitsplatzrechner mit SSH-Client Software. Ihre Programme führen Sie nicht auf dem its-cs1.its.uni-kassel.de aus, sondern nutzen den Batchbetrieb mit SLURM.


Windows

Für den Zugriff auf den Cluster über den Rechner its-cs1.its.uni-kassel.de mit Ihrem UniAccount kann unter Windows der freie SSH-Client MobaXterm (empfohlen) oder alternativ das Programm PuTTY verwendet werden.

Nach erfolgreichem Zugriff auf den Cluster befinden Sie sich in Ihrem Homeverzeichnis. Um Daten zu transferieren können Sie ihren eigenen Computer ebenfalls mit Ihrem Homeverzeichnis verbinden (empfohlen) oder die freie Software WinSCP nutzen.

Nach oben


Linux

Das Betriebssystem Linux hat die SSH-Clientsoftware üblicherweise installiert, hier genügt für den Zugriff auf den Cluster folgendes SSH-Kommando mit UniAccount und Zielrechner:

 ssh -Y uk00123@its-cs1.its.uni-kassel.de

Sie befinden sich nun in ihrem Homeverzeichnis. Um Daten zu transferieren können Sie entweder ihren Computer ebenfalls mit Ihrem Homeverzeichnis verbinden (empfohlen), oder alternativ die folgenden Kommandos verwenden:

scp :

 scp file.txt uk00123@its-cs1.its.uni-kassel.de:/home/users/000/uk00123

bzw. sftp:

 sftp uk00123@its-cs1.its.uni-kassel.de
Connected to its-cs1.its.uni-kassel.de.
sftp>

Um sich beim Einloggen die Eingabe der gesamten Hostadresse unter Linux zu sparen, kann mit der Datei config im .ssh-Ordner des lokalen home-Verzeichnisses gearbeitet werden:

cat ~/.ssh/config
Host cs1
  Hostname its-cs1.its.uni-kassel.de
  User uk00123
ForwardX11 yes

Jetzt ist ein Login mit dem kürzeren Kommando ssh cs1 möglich.

Nach oben


Speicherplatz

Während eines Jobs können alle Nodes auf die Daten Ihres Homelaufwerks zugreifen, da dieses global über das Netzwerk angebunden ist. Der Datenzugriff ist allerdings schneller, wenn diese während eines Jobs direkt lokal auf einen Node in /local kopiert werden. Dafür kann nur noch dieser Node auf die Daten zugreifen.

Reicht der Platz Ihres Homeverzeichnisses während der Joblaufzeit nicht aus, können Sie die Daten während der Joblaufzeit auf /work ablegen. Beachten Sie bei /work und /local, dass ältere Daten automatisch nach der unten angegebenen Bestandszeit gelöscht werden, da Sie sonst anderen Jobs den Platz wegnehmen würden.

Möchten Sie allgemein mehr Daten dauerhaft ablegen, haben Sie zwei Möglichkeiten. Sie können die Größe des Homeverzeichnisses erhöhen lassen, indem Sie eine Anfrage unter Kontakt mit einer Begründung stellen. Reicht Ihnen der Platz auch nicht aus oder andere Mitarbeiter oder Ihr Fachgebiet soll gemeinsam auf die Daten zugreifen, dann beantragen Sie eine Gruppenressource. Beachten Sie bei Ihrem Antrag, dass Sie den Hacken für "Zugriff" unter "Unix" setzen und machen Sie sich Gedanken über Größe und Bestandszeit, welche Sie beantragen.

Ihr verfügbarer Plattenspeicher:

Verzeichnis (globale Variable)

Größe

Verfügbarkeit

Backup

Bestandszeit

Homeverzeichnis

10 GB

global (gpfs, 1 GBit/s pro Node)

ja

unbegrenzt

Gruppenressource

variabel

global (gpfs, 1 GBit/s pro Node)

ja

variabel

/work

12 TB

global (gpfs, 1 GBit/s pro Node)

nein

30 Tage

/local

1,8 TB

lokal (RAID 0)

nein

30 Tage

  • Global verfügbar bedeutet, dass das Verzeichnis auf jedem Rechnerknoten des Clusters verfügbar ist.
  • Lokal verfügbar bedeutet, dass sich das Verzeichnis auf der lokalen Platte des Rechnerknotens befindet und nur von dem jeweiligen Rechnerknoten aus erreichbar ist
  • Eine befristete Bestandszeit bedeutet, dass die Dateien automatisch gelöscht werden, wenn die letzte Änderung an den Dateien länger als die zugesicherte Bestandszeit zurück liegt. Das bedeutet auch, dass eine entpackte Archivdatei, deren Dateien nun eine letzte Änderung von vor 2 Jahren aufweisen, sofort zum Löschen freigegeben sind.
  • Beachten Sie bei /work, dass Sie sich den Platz mit den anderen Usern teilen. Ist das Verzeichnis voll, kann niemand mehr damit arbeiten. Sehen Sie sich die Auslastung vor einem großen Kopiervorgang mittels "df -h /work" an.
  • Bei einer Gruppenressource sind Größe und Bestandszeit vom individuellen Antrag abhängig.

Nach oben