500MByte/sec über WWG
Golem.de berichtete heute über einen Probelauf zwischen der Forschungseinrichtung CERN und 7 Rechenzentren auf der ganzen Welt. Bei diesem Testlauf wurden über einen Zeitraum von 10 Tagen hinweg 500 MegaByte an Daten pro Sekunde ausgetauscht.
Ziel des Projektes ist es ab 2007 über 10 Jahre hinweg einen Datenstrom von 1.500 MByte/s über die ganze Welt zu verteilen, um die Daten welche aus dem 27 km langen Teilchenbeschleuniger Large Hadron Collider (LHC) gesammelt werden auf insgesamt 11 Rechenzentren zu verteilen. Von diesen 11 RZ’s werden die Daten wieder an insgesamt 100 kleinere RZ’s verteilt. Von diesen kleineren Rechenzentren aus werden die Daten dann in wissenschaftliche Einrichtungen verteilt damit sie an den Arbeitsplätzen von vielen tausend Wissenschaftlern weltweit untersucht und verarbeitet werden können.
Interessant fand ich die Frage eines Lesers, wie diese Unmengen an Daten gespeichert werden sollen. Schliesslich sind drei Millionen GByte Daten pro Jahr keine Kleinigkeit. Bei dieser Frage tauchte als Antwort der Link zu einem etwas älteren Artikel von Golem.de auf: http://www.golem.de/0503/37208.html
Hier wird über eine Testreihe des CERN berichtet, bei welcher auf einen Plattenverbund Daten mit einer Geschwindigkeit von 1GB/s geschrieben wurden. Möglich wurde dies mittels der IBM-Speichervirtualisierungssoftware TotalStorage SAN File System.
Da mich dieses Projekt doch sehr interessiert werde ich auch weiterhin an diesem Thema dran bleiben und euch hier darüber berichten, wenn es neues gibt.
ZKL