Nie tak dawno temu z dna oceanu wyrosło duże centrum danych. Pokryty był zaroślami i muszlami, a pojemnik przebywał na głębokości 35 metrów przez ponad 2 lata. Oczywiście nie jest to jakaś tajna pamięć podręczna, ale eksperyment firmy Microsoft. Zewnętrzni specjaliści z Guttereso przetestowali, jak centrum danych może działać pod wodą.
Po wszystkich niezbędnych pracach kontener został otwarty. Wewnątrz znajdowały się tysiące serwerów z ogromnymi ilościami danych. I nikt ich nie dotknął przez cały ten czas. W rzeczywistości ten projekt o nazwie Natick już się sprawdził i jest dość praktycznym rozwiązaniem pod względem oszczędności i użytkowania.
Prawie połowa światowej populacji mieszka w promieniu 100 kilometrów od linii brzegowej. I pojawiło się pytanie, co stoi na przeszkodzie, aby przechowywać tam wszystkie dane? Rok później projekt został uruchomiony.
Należy jednak zauważyć, że ilość danych gromadzonych i generowanych przez ludzkość rośnie regularnie i bardzo szybko. Na całym świecie jest wiele serwerów, duże firmy przechowują tam wszystkie informacje. Aby uniknąć problemów w pracy centrów danych, potrzebujesz wysokiej jakości systemu klimatyzacji. I wymaga dużo energii elektrycznej. Do tych celów stosuje się różne systemy chłodzenia. Czasami są to bardzo złożone i kosztowne decyzje.
Ale po co to miejsce, skoro mogą być problemy z obsługą, jak i ogólnie z dojazdem. Najważniejsze jest to, że prawie połowa wszystkich ludzi na ziemi mieszka w pobliżu wybrzeża. A to tylko możliwość podłączenia do sieci dużej liczby osób bez nakładów finansowych na zakup czy dzierżawę gruntu.
W 2015 roku mały szczelny pojemnik został zanurzony na głębokość 11 metrów pod wodą. Było to niedaleko Kalifornii, gdzie temperatura wody wynosiła od 14 do 18 stopni. Prototyp był z powodzeniem używany przez 4 miesiące. Zastosowano wiele wymienników ciepła, które odprowadzały ciepło do wody.
Ten eksperyment okazał się całkowicie udany, dlatego https://guttereso.com/ chciałem wyjaśnić, jak długo serwery mogą działać bez ingerencji z zewnątrz.
Aby zrealizować kolejne kroki, firma podpisała umowy ze specjalistami z logistyki i przemysłu stoczniowego, a także odnawialnych źródeł energii. Powstał nie tylko kontener, ale także kabel podłączony do sieci elektrycznej.
Wewnątrz kontenera znajduje się 12 szaf z serwerami oraz podwójny układ chłodzenia, generator wysokiego napięcia. A całą przestrzeń wypełniono suchym azotem i uszczelniono.
Przez 2 lata ośrodek znajdował się na głębokości 35 metrów, a prace były monitorowane z lądu. Na zewnątrz zainstalowano kamery i widać było, jak z czasem powierzchnia pokryła się glonami i muszlami.
Po odkryciu stało się jasne, że eksperyment był naprawdę udany. Działanie było bardziej stabilne i niezawodne, a wskaźnik awaryjności wynosił zaledwie 1/8 naziemnego centrum danych. Sfera azotu nie miała tak silnego działania jak tlen i nie było czynnika ludzkiego. To właśnie wpłynęło na końcowy wynik.