Wielu z nas zna komputery. Prawdopodobnie używasz teraz tego, aby przeczytać ten post na blogu, ponieważ urządzenia takie jak laptopy, smartfony i tablety są zasadniczo tą samą technologią komputerową. Z drugiej strony superkomputery są nieco ezoteryczne, ponieważ często uważa się je za ogromne, kosztowne, maszyny do odsysania energii opracowane zasadniczo dla instytucji rządowych, ośrodków badawczych i dużych firmy.
Weźmy na przykład chiński Sunway TaihuLight, obecnie najszybszy superkomputer na świecie, według rankingu superkomputerów Top500. Składa się z 41 000 układów scalonych (same procesory ważą ponad 150 ton), kosztuje około 270 milionów dolarów i ma moc znamionową 15 000 kW. Plusem jest jednak to, że jest on w stanie wykonać kwadryliony obliczeń na sekundę i może przechowywać do 100 milionów książek. I podobnie jak inne superkomputery, będzie wykorzystywany do wykonywania najbardziej złożonych zadań w dziedzinach nauki, takich jak prognozowanie pogody i badania nad narkotykami.
Kiedy wynaleziono superkomputery
Pojęcie superkomputera pojawiło się po raz pierwszy w latach 60. XX wieku, kiedy inżynier elektryk o nazwisku Seymour Cray rozpoczął tworzenie najszybszego komputera na świecie. Cray, uważany za „ojca superkomputera”, odszedł ze stanowiska u giganta branży komputerowej Sperry-Rand dołącza do nowo powstałej Control Data Corporation, aby mógł się skupić na rozwoju komputery naukowe. Tytuł najszybszego komputera na świecie posiadał wówczas IBM 7030 „Stretch”, jeden z pierwszych, który zastosował tranzystory zamiast lamp próżniowych.
W 1964 r. Cray wprowadził CDC 6600, w którym wprowadzono innowacje, takie jak wyłączenie tranzystorów germanu na rzecz krzemu i układu chłodzenia opartego na Freonie. Co ważniejsze, działał z prędkością 40 MHz, wykonując około trzy miliony operacji zmiennoprzecinkowych na sekundę, co czyniło go najszybszym komputerem na świecie. Często uważany za pierwszy na świecie superkomputer, CDC 6600 był 10 razy szybszy niż większość komputerów i trzy razy szybszy niż IBM 7030 Stretch. Tytuł ostatecznie zrzekł się w 1969 r. Na następcę CDC 7600.
Seymour Cray idzie solo
W 1972 r. Cray opuścił Control Data Corporation i założył własną firmę, Cray Research. Po pewnym czasie pozyskania kapitału zalążkowego i finansowania od inwestorów, Cray zadebiutował Cray 1, który ponownie podniósł poprzeczkę pod względem wydajności komputera o szeroki margines. Nowy system działał z częstotliwością taktowania 80 MHz i wykonywał 136 milionów operacji zmiennoprzecinkowych na sekundę (136 megaflopów). Inne unikalne funkcje obejmują nowszy typ procesora (przetwarzanie wektorowe) i zoptymalizowaną prędkość w kształcie podkowy, która minimalizuje długość obwodów. Cray 1 został zainstalowany w Los Alamos National Laboratory w 1976 roku.
W latach osiemdziesiątych Cray stał się wybitną marką w dziedzinie superkomputerów i wszelkie nowe wydania były powszechnie spodziewane, że przewrócą jego wcześniejsze wysiłki. Tak więc, podczas gdy Cray był zajęty pracą nad następcą Cray 1, osobny zespół w firmie wydał Cray X-MP, model, który został wystawiony na rachunek za bardziej „oczyszczoną” wersję Cray 1. Miał ten sam kształt w kształcie podkowy, ale szczycił się wieloma procesorami, wspólną pamięcią i czasami jest opisywany jako dwa Cray 1 połączone razem jako jeden. Cray X-MP (800 megaflopów) był jednym z pierwszych projektów „wieloprocesorowych” i pomógł otworzyć drzwi do przetwarzanie równoległe, w którym zadania obliczeniowe są dzielone na części i wykonywane jednocześnie przez różne procesory.
Cray X-MP, który był stale aktualizowany, służył jako standardowy nośnik do długo oczekiwanej premiery Cray 2 w 1985 roku. Podobnie jak jego poprzednicy, najnowszy i największy Cray przyjął tę samą konstrukcję w kształcie podkowy i podstawowy układ z układami scalonymi ustawionymi razem na płytkach logicznych. Tym razem jednak komponenty zostały tak mocno wciśnięte, że komputer musiał zostać zanurzony w układzie chłodzenia cieczą, aby rozproszyć ciepło. Cray 2 został wyposażony w osiem procesorów z „procesorem pierwszego planu” odpowiedzialnym za obsługę pamięci, pamięć i udzielanie instrukcji „procesorom działającym w tle”, które miały za zadanie obliczenia. Łącznie osiągnęła prędkość przetwarzania 1,9 miliarda operacje zmiennoprzecinkowe na sekundę (1,9 Gigaflops), dwa razy szybciej niż Cray X-MP.
Pojawiają się inni projektanci komputerów
Nie trzeba dodawać, że Cray i jego projekty rządziły wczesną erą superkomputera. Ale nie tylko on awansował na boisku. Na początku lat 80. pojawiły się również masowo równoległe komputery, zasilane przez tysiące procesorów pracujących w tandemie, aby pokonać bariery wydajności. Niektóre z pierwszych systemów wieloprocesorowych zostały stworzone przez W. Daniel Hillis, który wpadł na pomysł jako doktorant w Massachusetts Institute of Technology. W tym czasie celem było przezwyciężenie ograniczeń prędkości związanych między innymi z bezpośrednimi obliczeniami CPU procesory, opracowując zdecentralizowaną sieć procesorów, które działały podobnie do neuronalnych w mózgu sieć. Jego zaimplementowane rozwiązanie, wprowadzone w 1985 r. Jako maszyna do łączenia lub CM-1, zawierało 65 536 połączonych jednobitowych procesorów.
Początek lat 90. był początkiem końca duszenia się Craya w dziedzinie superkomputerów. Do tego czasu pionier superkomputerów odłączył się od Cray Research, tworząc Cray Computer Corporation. Firma zaczęła iść na południe, gdy projekt Cray 3, zamierzony następca Cray 2, napotkał mnóstwo problemów. Jednym z głównych błędów Craya było wybranie półprzewodników z arsenku galu - nowszej technologii - jako sposobu na osiągnięcie wyznaczonego celu, jakim jest 12-krotna poprawa prędkości przetwarzania. Ostatecznie trudności w ich wytwarzaniu, wraz z innymi komplikacjami technicznymi, zakończyły się opóźnieniem projekt od lat i ostatecznie doprowadził do utraty wielu potencjalnych klientów firmy zainteresowanie. Wkrótce w firmie zabrakło pieniędzy i złożyli wniosek bankructwo w 1995.
Walki Craya ustąpiłyby miejsca zmianie warty, ponieważ konkurencyjne japońskie systemy komputerowe zdominowałyby tę dziedzinę przez większą dekadę. NEC Corporation z siedzibą w Tokio po raz pierwszy pojawiła się na scenie w 1989 roku wraz z SX-3, a rok później zaprezentował czteroprocesorową wersję, która przejęła rolę najszybszego komputera na świecie, ale została przyćmiona w 1993 r. W tym samym roku numeryczny tunel aerodynamiczny Fujitsu, z brutalną siłą 166 procesorów wektorowych, stał się pierwszym superkomputerem, który przekroczył 100 gigaflopów (uwaga: aby dać ci pomysł, jak szybko postępuje technologia, najszybsze procesory konsumenckie w 2016 roku mogą z łatwością wykonać ponad 100 gigaflopów, ale wtedy było to szczególnie imponujące). W 1996 roku Hitachi SR2201 podniósł poprzeczkę dzięki procesorom 2048, osiągając maksymalną wydajność 600 gigaflopów.
Intel dołącza do wyścigu
Teraz gdzie był Intel? Firma, która stała się wiodącym producentem mikroprocesorów na rynku konsumenckim, naprawdę nie zachwiała się w dziedzinie superkomputerów aż do końca wieku. Stało się tak, ponieważ technologie były całkowicie różnymi zwierzętami. Na przykład superkomputery zostały zaprojektowane w taki sposób, aby w jak największym stopniu ograniczać moc obliczeniową w trybie osobistym komputery polegały na wyciskaniu wydajności z minimalnych możliwości chłodzenia i ograniczonego zaopatrzenia w energię. Tak więc w 1993 roku inżynierowie Intela w końcu zdecydowali się na odważne podejście polegające na masowej równoległości z 3680 procesorów Intel XP / S 140 Paragon, które do czerwca 1994 roku wspięły się na szczyt superkomputera rankingi. Był to pierwszy superkomputer z bardzo równoległym procesorem, który był bezsprzecznie najszybszym systemem na świecie.
Do tego momentu superkomputery były domeną głównie osób z głębokimi kieszeniami na finansowanie tak ambitnych projektów. Wszystko zmieniło się w 1994 r., Kiedy wykonawcy z NASA Goddard Space Flight Center, którzy nie mieli tego rodzaju luksusu, wymyślili sprytny sposób na wykorzystanie mocy obliczeń równoległych poprzez połączenie i skonfigurowanie szeregu komputerów osobistych za pomocą sieci Ethernet sieć. Opracowany przez nich system klastrowy „Beowulf” składał się z 16 procesorów 486DX, zdolnych do pracy w zakresie gigaflopów i kosztujących mniej niż 50 000 $. Miał także tę różnicę, że działał pod Linuksem, a nie pod Uniksem, zanim Linux stał się wybranym systemem operacyjnym superkomputerów. Wkrótce wszędzie zrób to sam, wykonując podobne plany, aby założyć własne klastry Beowulf.
Po zrzeczeniu się tytułu w 1996 roku na Hitachi SR2201, Intel powrócił w tym roku z projektem opartym na Paragon o nazwie ASCI Red, który składał się z ponad 6000 200 MHz Procesory Pentium Pro. Pomimo odejścia od procesorów wektorowych na rzecz gotowych komponentów, ASCI Red zyskał wyróżnienie jako pierwszy komputer, który przełamał barierę jednego biliona klap (1 teraflops). W 1999 r. Ulepszenia umożliwiły mu przekroczenie trzech bilionów flopów (3 teraflopów). ASCI Red został zainstalowany w Sandia National Laboratories i był używany przede wszystkim do symulacji wybuchów jądrowych i pomocy w utrzymaniu kraju arsenał nuklearny.
Po tym, jak Japonia ponownie przejęła wiodącą rolę superkomputera przez okres 35,9 teraflopa NEC Earth Simulator, IBM wprowadził superkomputer na niespotykane wyżyny, poczynając od 2004 r. Z Blue Gene / L. W tym roku IBM zadebiutował prototyp, który ledwo przekroczył granice Symulatora Ziemi (36 teraflopów). Do 2007 r. Inżynierowie wprowadzą sprzęt na rynek, aby zwiększyć jego możliwości przetwarzania do prawie 600 teraflopów. Co ciekawe, zespół był w stanie osiągnąć takie prędkości, stosując podejście polegające na wykorzystaniu większej liczby układów o stosunkowo niskiej mocy, ale bardziej energooszczędnych. W 2008 r. IBM ponownie rozpoczął działalność, gdy włączył Roadrunner, pierwszy superkomputer, który przekroczył jeden kwadrylion operacji zmiennoprzecinkowych na sekundę (1 petaflops).