DO CZEGO NAUKOWCOM SUPERKOMPUTER?

Pawel Misiak

(Computerworkd 4/96)

W dziesiejszych czasach wiele dziedzin nauki, od matematyki po filologie, nie moze sie obejsc bez pomocy komputerow. Trudno juz chyba znalezc na swiecie placowke badawcza, w ktorej prace naukowe pisane bylyby bez pomocy komputera osobistego, gdzie wyniki pomiarow analizowane sa tradycyjnymi metodami - na papierze. W wielu dziedzinach nauki, zwlaszcza scislych i przyrodniczych, komputery staly sie podstawowym narzedziem pracy. Zbieraja one automatycznie dane pomiarowe, analizuja je, pozwalaja dokonywac wielorakiej obrobki wynikow, wizualizacji zjawisk itp.

Istnieja takie dziedziny nauki, dla ktorych wlasnie komputer stal sie podstawowym narzedziem pracy. Dziedziny, ktore zniknelyby niemal zupelnie, gdyby za sprawa jakiegos kataklizmu zniknely wszystkie komputery. Informatyka czy chemia kwantowa istnieja i rozwijaja sie intensywnie przede wszystkim za sprawa coraz powszechniejszej dostepnosci komputerow. Rzec by mozna, ze maszyny liczace stanowia w duzej mierze uzasadnienie ich istnienia.

Nauka poznaje rzeczywistosc we wszystkich jej aspektach, przy czym jej rozwoj poprzez wieki historii doprowadzil do poznania wiekszosci (jak sie obecnie wydaje) najprostszych zaleznosci i zjawisk. Badacze musza wie zmagac sie z coraz bardziej skomplikowanymi ukladami fizycznymi, czasteczkami chemicznymi, zjawiskami i zaleznosciami, zbiorami danych i informacji itp. Rosnaca zlozonosc poznawanych elementow rzeczywistosci stwarza zapotrzebowanie na coraz wieksza moc w zakresie gromadzenia, generowania i przetwarzania danych. Stad naturalna w srodowiskach naukowcow intensywnie wykorzystujacych komputery daznosc do jak najszerszego dostepu do jak najwiekszych mocy obliczeniowych.

Z drugiej strony postep w dziedzinie konstrukcji komputerow jest niewyobrazalnie szybki. Na naszych oczach dokonuja sie skoki ilosciowe i jakosciowe w zakresie dostepnej mocy obliczeniowej, pojemnosci pamieci i - co nie mniej wazne dla uzytkownikow - dostepnosci samych maszyn. Wspolczesnie kazdego niemal naukowca stac na kupienie sobie maszyny, zaspokajajacej wiekszosc jego potrzeb w zakresie przetwarzania danych (nie tylko pisania tekstow). Dzieki temu problemy naukowe, ktore jeszcze niedawno uznane bylyby za zbyt skomplikowane, by warto sie brac za proby ich rozwiazania, staja dzis na porzadku dziennym w wielu laboratoriach. Najsilniejsze komputery swiata pracuja na potrzeby nauki.

Gdy mowa o komputerach, zwlaszcza w kontekscie potrzebnych na nie pieniedzy, uslyszec mozna czesto pytanie: po co? Dlaczego nagle potrzebne sa naukowcom maszyny kosztujace grube miliony dolarow, podczas gdy jeszcze parenascie lat temu wystarczaly im kalkulatory, papier i olowek czy aparatura laboratoryjna? Czy zapotrzebowanie na moc obliczeniowa nie wynika li-tylko z pazernosci naukowcow?

Odpowiedz jest prosta: komputery, coraz silniejsze, sa potrzebne wspolczesnej nauce tak samo, jak olowek i papier. Sa niezbednym narzedziem pracy, sa przyrzadem badawczym o bardzo uniwersalnych zastosowaniach. Pozwalaja analizowac nowa, nie badane dotad, aspekty rzeczywistosci. Umozliwiaja "zagladanie" w rejony, ktorych dotychczas nie tknelo szkielko ni oko badacza. Dosc wyobrazic sobie dopasowywanie molekul leku do molekul, na ktore ma on odpowiednio dzialac - niemozliwe w naturze staje sie stosunkowo proste przy pomocy komputera modelujacego obydwie czasteczki i przetwarzajacego obraz tak, ze mozna niemal reka przykladac do siebie molekuly, obserwujac jednoczesnie efekty ich wzajemnego oddzialywania.

Uzycie drogiego nawet komputera pozwala tez zaoszczedzic sporo pieniedzy na badania rzeczywistych ukladow. Odpowiednio precyzyjny i szczegolowy model ukladu poddany odpowiedniej obrobce numerycznej zdaje sprawe z zachodzacych w nim zjawisk, czasem bardziej szczegolowo, niz mozna by to zaobserwowac w naturze. Dla przykladu wspomniec mozna na przyklad o testach zderzeniowych samochodow. Przeprowadzenie takiego testu na rzeczywistym egzemplarzu samochodu jest operacja bardzo kosztowna. Podobne sa koszty kazdej kolejnej proby. Tymczasem symulacja zachowania wszystkich elementow badanego ukladu za pomoca odpowiedniego programu komputerowego wymaga jedynie nieco cierpliwosci w oczekiwaniu na wynik. Mozna prowadzic badania rozmaitych wariantow zachowania samochodu uderzajacego w przeszkode malym nakladem srodkow, bowiem nawet dlugotrwale i skomplikowane obliczenia komputerowe sa o wiele tansze, niz egzemplarz samochodu. Dopiero po ustaleniu najwazniejszych elementow zjawiska zderzenia samochodu z przeszkoda na podstawie modelu symulowanego, przeprowadzic - tylko j edna - probe na rzeczywistym ukladzie.

Ilosc danych wymagajacych przetworzenia w przypadku symulacji rzeczywistych ukladow fizycznych czy chemicznych jest czesto ogromna. Przeprowadzenie obliczen wymaga wiec dostepu do wielkich zasobow mocy obliczeniowej. Oferuja ja superkomputery. Okreslenie to nie ma chyba scislej definicji, wiec mowi sie czesto po prostu o komputerach duzej mocy. O ile pojemnosc dostepnej pamieci operacyjnej czy masowej mozna zwiekszac poprzez laczenie nawet komputerow osobistych klasy PC w tzw. "grona" (ang. clusters), przy uzyciu odpowiedniego oprogramowania i okablowania, o tyle zwiekszenie predkosci wykonywania obliczen jest zwiazane czesto z rozwojem samego sprzetu. Gdy w obliczeniach naukowych chodzi jedynie o uzyskanie wyniku, bez znaczenia zas jest, kiedy zostanie on osiagniety - za godzine, dwa dni czy trzy miesiace, wystarczaja slabsze komputery. Gdy natomiast wazne jest przetwarzanie danych w czasie rzeczywistym, wowczas czynnik czasu staje sie palacy. Na przyklad w meteorologii - chodzi o to, by przewidziec rozwoj pogody szybciej, niz sie ona w rzeczywistosci zmienia. Zlozonosc modeli rozwoju sytuacji atmosferycznej powoduje, ze dopiero odpowiednio silne i szybkie maszyny liczace sa w stanie dostarczyc wyniki przewidywan zanim nastapi zmiana w rzeczywistosci.

Superkomputer dajac mozliwosc symulacji zachowania bardzo zlozonych, a wiec i bardzo dokladnych modeli rzeczywistych ukladow, stwarza mozliwosc "zajrzenia" w glab rzeczywistosci na poziomie i w sposob niedostepny bezposredniej obserwacji. Pozwala tym samym nie tylko przewidywac zachowanie ukladow jako calosci, ale rowniez testowac zalozenia teorii co do zachowania ukladu w skali makro, gdy znane sa jego zachowania w skali mikro.

Na kupno superkomputera pozwolic sobie moga jedynie bardzo bogate instytucje. Nic zatem dziwnego, ze pomyslano o uefektywnieniu kosztow poprzez tworzenie centrow superkomputerowych, do ktorych dostep moze miec wieksza liczba uzytkownikow. Taka idea przyswiecala tworcom osrodkow superkomputerowych w USA kilkanascie lat temu i Komitetowi Badan Naukowych w Polsce pare lat temu. Koncentracja mocy obliczeniowej pozwala z jednej strony udostepniac duza zdolnosc obliczeniowa szerokiemu kregowi badaczy nie majacych szans na zakup silnych komputerow ze srodkow wlasnych, z drugiej zas, dzieki szerszemu zasiegowi uzytkownikow tej mocy, znacznie zwieksza efektywnosc wykorzystania superkomputerow, a tym samym wydanych na nie pieniedzy.

Podobnie ma sie rzecz z koniecznymi nakladami na oprogramowanie, gdy zakup licencji o szerokim zasiegu jest czesto w efekcie koncowym tanszy, niz nabywanie odpowiedniej liczby licencji o malym zasiegu. Istnieje ponadto cala gama oprogramowania, ktore wymaga komputerow o mocy wiekszej od najlepszego nawet peceta. Superkomputer dostarcza odpowiedniej mocy obliczeniowej, dzieki czemu jego uzytkownicy zyskuja dostep do narzedzi software'owych, na ktore nigdy nie mogliby sobie pozwolic. Dotyczy to szczegolnie wielkich baz danych, programow do intensywnej obrobki danych numerycznych, zaawansowanych programow do wizualizacji itp.

Centra superkomputerowe, oprocz samych tylko uslug w zakresie gromadzenia i przetwarzania ogromnej liczby danych, staja sie takze osrodkami integrujacymi srodowisko badaczy. Uzytkownicy zasobow takich centrow nawiazuja kontakty, wymieniaja informacje i doswiadczenia. Zwykle kontakty takie, majace poczatek na plaszczyznie wykorzystania narzedzia jakim jest np. superkomputer, rozwijaja sie tworzac nowe mozliwosci badan, zwlaszcza interdyscyplinarnych. Korzystanie z uslug centrum, nawet w dlugiej skali czasowej jest znacznie tansze niz kupienie silnej maszyny. Jest dostepne nawet dla badaczy dysponujacych skromnym budzetem. Jednoczesnie swiadomosc koniecznosci ponoszenia kosztow - chocby niewielkich - obliczen, przyczynia sie do racjonalizacji wysilku badawczego. Wsrod naukowcow mozna bowiem czasem zaobserwowac tendencje do intensywnego korzystania z komputerow, przy jednoczesnym braku efektow tej pracy poza "wyliczonymi" godzinami. (Zludzenie, ze praca komputera sama w sobie ma wartosc pracy naukowej nie jest wcale rzadkie, przynajmniej wsrod znanych mi kolegow - naukowcow scislych.)

Powstanie w Polsce pieciu akademickich osrodkow superkomputerowych: w Gdansku, Krakowie, Poznaniu, Warszawie i Wroclawiu, daje nauce polskiej nowe szanse rozwoju, a przede wszystkim jest ruchem w kierunku dotrzymania kroku swaitowej czolowce.


email: misiak@info.wcss.wroc.pl

Pawel Misiak
Tue May 21 16:13:07 DFT 1996