User talk:Sveelaid

From ICO wiki
Jump to navigationJump to search

Üldinfo

Pealkiri:"Superarvutid"

Autor: Sven Veelaid

Kursus: IT sotsiaalsed, professionaalsed ja eetilised aspektid

Õppejõud: Kaido Kikkas

Ajalugu

Üldiselt arvutite ajaloost

Masinad, mida me võime lugeda arvutiteks selle sõna tänapäevases üldlevinud tähenduses, said alguse 19. sajandil Inglise matemaatiku Charles Babbage töödest. Laialdaselt tänapäevaste arvutite isaks peetav Babbage tutvustas ideed programmeeritavast mehaanilisest arvutist. Tõsiasjas, et Babbage’i eluajal ühtegi tema kavandatud arvutusseadet valmis ei ehitatud võib leiutaja ebakompetentsuse asemel süüdistada rahastamise puudulikkust ning isiklikke konflikte.

Olenemata sellest, et Babbage’i masinad olid mehaanilised ja töötanuks peamiselt auru jõul, sarnaneb nende arhitektuur siiski suuresti tänapäeva arvutitele: andmete ja programmi mälu eraldatus, juhistepõhine juhtimine, tingimuslausete kasutamine, eraldi sisendi-väljundi süsteem jne.

Üldiselt saab tänapäevased, see tähendab elektroonilised arvutid jagada kolmeks suureks põlvkonnaks:

1937 – 1946. Aastal 1937 ehitasid John V.Atanasoff ja Clifford Berry esimese digitaalse arvuti, mille nimi oli Atanasoff-Berry Computer (ABC). Selle ajajärgu arvuteid saatsid mitmesugused tehnoloogilised uuendused, ning peamiselt arendati neid arvuteid militaarkasutuseks. Peamiselt sõjatööstuse tarbeks tootmine hakkas muutuma aastal 1946 kui loodi Electronic Numerical Integrator and Computer (ENIAC).

1947 – 1962. Arvutid hakkasid vaakumtorude asemel kasutama transistoreid, mis omakorda tõstsid märgatavalt arvutite töökindlust. Selle perioodi vältel arendati välja üle 100 programmeerimiskeele. Salvestusseadmetena olid laialdaselt levinud magnetiline lint.

1963 – tänapäev. Leiutati kiibid, mis võimaldasid toota palju väiksemaid, töökindlamaid ning võimsamaid arvuteid, mis suudavad samaaegselt jooksutada mitut programmi. 1980 – loodi MS-Dos. 1981 – IBM tutvustas PC-d. Alguse said Microsoft Windowsi ja personaalarvutite võidukäik.

Lühidalt superarvutite ajaloost

Superarvutite ajalugu ulatub 1960 aastatesse kui Manchesteri ülikoolis loodi Atlas Computer, mida tol ajal peeti maailma kõige võimsamaks arvutiks.

Riistvara ja arhitektuur

Alates esimeste superarvutite loomisest 1960 aastatel on nende ehitamise üldised põhitõed mitmeti muutunud. Kui algusaastatel peeti jõudluse saavutamiseks olulisemaks innovaatilist disaini ja nn kohalikku parallelismi, siis hilisemad superarvutid tuginevad pigem standartsetele komponentidele ning nende suurele hulgale.

Massiivne tsentraliseeritud parallelism

1980 aastate jooksul kasvas nõudlus arvutusvõimsuse järele kiiresti ning sai alguse paljude protsessoritega superarvutite ehitamine, millel oli jagatud mälu ja failisüsteem. Tsentraliseeritud lähenemine tähendab, et hulk üksteisele lähedal asuvaid iseseisvaid arvutusüksusi on omavahel ühendatud läbi kesküksuse (clustering middleware), mis arvutite tööd juhib. See kesküksus on tarkvaraline kiht, mis võimaldab kasutajal kasutada mitmetest arvutitest koosnevat võrku kui ühte suurt arvutit. Juhul kui kasutatakse suurt hulka pooliseseisvaid arvutusüksusi (millega klasteri puhul ka tegu on), muutub äärmiselt oluliseks nende üksuste vahelise ühenduse kiirus ja paindlikkus.

Massiivne jaotatud parallelism

Jaotatud parallelism kasutab suurt hulka arvuteid, mis asuvad erinevates, teineteisest kaugel asuvates asupaikades. Tegu on oportunistliku lähenemisega, mis tähendab, et kesküksus, mis arvutite tööd juhib, saadab arvutile ülesande siis kui arvuti on vaba selle ülesandega tegelemiseks. Selle näiteks võib tuua süsteemi nimega BOINC (Berkeley Open Infrastructure for Network Computing), mis kasutab ülisuurte arvutusvõimsuste (mitme petaflopised kiirused) saavutamiseks ligi poolt miljonit arvutit üle maailma, mis kasutavad omavaheliseks suhtluseks internetti. Vaatamata suurte arvutusvõimsuse saavutamisele ei kajastu need kiirused üldiselt maailma võimsaimate arvutite edetabelites, kuna standartse LINPACKi jõudlustesti läbimine on raskendatud. Oportunistlik lähenemine võimaldab saavutada suuri arvutusvõimsusi, ei ole sellele sobivad kõik säärast jõudlust nõudvad ülesanded, eeskätt ülesanded, mis vajavad suurt võimsust korraga ja lühikese ajaperioodi jooksul (näiteks ilmastikuolude täpne ennustamine, vedelike dünaamika simulatsioonid). Seda eelkõige seetõttu, et kõik süsteemi ühendatud arvutid ei ole üldiselt kunagi korraga saadaval. Samuti seepärast, et arvuteid ühendava kanalina kasutatakse internetti, mille kiirus kõigub märgatavalt olenevalt arvutusüksuse asukohast maailmas, kellaajast, konkreetse riistvara spetsiifikast, kasutatavast tehnoloogiast jpm.

Jõudluse mõõtmine

Võimekus vs mahutavus (capability vs capacity)

Olenevalt superarvuti kasutusalast jagunevad nad üldiselt kaheks: arvutid, millel on suur võimekus ja arvutid, millel on suur mahutavus. Mahutavuse põhised superarvutid on loodud lahendama üheaegselt mõndasin keskmise suurusega ülesandeid või paljusid väikeseid ülesandeid olles seejuures suhteliselt säästlikud. Sageli ei peeta selliseid süsteeme superarvutiteks, sest need arvutid ei tegele ühe suure probleemi lahendamisega.

Vastandudes eelnevale on võimekusele orienteeritud arvutid loodud silmas pidades seda, et nad suudaksid lahendada ühte suurt ülesannet võimalikult lühikese aja jooksul. Taolisi süsteeme kasutatakse sageli ülesannetel, kus on vaja lühikese aja jooksul läbi töötada palju informatsiooni, näiteks ilmaennustus, mille puhul on olemasolevate andmete kiire analüüs kriitilise tähtsusega.

LINPACK jõudlustest

Üldiselt kasutatakse superarvutite võimekuse mõõtmiseks ühikut FLOPS ehk tehteid murdarvudega ühe sekundi kohta (floating point operations per second). Just sellele ühikule on orienteeritud ka LINPACK jõudlustest, kõige levinum ja tunnustatum test, mille alusel superarvutite jõudlust hinnatakse. LINPACKi testi käigus antakse arvutile sisendiks n*n suurune tabel, mis on täidetud lineaarvõrranditega kujul Ax = b. Arvuti kiiruse hindamiseks mõõdetakse aega, mis arvutil kulub kõikidele võrranditele lahendite leidmiseks.

Antud tulemusi kasutatakse edetabeli TOP500 loomiseks, kuhu on kantud 500 maailma võimsamat arvutit. LINPACKi testi eesmärk on anda hinnang arvuti jõudlusele eluliste ülesannete lahendamisel, kuid silmas tuleb pidada, et testi näol on tegemist lihtsustusega. See tähendab, et ükski eluline ülesanne ei koosne vaid lineaarvõrranditest. Samuti on test sattunud kriitika osaliseks, sest see hindab vaid ühte tüüpi ülesannete lahendamise kiirust, jättes arvestamata, et superarvutid luuakse üldiselt kindlaid ülesandeid silmas pidades, mistõttu on superarvutite arhitektuur erinev ning alati ei ole see orienteeritud ülesandele, mis nõuab lineaartehete lahendamist. Kokkuvõtvalt, teatud ülesanded nõuavad peale lineaarvõrrandite lahendamise suuremat mälumahtu, paremat täisarvude töötlemise võimet, võimsamat sisendi-väljundi süsteemi, kiiremat andmesidet vms.

Tennessee Ülikooli arvutiteaduste professori Jack Dongarra sõnul tegeletakse hetkel aktiivselt sellega, kuidas superarvutite testimist muuta nii, et see annaks arvuti omadustele laiema hinnangu. Alternatiividena on välja pakutud HPC Challenge jõudlustesti ja HPCG jõudlustesti, mis kasutavad kiiruse mõõtmisel ühikut TEPS (Traversed Edges Per Second). Kriitikast hoolimata on LINPACKi test jäänud kasutusse tänu sellele, et selle alusel on võimalik saada üks konkreetne number, mida on lihtne võrrelda teiste arvutite tulemustega.

Kasutusalad

Superarvutite kasutamise valdkonnad võib laias laastus grupeerida kümnendite kaupa, sest üldjoontes on igal kümnendil esile tõusnud teatud valdkonnad, kus suur arvutusvõimsus on erakordselt oluline. 1970 aastad – Ilmaennustus, aerodünaamika. Arvutusvõimsuse kasv võimaldas muuta täpsemaid kliimamudeleid ning neid ka simuleerida, misläbi muutusid ilmaennustused täpsemaks ning pikenes ka ajaperiood, mille kohta on võimalik ilma suhteliselt suure täpsusega hinnata. Aerodünaamika arengu tähtsus oli kõige märgatavam lennunduses, kus tänu valdkonna arengule oli võimalik muuta lennutransport kiiremaks, sagedasemaks (seos ilmaennustuse täpsuse tõusuga) ja usaldusväärsemaks (aerodünaamika arengu kiirenemine viis lõpule ka propellermootorite asendamise reaktiivmootoritega – lennukiiruste kasv). 1980 aastad – tõenäosusanalüüs, radiatsioonikaitsete modelleerimine. Tõenäosusanalüüs on matemaatiline töövõte, mis võimaldab hinnata tulemuste jaotust vastavalt sisendite mitmekesisusele. Varem ülimalt töömahukaks peetud meetodit varem teaduses praktiliselt ei rakendatud, kuid arvutusjõudluse kasv võimaldas meetodit kasutada mitmetes teadusharudes, kaasa arvatud radiatsioonikaitsete modelleerimises, mis seoses tuumarelva arendamise ja külma sõjaga päevakorras oli. 1990 aastad – koodimurdmine. 2000 aastad – tuumasimulatsioonid. Tuumasimulatsioonide läbiviimine arvutite abil loodud mudelite abil asendas suuresti reaalsete tuumakatsetuste läbiviimist. 2010 aastad – molekulaardünaamika. Saab võimalikuks keeruka struktuuriga molekulide käitumise uurimine läbi simulatsioonide. Eeltoodud kasutusalad on pigem ülevaatlikud ning ei peegelda kogu superarvutite kasutusvaldkondade spektrit, vaid annab ülevaate erinevatest valdkondadest. Lisaks kasutatakse superarvuteid näiteks inimaju töö simuleerimiseks, kvantmehaanika mudelite uurimiseks, nafta ja gaasi leiualade otsimiseks, füüsikalise simulatsioonide läbiviimiseks, krüptoanalüüsiks jpm. Olenemata superarvutite laiast kasutusalast, on nad sageli siiski ülimalt spetsiifilised ning loodud lahendama üht kindlat ülesannet. Näiteks IBM Deep Blue, arvuti mis loodi 1996 aastal eesmärgiga mängida selle abil malet ning võita tollast male maailmameistrit Garry Kasparovit.

Probleemid

Superarvutitega seotud peamiseks probleemiks võib pidada soojuse eraldumist. Nii nagu ka tavakasutuses olevate arvutite puhul, vajab ka superarvuti töötamiseks energiat, kuid seda märksa suuremal skaalal kui tavaseadmete korral. Tööks kulutatav energia eraldub pärast arvutusprotsessis kasutamist soojusena, mis omakorda võib olla kahjulik arvuti osadele. Jahutusega seotud probleemid on toonud hulga innovaatilisi lahendusi soojuse juhtimise vallas. Selle parimaks näiteks on 1985 aastal ettevõtte Cray Research poolt toodetud superarvuti Cray-2, mis pidi olema töötamise ajal tervenisti sukeldatud spetsiaalsesse jahutusvedelikku floroinerti. Selle arvuti jahutussüsteem, nn kosk, mis pumpas floroinerti läbi seadme, oli mõõtmetele võrreldav arvutusüksuse endaga.

Tänapäeva uuemate seadmete töötamisel eralduvat soojust püütakse kasutada muudel praktilistel otstarvetel, näiteks hoonete kütmisel. Viimase kasutusala näiteks on Zürichi Tehnoloogiainstituudis kasutatav, 2010 valminud IBM Aquasar, mille uudses kuuma vett kasutavas jahutussüsteemis ringlevat vett kasutatakse lisaks ka ülikooli ruumide kütmisel. Eelnevas näites toodud kasutusviis on ühtlasi ka suurepäraseks kokkuhoiumeetodiks, sest superarvutite ülalpidamise kulud ainuüksi elektrienergia arvelt on suured – Tianhe 1A, teine 2010 aasta superarvuti, tarvitab 4,04 MW energiat, mis sama aasta elektrihindades teeb jooksevkuludeks 400 dollarit tunnis ehk ligikaudu 3,5 miljonit dollarit aastas.

Superarvutite efektiivsust mõõdetakse ühikutes FLOPSi vati kohta, st mida suurem on selles ühikus kajastuv number, seda rohkem tehteid suudab arvuti teha kasutades selleks ühe vati võrra energiat.

Kuna superarvutite oodatavaks tööeaks loetakse umbes kolm aastat, on soojusjuhtimisel veel teine oluline roll. Nimelt võivad liigse soojuse korral kahjustuda arvutiosad (tekkida külmjoodised, sulamine), mis lühendaks seadme tööiga veelgi, tähendades seejuures suuri parandamisele kuluvaid kulutusi. 1990 aastatel levima hakanud tuhandete protsessoritega superarvutite ja paralleelsüsteemide murekohaks on ka andmete ülekandmise kiirus. Insenerid peavad lisaks arvuti andmete töötlemise kiirusele pöörama tähelepanu sellele, kui kiiresti suudavad arvuti erinevad komponendid omavahel informatsiooni vahetada. Arvuti maksimaalset jõudlust silmas pidades ei tohiks tekkida olukordasid, kus mõni arvutusüksus ei tööta tänu sellele, et ta ei ole piisavalt kiiresti saanud kätte algandmeid või pole suutnud piisavalt kiiresti edasi saata juba töödeldud andmeid.

See probleem on eriti tõsine suurte hajusate paralleelsüsteemide juures, mille korral võivad erinevad arvutusüksused (teatud süsteemide puhul võivad selleks olla ka võrgus osalevad tavaarvutid) asuda geograafiliselt teineteisest väga kaugel, ning andmete ülekandmiseks ühelt komponendilt teisele kasutatakse sageli standartseid lahendusi nagu internet. Viimase kiirus oleneb jällegi suuresti geograafilisest asukohast, infrastruktuurist, võrgukoormusest jms. Korraga nii klaster- kui hajussüsteeme painavaks kitsaskohaks võib osutuda ka sobiva arvutusloogika puudumine. See tähendab, et lisaks arvuti arvutusvõimsusele tuleb tähelepanu pöörata ka sellele, millise loogika alusel toimib üldist infotöötlust juhtiva üksuse töö. Nt ei tohiks hajussüsteemis juhtida suuremahulist ülesannet aeglasemale protsessorile, eriti kui selle ülesande lõpptulem on sisendiks uuele ülesandele.