Diplomitöö: ASP.NET veebirakenduse optimeermine meediaorganisatsiooni näitel: Difference between revisions

From ICO wiki
Jump to navigationJump to search
 
(431 intermediate revisions by 2 users not shown)
Line 1: Line 1:
Siin lehel kirjutan oma diplomitööd. Alustan 19.märtsil probleemi kirjeldusega.
Siin lehel kirjutan oma diplomitööd. Alustan 19.märtsil probleemi kirjeldusega.
=Olemasolev lahendus=
=Olemasoleva olukorra ja probleemi kirjeldus=
Järgnevalt antakse lühike ülevaade Eesti Rahvusringhäälingust ja olemasolevast lahendusest
Selle peatüki eesmärk on anda lühike ülevaade Eesti Rahvusringhäälingust ja selle portaalidest ning olemasolevast lahendusest.
 
==Eesti Rahvusringhääling==
==Eesti Rahvusringhääling==
''Ilus organisatsiooni skeem''
''Ilus organisatsiooni skeem''<br/>
Eesti Rahvusringhääling(ERR) tekkis Eesti Raadio ja Eesti Televisiooni ühendamisega aastal 2007. Sellest tulenevalt seostub ta väga paljudele eelkõige tele- ja raadioprogrammidega. Televisiooni poolt esindavad ETV ja ETV2 ning raadioid Vikerraadio, Klassikaraadio, Raadio 2, Raadio 4 ja Raadio Tallinn. Viimastel aastatel on neile lisandunud veel mitmeid uudiste- ja teemaportaale , mida praeguseks on kokku juba üle 20ne. Üheks eesmärgiks on jõuda viie esimese ajarkirjanduslikku sisu pakkuva portaali sekka Eestis. 2010. aastal oli TNS Emori andmetele Rahvusringhäälingu portaalide lugejaskond 165 tuhat lugejat nädalas. Väga palju tööd on tehtud ka selleks, et suurendada programmide ja saadete kättesaadavaust internetis nii järelvaatamiseks kui ka reaalajas. ERR oli Eestis esimene, kes hakkas edastama otse pilti ka internetis ja teeb seda ka peagi mobiilides.
Eesti Rahvusringhäälingu moodustavad kaks tele- ja viis raadioprogrammi, millele lisanduvad juurde veel mitmed uudiste- ja teemaportaalid. Organisatsioon hakkas sellisel kujul tegutsema 1. juunil 2007, kui ühendati Eesti Raadio ja Eesti Televisioon. Viimast esindavad ETV ja ETV2 ning raadiod Vikerraadio, Klassikaraadio, Raadio 2, Raadio 4 ja Raadio Tallinn.
 
Rahvusringhäälingu kõige olulisem tegevus on sisu tootmine.
 
Missiooniks on arendada ja hoida Eestit ning selleks kaasatakse inimesi Eesti riigi ellu, innustatakse vaba arutelu, edendatakse loomingulisust ja tegusust. Luuakse teabevõrgustik kõigi Eestiga seotud inimeste vahel kogu maailmas, oma programmides avardatakse Eesti inimeste maailmapilti, haritakse avalikus mõtteruumis osalejaid, väärustatakse inimeste isiklikku elu ja perekonda, kaitstakse eetilisi põhiväärtusi.
 
Raadio-ja teleprogrammide kõrval mängivad olulist rolli missiooni täitmisel ka Eesti Rahvusringhäälingu internetiportaalid. Näiteks on antud organisatsioon loonud ainsana inglise keelse portaali, mis kajastab Eestit. Samuti tehakse seda ka vene keeles. TNS-i Emor andmetel oli Rahvusringhäälingu portaalide lugejaskond 2010. aasta lõpul enam kui 165 tuhat lugejat nädalas. Eesmärk on olla viie esimese ajakirjanduslikku sisu pakkuva portaali seas.
 
Samuti on loodud võimalused jälgimaks kõiki tele- ja raadioprogramme otsesaateid üle maailma läbi interneti, et olla Eestis toimuvaga kursis. Praegu tegeletakse sellega, et tuua otsetoodang ka mobiili ja inimesed saaksid programme jälgida sõltumata seadmetest. Internetis saavad oluliseks ka ineteraktiivsed keskkonnad ja sotsiaalvõrgustikud.


==Portaalide arendus ERR'is==
==Portaalide arendus ERR'is==
ERR'is tegeleb portaalide arendusega portaalide arenduse üksus. Ametikult loodi see 1. jaanuar 2010. Praeguse hetkel kuuluvad meeskonda ametlikult 3 arendajat ja veebiarendusjuht. Eelnevalt vastutas arenduse eest üks inimene. Kõik uued portaalid luuakse hetkel ASP.NET 4 platvormil, millega paralleelselt toimub vanema versiooni ASP.NET portaalide üle toomine uuemale versioonile. Lisaks .NET raamistikku kasutavatele portaalidele on kasutusel hetkel veel ka PHP lahendusi, millele ei tehta enam väga suuri juurdearendusi, vaid pigem tegeletakse haldamisega.
ERR'is tegeleb portaalide arendusega portaalide arenduse üksus. Ametikult loodi see 1. jaanuar 2011. Praeguse hetkel kuuluvad meeskonda ametlikult 4 arendajat ja veebiarendusjuht. Eelnevalt vastutas arenduse eest üks isik. Kõik uued portaalid luuakse hetkel ASP.NET 4 platvormil, millega paralleelselt toimub vanema ASP.NET generatsiooni portaalide üle toomine uuemale versioonile. Lisaks .NET raamistikku kasutavatele portaalidele on hetkel veel ka PHP lahendusi, millele ei tehta enam väga suuri juurdearendusi.
 
===PHP tehnoloogial portaalid Eesti Rahvusringhäälingus===
===PHP tehnoloogial portaalid Eesti Rahvusringhäälingus===
PHP portaalide haldusega tegeleb praegu täiskohaga üks inimene. ''Räägi ka miks ja kuidas need on tekkinud''
Alljärgnevas peatükis tutvustatakse erinevaid PHP portaale Eesti Rahvusringhäälingus.


====PHP4 tehnoloogial arendatud portaalid====
====PHP4 tehnoloogial arendatud portaalid====
PHP 4 portaalidest on kõige pikema ajalooga etv, mis loodi PHP4 tehnoloogial aastal 2003. Eksisteeris ka varem, kuid selle ajalugu on hetkel teadmata. Sellele järgnes uudisteportaal 2006ndal aastal, mis esialgu kandis nimetust etv24. Ilm loodi aastal 2009.
<ul><li>etv.err.ee - ETV kanali portaal, võimalik jälgida tagantjärele saateid ja nende uudiseid.</li>
<ul><li>etv.err.ee - ETV kanali portaal, võimalik jälgida tagantjärele saateid ja nende uudiseid.</li>
<li>uudised.err.ee - uudiste portaal.</li>
<li>uudised.err.ee - uudiste portaal.</li>
Line 18: Line 30:


====PHP5 tehnoloogial arendatud portaalid====
====PHP5 tehnoloogial arendatud portaalid====
''Millal tekkinud, kas arendatatakse edasi, mis on plaanid nendega''
PHP5 portaalidest on kõige pikema ajalooga raadioportaalid. Alates 1995ndast aastast kuni aastani 2000 toimus nende haldamine kasutades staatilist HTML'i. Peale seda võeti kasutusele PHP3 ja aastal 2002 PHP4. 2007ndal aastal valmisid kõik raadioveebid baseerudes PHP5'le, neist viimane portaal - klassikaraadio, valmis sama aasta detsembris.


Kõige uuemad lahendused on pood.err.ee ja teadus, mis valmisid 2010. aasta septembris.
<ul>
<ul>
<li>pood.err.ee -  võimalik osta ERR toodangut.</li>
<li>pood.err.ee -  võimalik osta ERR toodangut.</li>
Line 32: Line 45:
<li>raadioteater.err.ee - võimaldab kuulata vikerraadios esitatud kuuldemänge ja järjejutte.</li></ul>
<li>raadioteater.err.ee - võimaldab kuulata vikerraadios esitatud kuuldemänge ja järjejutte.</li></ul>


===ASP.NET platvormil portaalidde arendus Eesti Rahvusringhäälingus===
===ASP.NET platvormil portaalide arendus Eesti Rahvusringhäälingus===
Miks? Kes?Kus? Kuidas?
''Miks? Kes?Kus? Kuidas?''<br />
2009 aastal lisandus ERR portaalidesse Arendusjuht. Tema ülesandeks oli analüüsida tehnoloogiate ja rakenduste hetkeseisu ning võimalikke lahendusi. Peale esimest poolaastat analüüse langetati otsus kasutada ühtset valmis võimekat veebimootorit ning osta sisse esmane arendus, kuna organisatsioonis puudus vajalik tööjõud. Selle tegevuse tulemusena alustati taotlust Riigihankele läbi Euroopa Struktuurifondide. Tehnoloogiliseks alusstandardiks sai Microsft.NET platvorm tänu vahendite võimekusele ja tööjõudlusele. Kuna hanked on pikk protsess siis alustati esimeste portaalide üleviimist ning uute rakenduste loomist. Kõige esimeseks rakenduseks sai keskportaal (err.ee) ning see hostiti Microlingi avalikus hostingus kuna .net platvormi infrastruktruu on üks osa riigihankest. Alates aastast 2010 omab organisatsioon minimaalset infrastruktuuri .net platvormi teenindamiseks siseselt ning aastal 2011 tarniti riigihanke raames hangitud riist ja tarkvarile platvorm mille lõplik avalik käivitamine toimub kevadel 2012.


====ASP.NET 2.0====
====ASP.NET 2.0====
Line 55: Line 69:


==Probleemi kirjeldus==
==Probleemi kirjeldus==
Teise põlvkonna portaalide jaoks loodud lahendus valmis kiirustades, kuna seda oli vaja kiiresti ja programmeerijaid vähe. See tõttu puudus oodatava süsteemi kohta analüüs. Rakenduse loomiseks kasutati võtteid, mis kiirendasid küll selle valmimise kiirust, kuid paratamatult kannatas selle all jõudlus. Enne ametlikku kasutuselevõttu ei olnud võimalik teha süsteemile korraliku jõudlustesti, mis näidanuks tema toimimist suure koormuse korral. Sellel hetkel kasutas seda lahendust üks portaal ja .NET lahendusi oli vähem.
Teise põlvkonna ASP.NET portaalide jaoks loodud lahendus valmis kiirustades, kuna selle valmistamine toimus äärmiselt piiratud ajaraamis ja tööjõudu selle projekti tarvis oli vähe. Seetõttu puudus oodatava süsteemi põhjalik eelanalüüs. Rakenduse loomiseks kasutati töövõtteid, mis kiirendasid küll selle valmimise kiirust, kuid paratamatult kannatas selle all rakenduse kvaliteet (sh jõudlus). Ametlikku kasutuselevõttu eel ei olnud võimalik, tulevenalt ajaraamist, teha süsteemile täielikke jõudlusteste, mis näidanuks selle toimimist suurte koormuste korral. Teise põlvkonna ASP.NET portaalide mootori valmimise hetkel hakati seda lahendust kasutama vaid ühe portaali piires. Hiljem lisandus sellele platvormile täiendavaid portaale ning jõudluse küsimus muutus seepärast aktuaalseks.


Arendusmeeskonda on lisandunud noori programeerijaid, kes ei ole piisavalt teadlikud kuidas tagada korraliku koodikvaliteeti. ASP.NET lahendusi on küll võimalik pealtnäha kiiresti ja kergelt valmistada, kuid kasutades valesid tööriistu ja jättes optimaalse ressursikasutuse jälgimise tagataustale, mõjub see rakenduse jõudlusele hävitavalt.
Arendusmeeskonda on lisandunud noori programeerijaid, kes ei ole piisavalt teadlikud kuidas tagada korraliku koodikvaliteeti. ASP.NET lahendusi on küll võimalik pealtnäha kiiresti ja kergelt luusa, kuid kasutades valesid tehnoloogiaid ning töövõtteid ja jättes optimaalse ressursikasutuse jälgimise tagataustale, mõjub see rakenduse jõudlusele negatiivselt.


Poole aasta jooksul on lisandunud uusi .NET portaale, milledest enamus kasutab eelpool mainitud lahendust. Viimasel ajal on esinenud suurte koormuste korral märgatavaid jõudlusprobleeme. Üheks põhjuseks on kindlasti asjaolu, et kõiki .NET portaalide haldamiseks on kasutada ainult üks server. Ehk kui üks portaal hakkab kasutama väga palju ressurssi, siis mõjutab see ka teiste portaalide tööd. See on kindlasti ka üheks turvanõrkuseks - leides ühel leheküljel ressursinõudliku protseduuri, saab seda kasutada kõikide ASP.NET portaalide töö häirimiseks. Halvimal juhul lõpeb see serveri töö seiskumisega. Täiendavad investeeringud riistvarasse on aga välistatud, et kasvatada serveripargi jõudlust. Kuna organisatsioon tegutseb internetimeedia turul ja laieneb sellel pidevalt, siis häired veebirakenduste töös mõjuvad mainele negatiivselt ning on oht kaotada külastajaid.
Poole aasta jooksul on lisandunud uusi .NET portaale, milledest enamus kasutab eelpool mainitud lahendust. Viimasel ajal on esinenud suurte koormuste korral märgatavaid jõudlusprobleeme. Üheks põhjuseks on kindlasti asjaolu, et kõiki .NET portaalide haldamiseks on kasutada ainult üks server. Ehk kui üks portaal hakkab kasutama väga palju ressurssi, siis mõjutab see ka teiste veebirakenduste tööd. See on kindlasti hetkel ka üheks turvanõrkuseks - leides ühel leheküljel ressursinõudliku protseduuri, saab seda kasutada kõikide Eesti Rahvusringhäälingu ASP.NET portaalide töö häirimiseks. Halvimal juhul lõpeb see serveri töö seiskumisega. Serveripargi jõudluse parandamiseks on täiendavad investeeringud riistvarasse hetkel välistatud. Kuna organisatsioon tegutseb internetimeedia turul ja laieneb sellel pidevalt, siis häired veebirakenduste töös mõjuvad mainele negatiivselt ning on oht kaotada külastajaid.


Lähiajal on lisandumas antud serverile veel kaks täiesti uut portaali. Lisaks peavad hakkama mõned esimese põlvkonna portaalid kasutama hakkama ka "uut mootorit". Kuna juba praegu esineb jõudlusprobleeme, tuleb enne seda parandada olemasoleva lahenduse jõudlust.
Lähiajal on lisandumas antud serverile veel kaks täiesti uut portaali. Lisaks peavad hakkama mõned esimese põlvkonna portaalid kasutama "uut mootorit", üheks neist on sport, millele on oodata suurt külastajatearvu. Arvestades asjaolu, et juba praegu esineb jõudlusprobleeme, tuleb enne parandada olemasoleva lahenduse jõudlust.


Tegemist on tänapäeval väga aktuaalse probleemiga, mis ei puuduta ainult näitena toodud organisatsiooni. Tagades veebirakendused optimaalse ressursikasutuse, võib ära hoida ka täiendavad lisakutulused riistvara soetamiseks, millega loodetakse probleeme lahendada. Viimane aga ei ole tihti lahendus, vaid pigem probleemi peitmine, kuna rakenduse ja ka külastatavuse kasvuga on see peagi tagasi.
Antud peatükis andis autor ülevaate konkreetse organisatsiooni probleemi tekkimise põhjustest, lisaks käsitleb peatükis 2.3 "Optimeerimisest üldiselt" jõudlusprobleemide esinemist laiemalt.
<br/>
''See osa on selgelt liiga lühike''
''Võimalik viide, et probleemi aktuaalsust üldisena käsitleb autor peeatükis see ja see''


=Metoodika valik ja võimalikud lahendused=
=Metoodika valik ja võimalikud lahendused=
Selles peatükis selgitab autor töös kasutatavat metoodikat ning annab ülevaate käsitletava teema valdkonnast üldiselt....
Selles peatükis selgitab autor töös kasutatavat metoodikat ning annab ülevaate käsitletava teema valdkonnast üldiselt.
==Metoodika==
==Metoodika==
Lahenduse leidmiseks teostab autor teoreetilise uuring kasutatakse olemasolevate materjalide analüüsi ning seejärel koostab olemasolevate rakenduste optimeerimise kava. Lõputöö käigus tutvutakse parimate praktikatega ja valitakse välja neist sobivaimad. Valiku tegemisel hinnatakse sobivust olemasoleva lahendusega. Kui valik on teostatud mõõdetakse praeguse lahenduse töökiirust. Peale seda võetakse kasutusele leitud optimeerimisvõimalused, mida rakendatakse kõigepealt testserveris, millele järgnevad uuesti mõõtmiseid. Võrreldakse saadud tulemusi ja tehakse järeldus. Eelistatud on Microsofti enda poolt soovitatud lahendused. ''Miks?''
Lahenduse leidmiseks teostab autor teoreetilise uuring kasutatakse olemasolevate materjalide analüüsi ning seejärel koostab olemasolevate rakenduste optimeerimise kava. Lõputöö käigus tutvutakse parimate praktikatega ja valitakse välja neist sobivaimad. Valiku tegemisel hinnatakse sobivust olemasoleva lahendusega. Kui valik on teostatud mõõdetakse praeguse lahenduse töökiirust. Peale seda võetakse kasutusele leitud optimeerimisvõimalused, mida rakendatakse kõigepealt testserveris, millele järgnevad uuesti mõõtmiseid. Võrreldakse saadud tulemusi ja tehakse järeldus.


==ASP.NET veebirakenduse arhitektuur==
==ASP.NET veebirakenduse põhikomponendid ja töötsükkel==
http://msdn.microsoft.com/en-us/library/ms178472.aspx  <br />
Tänapäeval kasutab enamus veebirakendusi dünaamilist sisu kuvamist, kuna see teeb lehtede haldamise mugavamaks ja paindlikumaks. Enamasti hoitakse sisu andmetena andmebaasis, mida päritakse sealt, korrastatakse ja  kuvatakse see järel kasutajatele. Selle kuvamise lihtsustamiseks on ASP.NET raamistikul mitmeid komponente nagu näiteks ''ListView'', ''GridView'' ja ka teisi listidel baseeruvad komponente.
 
Nende kasutamiseks peab teadma kuidas töötab lehe elutsükkel ja kuidas toimub andmeseondamine ''(Data Binding)''
 
Komponendi andmeseondamise sündmus leiab aset pärast komponendi ''PreRender'' sündmust, mis leiab omakorda aset pärast lehe ''PreRender'' sündmust. See märgib protsessi algust, mile käigus hakatakse komponenti andmetega siduam. Seda meetodit saab kasutada manuaalseks andmebaasiühenduse avamiseks.
 
''RowCreated''(GridView)  või ''ItemCreated'' sündmus (teisteö listidel baseeruvat komponentide puhul) täidetakse pärast andmesidumist. Seda saab kasutada manipuleerimiaks sisuga , mida kuvatakse.
 
''RowDataBound''(GridView) või ''ItemDataBound(teistel listidel baseeruvate komponentide puhul) sündmuse käigus on rea või kirje puhul. Võimalik seda vormindada või kuvada sellega seotud andmeid konkreetse rea või kirjega.
 
''DataBound'' sündmus kutsutakse andmetesidumise lõppedes.....34h ilma magamata...
 
<table border="1">
<tr> 
      <th>Etapp</th>
<th>Kirjeldus </th>
    </tr>
    <tr>
      <td>
        <p>Lehe pärimine ''(Page request)''</p>
      </td>
      <td>
        <p>Leiab aset pärast lehe töötsükli algust. Kui seda päritakse, siis ASP.Net teeb kindlaks, kas lehte on vaja parsida ja kompileerida või on puhvris antud lehe versioon juba olemas. Viimase variandi puhul saab  selle resveerida ilma töötsüklit jätkamata.</p>
      </td>
    </tr>
    <tr>
      <td>
        <p>Algus''(Start)''</p>
      </td>
      <td>
        <p>Algusfaasis väärtustatakse lehe atribuudid nagu näiteks ''Request'' ja ''Response''. Samuti otsustatakse, kas tegemist on tagasipostitusega või uue päringuga. Ükski komponent pole veel kättesaadav. </p>
      </td>
    </tr>
    <tr>
      <td>
        <p>Intsialieerimine''(Initialization)''</p>
      </td>
      <td>
        <p>Selle protsessi käigus  loodakse komponendid ja lisatakse lehe komponentide kollektsiooni. Igale ühele neist luuakse unikaalne tunnus''UniqueID''. See on ainus töötsükli osa kus nägusid või pealhti saab dünaamiliselt muuta. ViewState pole veel taastatud. </p>
      </td>
    </tr>
    <tr>
      <td>
        <p>Laadimine''(Load)''</p>
      </td>
      <td>
        <p>Kui antud protsessi käigus ilmneb, et tegemist on tagasipostitamise, siis laetakse komponentide atribuudid ''view state' ja ''control state'''ist. Selles osas tuleb enamasti küsida andmebaasist andmeid.</p>
      </td>
    </tr>
    <tr>
      <td>
        <p>Tagasipostituse sündmuse töötlemine''(Postback event handling)''</p>
      </td>
      <td>
        <p>Kui tegemist on tagasipostitusega, siis kutsutakse välja kontrollide sündmusetöötlejad ''(event handler)''. Peale seda kutsutakse välja ''Valid'' meetod mis paneb paika ''IsValid'' atribuudi kõikidel kontrollidel ja lehele </p>
      </td>
    </tr>
    <tr>
      <td>
        <p>Renderdamine''(Rendering)''</p>
      </td>
      <td>
        <p>Siin toimub toimub viewstate'i salvestamine lehe ja kõikide komponentide jaoks. Selle protsessi käigus kutsub leht iga kontrolli jaoks välja ''Render'' meetodi, mis kirjutab lehe ja iga komponendi HTML'i ja saadab selle väljundisse.</p>
      </td>
    </tr>
    <tr>
      <td>
        <p>Unload</p>
      </td>
      <td>
        <p>Meetod kutsutakse esile, kui leht on täielikult renderdatud ja kliendile saadetud. Sel juhu vabanetakse atribuutidest nagu näiteks ''Response'' ja ''Request'' ning toimub koristus.</p>
      </td>
    </tr>
</table>


==Optimeerimisest üldiselt==
==Optimeerimisest üldiselt==
Tänapäeval on jõudlusprobleemid väga aktuaalsed, kuna üha rohkem kasutatakse erinevate toimingute tegemiseks IT-lahendusi. Selle tõttu sõltub meist peaaegu igaüks mingilmoel konkreetse rakenduse töötamisest. Tihti häirivad loodud lahenduste tööd jõudlusprobleemid. Viimased kerkivad esile, kui süsteemile kasvab koormus, kuna tihti on nende tekkimist raske prognoosida. Sama olukord on ka liikluses: Näiteks kell 4 öösel tööle sõit võtab alati vähem aega, kui seda teha hommikusel tipptunnil. Nii võib väike tähelepanematus rakenduses halvata terve süsteemi töö. Viimane hakkab küll hiljem tööle, kuid kahju on juba selleks ajaks sündinud - pahased kliendid, maine langus, võimalik rahaline kahju.  
Tänapäeval on jõudlusprobleemid väga aktuaalsed, kuna IT-lahendused ning nende funktsionaalsute maht kasvab ajas kiiresti ning populaarsete veebirakenduste kasutajate hulk võib ajas eksponentaalselt kasvada. Kui veebirakendused on optimeerimata, siis võib kasutajate hulga lisandumine põhjustada halvimal juhul rakenduse töö katkemise või mitteootuspärase kasutajakogemuse.  


Kuidas seda vältida?
Tihti häirivad optimeerimata veebirakenduste tööd jõudlusprobleemid. Viimased kerkivad esile, kui süsteemile kasvab koormus ning tihti on nende tekkimist raske prognoosida. Olukorra iseloomustamiseks võib näite tuua liikluses:  kell 4 öösel tööle sõit võtab alati vähem aega, kui seda teha hommikusel tipptunnil, teisalt võib juhtuda, et hommikul kell seitse toimub mõni oluline tähtsündmus ning öösel kell 4 on ootamatult tekkinud ummikud, kuna valgusfoorid ei tööta, aga liikluskoormus on suur. Nii võib juhtuda, et veebirakeendusel, kus tavapäraselt on paartuhat külastajat päevas, kasvab ühel päeval kasutajate hulk kümnetes kordades, kuna rakendusele tegi reklaami mõni meeldiakanal või populaarne sotsiaalmeedia kasutaja.
Üheks võimaluseks on alati juurde soetada riistvara, mis annab juurde rohkem jõudlust. See on õigustatud ainult juhul, kui on kindlaks tehtud, et rakendus on juba optimeeritud ja olemasolevate vahenditega pole seda enam võimalik parandada.  Vastasel juhul on tegemist probleemi ajutise peitmisega, mitte lahendamisega. Lisaks kulutatakse nii mõttetult finantsvahendeid. Seega tuleks alati alustada olemasoleva lahenduse analüüsiga ja võimaluse korral optimeerimisega.


Lahendust tuleb vaadata alati kui tervikut. Näiteks veebileht ei koosne ainult koodist, mis kirjutab välja ainult vajalikke asju. Seda infot tuleb käia kuskilt pärimas - andmebaasist. Lehe reserveerimise eest vastutab aga server. Ükskõik millise selle osa halvasti töötamine mõjutab teisi. Parandades ühte osa, paraneb enamasti ka üldine jõudlus, kuid maksimaalse kasutegerui saavutamiseks tuleb vaadata rakenduse kõiki osasid. Edukalt probleemide lahendamisel võib nii vältida täiendava riistvara soetamist ja tagada parema süsteemi töökindluse.
Sellised näited on EERi kogemuses näiteks otse.err.ee portaalis, kus mõne aktuaalse sündmuse ajal võib kasvada kasutajate hulk järsult kümnetes kordades. Varasemalt on seda juhtunud eurovisiooni ja spordiülekannete puhul, mille tulemusena käitus leht mitteootuspäraselt.


''Parem kirjuta vormis: selle vältimiseks saab kasutada...''<br />
Sellise olukorra vältimiseks on alati kõige lihtsam juurde soetada riistvara, mis annab omakorda juurde rohkem jõudlust. See on õigustatud ainult juhul, kui on kindlaks tehtud, et süsteem on juba optimeeritud ja olemasolevate vahenditega pole seda enam võimalik parandada.  Vastasel juhul on tegemist probleemi ajutise peitmisega, mitte lahendamisega. Lisaks kulutatakse nii ebaotstarbekalt rahalisi vahendeid. Seega tuleks alati alustada probleemi lahendamist olemasoleva lahenduse analüüsiga ja võimaluse korral optimeerimisega.


Alati tuleb meeles pidada, et enne optimeerima asumist peame vastama küsimusele:"Kui palju me sellest võidame". Kui kulutame 2 päeva optimeerimaks päringut, mida tehakse kord aastas ja võidame paar millisekundit, siis tegelikkuses oleme kaotanud 2 väärtuslikku tundi. Samuti peab jälgima, milliseid muudatusi toob see kaasa olemasolevas lahenduses. Kas muudatus, mis muudab koodi loetamatuks ja selle silumise raskeks, on õigustatud?
Süsteemi tuleb alati vaadata kui tervikut. Näiteks veebileht ei koosne ainult koodist, mis kirjutab välja vajalikke asju. Seda infot tuleb käia kuskilt pärimas - andmebaasist. Lehe reserveerimise eest vastutab aga server. Ükskõik millise eelpool mainitud osa halvasti töötamine mõjutab teisi. Parandades ühte osa, paraneb enamasti ka üldine jõudlus, kuid maksimaalse kasutegerui saavutamiseks tuleb vaadata rakenduse kõiki osasid. Edukalt probleemide lahendamisel võib nii vältida täiendava riistvara soetamist ja tagada parema süsteemi töökindluse.


Antud lõputöö eesmärgiks on leida kõige lihtsamalt kasutatavaid ja suuremat jõudlusvõitu tagavad võtted ASP.Net veebirakenduse optimeerimiseks ning neid rakendada. Selle saavutamiseks tuuakse välja ka lihtsamad võimalused, kuidas jälgida erinevate rakenduse osade töötamiskiirust, millele tuleks selle juures tähelepanu pöörata ja milliseid muudatusi see endaga kaasa toob. Lisaks luuakse dokument, mida saab kasutada uute loodavate lahenduste optimeerimiseks tulevikuks.
Enne optimeerimise alustamist tuleks veenduda, et plaanitav muudatus on vajalik ning see toob kaasa endaga jõudlusekasvu. Näiteks, kui kulutada kaks päeva andmebaasipäringu optimeerimiseks, mida tehakse kord aastas ja sellega võidetakse paar millisekundit, siis tegelikkuses on kaotatud 2 väärtuslikku tundi. Lisaks tasub jälgida, milliseid muudatusi toob tehtva muudatus kaasa olemasolevas lahenduses, kuna muutus, mis muudab koodi loetamatuks ja selle silumise raskeks ei pruugi olla alati õigustatud.
 
Antud lõputöö raames vaatleeb autor eelkõige enimkasutatavaid ja suuremat jõudlusvõitu tagavaid võtteid ASP.NET veebirakenduse optimeerimiseks ning seda, kuidas neid olemasolevates ja ka uutes ERRi portaalimootorites rakendada. Tuuakse välja ka võimalused, kuidas mõõta erinevate rakenduse osade töötamiskiirust, millele tuleks selle juures tähelepanu pöörata ja milliseid muudatusi see endaga kaasa toob. Lisaks luuakse dokument, mida saab kasutada uute loodavate lahenduste varajaseks optimeerimiseks tulevikuks. Eeludseks on, et tegemist on .NET 4 raamistikuga ja andmebaasina kasutatakse SQL Server 2008 väljaannet, kuna need on antud töö aluseks.


=Andmebaasi optimeerimine=
=Andmebaasi optimeerimine=
Öeldakse, et koodi saab alles siis optimeerida, kui midagi töötavat on juba valmis tehtud. Andmebaaside puhul selline väide aga ei kehti, kuna selle hea jõudluse tagamise üheks tähtsamaks nurgakiviks on korralik disain. Kui andmebaas on halvasti loodud, siis on ka selle optimeerimine keeruline ja sellest pole nii palju kasu. Öeldakse, et päev tööd andmebaasi loomise algusfaasus võrdub hiljem sama tulemuse saavutamiseks kolme kuuga. Andmebaasi jõudluse tagamine ei koosne ainult protseduuride korrigeerimisest ja mõnede seadete muutmitest. Enne selle kallale asumist peab analüüsima üldse seda, mis hetkel toimub - kuidas päringuid täidetakse, kui palju see võtab jõudlust, kas indekseeritud on õiged väljad. Ei saa loota, et suvaline indekseerimine parandab andmebaasijõudlust, vastupidi, selle hoolimatu kasutamine mõjub jõudlusele hoopis negatiivselt. Siiski on mõned põhitõed, mis parandavad andmebaasi jõudlust alates selle loomisest.
''Siia pigem jutt, miks on andmebaaside optimeerimine rakenduse optimeerimise seisukohast oluline'' <br />
Mõiste "Andmebaas" defineerib wikipedia järgnevalt:"Andmebaas on korrastatud infokogum." http://et.wikipedia.org/wiki/Andmebaas Sellest vajaliku osa näitamise eest lõppkasutajale vastutab enamasti rakendus, mis pärib seda andmebaasist. Järelikult võib väita, et sellise rakenduse töö sõltub lisaks muule ka andmebaasist. See tõttu on viimase kiire ja optimaalne töötamine prioriteetne, kuna aeglane andmete leidmine ei mõjuta ainult andmebaasi enda tööd, vaid ka rakendust. Kui andmebaasi päringute täitmine võtab palju aega, peab rakendus ootama vajalike andmete järel, enne kui saab oma tööd jätkata.
 
Antud peatüki eesmärgiks on kirjeldada võimalusi andmebaasi optimaalse töö tagamiseks. Lisaks peab autor vajalikuks kirjutada ka selle loomisest, kuna materjalide analüüsist selgus, et andmebaasi jõudluse tagamisel mängib väga suurt rolli ka selle disain. Halva arhitektuuriga andmebaaasi on väga keeruline optimeerida.  
 
==Microsoft SQL Server 2008 andmebaasimootori väljaanded ja nende funktsionaalsuste erinevus==
Microsoft SQL Server 2008 on 6 erinevat väljaannet: Express, Workgroup, Web. Standard, Enterprise ja Datacenter. Antud nimekirja järjestus baseerub litsentside hinnal, milles kõige esimene on Express versioon. See on tasuta ja kõige väiksema funktsionaalsuse ning võimalustega.  Töö käigus kasutas diplomitöö autor Standard väljaannet. Selle peatüki eesmärgiks on lühidalt võrrelda ja kirjeldada erinevate väljaannete funktsionaalsust lähtuvalt jõudlusest.
 
'''Tabelite ja indeksite partitsioneerimine''' (''Table and index partitioning'') -  võimaldab tabelid ja indeksid jagada väiksemateks osadeks. See on kasulik suure hulga andmete puhul, sest sellest väiksema osa läbi vaatamine võtab vähem aega ja ressurssi. SQL Server 2008 Bible 1428 <br/>
 
'''Indekseeritud vaated '''''(Indexed views)'' -  Tavalised vaated on virtuaalsed tabelid, mis luuakse alati iga päringu ajal uuesti. Indekseeritud vaadete puhul aga hoitakse selle päringu tulemusi andmebaasis tabelina. Lisaks sellel suudab päringuoptimeerija''(query optimizer)'' vajadusel loodud vaadet kasutada päringute täitmiseks ilma, et seda peaks ''FROM'' klauslis eraldi kirjeldama.  <br /> http://msdn.microsoft.com/en-us/library/ms187864.aspx
 
'''Andmete tihendamine'''''(Data Compression)''- võimaldab tihendada tervet kuhja''(heap)'', klasterdatud indeksit, klasterdamata indeksit, indekseeritud vaadet ja üksikut tabelit või indeksi partitsiooni. Näiteks mahub seetõttu lehtedele rohkem ridu ja kirjete läbi vaatamine toimub kiiremini. Peab arvestama, et kõik andmed ei kompresseeru hästi ja lisaks mõjutab see protsessori jõudlust. (SQL Server 2008 Bibile lk 1416)
 
'''Ressursi haldur''' (''Resource governor'') - tööriist, mille abil saab määrata erinevatele päringutele ressursipiirangud ja limiidid. Kasulik olukorras, kus suur ja väikeseprioriteediga päring, kasutab palju ressurssi. Viimasele saab määrata maksimaalse protsessori kasutuse piiri. Nii võtab selle päringu täitmine küll rohkem aega, kuid kasutab vähem ressurse. http://msdn.microsoft.com/en-us/library/bb895232.aspx<br/>
 
'''Parallel index operations''' - vähendab aega, mis kulub indeksite loomiseks ja ülesehitamiseks kasutades mitme protsessori tuge. http://msdn.microsoft.com/en-us/library/ms191292.aspx  <br/>
 
'''Parallel consistency checks (DBCC)''' - võimaldab andmebaasi käsurea päringuid täita paralleelselt ja seega kiiremini. <br/>
 
'''Enhanced read-ahead scan ''' -  ei saa aru. http://msdn.microsoft.com/en-us/library/ms191475.aspx <br/>


Antud lõputöö eesmärgiks on leida kõige lihtsamalt kasutatavaid ja suuremat jõudlusvõitu tagavad võtted ASP.Net veebirakenduse optimeerimiseks ning neid rakendada. Selle saavutamiseks tuuakse välja ka võimalused, kuidas mõõta erinevate rakenduse osade töötamiskiirust, millele tuleks selle juures tähelepanu pöörata ja milliseid muudatusi see endaga kaasa toob. Lisaks luuakse dokument, mida saab kasutada uute loodavate lahenduste varajaseks optimeerimiseks tulevikuks. Ainus eeldus on, et tegemist on .NET 4 raamistikuga ja andmebaasina kasutatakse SQL Server 2008 väljaannet, kuna need on antud töö aluseks.
<table border="1" style="text-align:center;">
<tr><th>-            </th>                            <th>Express</th><th>Workgroup</th><th>Web</th>  <th>Standard</th><th>Enterprise</th><th>Datacenter</th></tr>
<tr><th>Protsessorite arv</th>                            <td>  1    </td><td>      2  </td><td>4  </td>  <td>  4   </td><td>    8    </td><td> Operatsioon süsteemi maksimum</td></tr>
<tr><th>Maksimaalne mälukasutus</th>                  <td>  1GB  </td><td>  4GB    </td><td>64GB</td> <td>  64GB </td><td>    2TB  </td><td> Operatsioon süsteemi maksimum</td></tr>
<tr><th>Maksimaalne andmebaasi suurus</th>            <td>  10GB </td><td>  524PB  </td><td>524PB</td><td>524PBB  </td><td>  524PB  </td><td> 524PB</td></tr>
<tr><th>Tabelite ja indeksite partitsioneerimine</th> <td>  Ei  </td><td>  Ei    </td><td>Ei</td>  <td>Ei      </td><td>  Jah    </td><td> Jah</td></tr>
<tr><th>Indekseeritud vaated                    </th> <td>  Ei  </td><td>  Ei    </td><td>Ei</td>  <td>Ei      </td><td>  Jah    </td><td> Jah</td></tr>
<tr><th>Andmete tihendamine                    </th> <td>  Ei  </td><td>  Ei    </td><td>Ei </td>  <td>Ei      </td><td>  Jah    </td><td> Jah</td></tr>
<tr><th>Ressursi haldur                      </th> <td>  Ei  </td><td>  Ei    </td><td>Ei </td>  <td>Ei      </td><td>  Jah    </td><td> Jah</td></tr>
<tr><th>Parallel index operations                      </th> <td>  Ei  </td><td>  Ei    </td><td>Ei </td>  <td>Ei      </td><td>  Jah    </td><td> Jah</td></tr>
<tr><th>Parallel consistency checks (DBCC)                      </th> <td>  Ei  </td><td>  Ei    </td><td>Ei </td>  <td>Ei      </td><td>  Jah    </td><td> Jah</td></tr>
<tr><th>Enhanced read-ahead scan                    </th> <td>  Ei  </td><td>  Ei    </td><td>Ei </td>  <td>Ei      </td><td>  Jah    </td><td> Jah</td></tr>
<table>


==Andmebaasi loomine==
==Andmebaasi loomine==
Nagu eelpool mainitud, algab kõik andmebaasiloomisest. Selle protsessi käigus tehtud otsused mõjutavad väga palju andmebaasi edaspidist jõudlust ja ressursikasutust. Alguses valesti tehtud otsused võivad mõjuda halvasti andmebaasi, kui ka seda kasutava rakenduse jõudlusele. Muidugi on kõige tähtsam andmebaasi loogiline ülesehitus, kuid tähelepanu tuleb pöörata ka kindlasti veergude definitsioonidile, mis tuleb määrata korrektselt ja loogiliselt. Ehk kuupäevad peaksid olema kuupäeva tüüpi, mitte nVarchar või char. Teine punkt mida veerutüüpide loomisel tasub alati läbi mõelda on, kui täpseid andmeid meilt nõutakse? Lihtne näide selle kohta on kuupäevad, mida kasutatakse alati väga palju, näiteks registreerimaks uue sissekande loomise kuupäeva. Tihti kasutatakse andmebaasis kuupäeva tüübiks automaatselt DateTime, mis võtab ruumi 8 baiti ja täpsuseks kolm millisekundit. Kuid kui tihti on selline täpsus süsteemides vajalik? Jah, tõesti on kohti kus see on väga kriitiline, kuid kindlasti leidub rohkem situatsioone, kus piisab ka minutitäpsusest.
Andmete hoiustamiseks andmebaasis, tuleb see enne luua. Selle protsessi käigus tehtud otsused mõjutavad väga palju tulevikus jõudlust ja ressursikasutust. Algfaasis tehtud valed valikud mõjuvad halvasti nii andmebaasi kui seda kasutavale rakenduse kiirusele.
Oluline on andmebaasi loogiline ülesehitus, kuid tähelepanu tuleb pöörata ka kindlasti veergude definitsioonidile, mis tuleb määrata korrektselt ja loogiliselt. Näiteks reaalarvulised väärtused peavad olema reaalarvu tüüpi, tekstina neid hoides raisatakse ressurssi ning andmete lugemisel peab neid üldjuhul kasutamiseks teisendama vajalikku vormingusse.  
Samuti tuleb veerutüüpide loomisel alati läbi mõelda, kui täpseid andmeid nõutakse. Lihtne näide selle kohta on kuupäevad, mida kasutatakse alati väga palju. Näiteks registreerimaks uue sissekande loomise kuupäeva. Tihti kasutatakse andmebaasis kuupäeva tüübiks automaatselt ''DateTime'', mis võtab ruumi 8 baiti ja täpsuseks kolm millisekundit. Kuid enamasti ei ole selline täpsus vajalik ning väiksema täpsusega andmete hoiustamiseks ja töötlemiseks kulub vähem ressursse. Samas on olukordi, kus väärtuste suur täpsus on kriitiline, kuid kindlasti leidub rohkem situatsioone, kus piisab ka väiksemast täpsusest.
 
Näiteks uudisteportaalides on uudiste avaldamisajad tihti märgitud ainult kuupäeva koos kellaajaga, mis on minutitäpsusega. Viimase jaoks on sobiv ''SmallDateTime'', mis on minuti täpsusega ja lisaks võtab poole vähem ruumi (4baiti). Lisaks on sellisel juhul olemas vajalikus vormingus kuupäev ning seda ei pea hakkama veebirakenduses andmete väljaküsimusel ümber hakkama vormindama.


Näiteks uudisteportaalides on avaldamisajad tihti märgitud ainult kuupäeva ja minutitega. Selle jaoks on ideaalne SmallDateTime, mis on minuti täpsusega ja lisaks võtab poole vähem ruumi(4baiti). Lisaks on andmebaasis olemas nüüd täpselt vajalikus formaadis kuupäev ning me ei pea hakkama seda veebirakenduses andmete väljaküsimusel seda omakorda ümber hakkama vormindama, mis säästab veel rohkem ressurssi.
Andmebaasi loomisel tuleb säilitada paindlikus. Näiteks tabelis võtab ''tinyint'' primaarvõtme väljana 4 korda vähem ruumi võrreldes ''Int'' tüüpi veeruga, kuid sellesse tabelisse saab luua see tõttu ka 256 sissekannet.  


Kindlasti tuleb säilitada aga ka paindlikus ehk tinyint võtab küll 4 korda vähem ruumi, kui Int, aga see eest saab tabelisse kokku tekitada 256 unikaalset kannet kui tegemist on primaarse võtme väljaga.
Samasuguseid näiteid leidub kõigi andmetüüpide kohta. Seega peaks enne tabelite loomist ja veergude tüübi määramist tutvuda konkreetse andmebaasimootori dokumentatsiooniga ja analüüsida, milliseid võimalusi võimalused on olemas. Näitena võib tuua eelpool mainitud kuupäevade tüübi valimise, kuna ''SmallDateTime'' on saadaval alates SQL Server 2008 versioonist.


Selliseid näiteid leidub kõigi andmetüüpide kohta. Ehk enne tabelite loomist tuleks kindlasti tutvuda konkreetse andmebaasimootori dokumentatsiooniga ja teha selgeks, milliseid võimalusi pakutakse ja mida meil täpselt vaja on. Eelpool mainitiud SmallDateTime on saadaval alates SQL Server 2008 versioonist.
===Kordumatute väärtustega väljad andmebaasides===
Andmebaasi loomisel tuleb otsustada, millist tüüpi on primaarvõtme veerud. Tihti on nendeks ''INT'' või ''uniqueidentifier''. Esimene neist esindab täisarvulisi arve ja teise puhul on tegemist kordumatute väärtustega, mis on 16 baidised globaalsed identifikaatorid (GUID- Global Unique IDentifier). Need esitatakse kujul ''xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'', kus iga x tähistab üht tähte või arvu kuueteistkümnendsüsteemist.<br />
''Siia selgitus, milleks sellised väljad andmebaasides üldse kasutusel on ning mis on INT ja mis GUID''


==GUID==
Arvestades kui palju kordumatu väärtusega identifikaator ruumi võtab, võrreldes täisarvuga, võib selle kasutamine tunduda ebaratsionaalne. Siiski on sellel täisarvu ees ka mõned eelised.Näiteks on see alati unikaalne, kuid täisarv on unikaalne ainult ühes tabelis. Samuti on selle kasutamisega välistatud võimalus, et relatsioonilises andmebaasis viiakse omavahel kokku tabelite veerud, mis tegelikult ei ole seotud. Lisaks ei saa ''GUID'' kunagi otsa, kuid täisarvulise tüübi kõige suurem väärtus on 9 223 372 036 854 775 807, kui tegemist on ''bigint'' 'iga ja sellel juhul võtab see ruumi 8 baiti. [http://msdn.microsoft.com/en-us/library/ms187745.aspx]
Huvitav on mainida ka GUIDi kasutamist. Jõudluse poolelt tundub olevate GUID'i kasutamine hullumeelne kui võrrelda seda näiteks INT tüübiga. (Ikkagi 16 baiti vs 4 baiti). Samas GUID'iga kaasneb ka kaks plussi. GUID on alati unikaalne, kui INT on unikaalne ainult ühes tabelis. See tõttu on GUID'i kasutamisega välistatud, et kokku viiakse omavahel tabelite veerud, mis tegelikult ei ole omavahel seotud. Teine pluss on see, et GUID ei saa kunagi otsa.


Üks enim levinud argument, miks mitte GUIDi kasutada primaarse võtmena ja eelistada sellele INTi on asjaolu, et see nullib ära klasteeritud indekseerimisega saavutatava jõudlusevõidu. INT kasvab automaatselt ja seega iga uus sissekanne automaatse primaarse võtme kasvamise puhul on viimane, GUID genereeritakse automaatselt ja see tõttu ei pruugi see viimane olla. Iga uus sissekanne nõuab indeksite uuendamist ja see tõttu põhjustab selle kasutamine lehtede poolitusprobleeme ja indeksite fragmenteerumist. Alates SQL Server 2005 versioonist saab selle vastu kasutada funktsiooni NewsequentialID(), mis tagab, et iga järgmine GUID on eelmisest suurem. Seega ei tule uus sissekanne mitte lehe keskele, vaid läheb alati viimaseks. Samas tuleb tõdeda, et kuna GUID kasutab rohkem mälu, siis tekib juurde indekseerimisel rohkem lehti ja indeksite uuendamine on kulukam kui INT tüübi puhul.
Üheks kordumatu väärtusega välja puuduseks on see, et selle kasutamine võib vähendada klasterdatud indeksiga saavutatud jõudlusevõitu, kui selle genereerimine toimub väljaspool andmebaasi. Iga uus sissekanne nõuab indeksite uuendamist ja seetõttu võib selle kasutamine kutsuda esile indeksi lehtede poolitusprobleeme ja nende fragmenteerumist, kuna loodud võtme väärtus ei pruugi olla viimane ja sellele tuleb leida õige koht. See nõuab aga kõigi seniste võtmete uuesti sorteerimist. Alates SQL Server 2005 versioonist saab selle vältimiseks kasutada funktsiooni ''NewsequentialID()'', mis tagab, et iga järgmine globaalne identifikaator on eelmisest suurem. Seega ei tule uus sissekanne mitte indeksite lehe keskele, vaid läheb alati viimaseks. Tuleb arvestada ka asjaoluga, et kuna see kasutab rohkem mälu, siis tekib indekseerimisel rohkem lehti ja nende uuendamine on kulukam kui täisarvulise tüübi puhul.


==Päringute analüüs==
==Päringute analüüs==
Päringute analüüs.
Kirjete lisandumisel andmebaasi kasvab selle suurus ja ka päringute täitmiseks hakkab kuluma rohkem aega. Mingil ajahetkel võib tekkida situatsioon, kui andmete leidmiseks kulub liiga palju aega. See on aga selge märk sellest, et tehtavaid päringuid tuleks analüüsida ja seejärel optimeerida.  
Enne päringute optimeerimist on vajalik teada, millised päringuid üldse andmebaasi tehakse ja kui kaua aega nende täitmine võtab. Kindlasti peab arvestama ka päringute arvu, kuna optimeerides päringut mida kasutatakse kord kuus 100ms võrra kiiremaks, pole nii prioriteetne nagu optimeerida päringut mida tehakse päevas 1000 korda 10ms kiiremaks. Leidmaks päringuid, mida tehakse saab kasutada sellist SQL päringut:
 
<pre>
Alljärgnev päring aitab otsustada, millised päringuid andmebaasis võivad vajada optimeerimist.
<source lang="sql">
-- alljärgneva päringuga saad lugeda protseduur cache'i sisu
-- alljärgneva päringuga saad lugeda protseduur cache'i sisu
-- saadav tabel sisaldab küllalt infot otsustamaks, millised protseduurid või päringud kulutavad serverit
-- saadav tabel sisaldab küllalt infot otsustamaks, millised protseduurid või päringud kulutavad serverit
Line 128: Line 262:


--NB! Viimases veerus saadud tabelis on XML kujul Query Plan
--NB! Viimases veerus saadud tabelis on XML kujul Query Plan
--Salvesta see laiendiga sqlplan ja ava Management Studios - ja imesta :)</pre> (http://www.sarv.ee/ftp/henn/SQL/Proc%20cache%20statistika.sql)
--Salvesta see laiendiga sqlplan ja ava Management Studios - ja imesta :)


Selle abil saab leida enim tehtavaid SQL päringuid nii kulutautd aja järgi, maksimaalse aja järgi, kui ka täitmiskordade järgi. Kui potensiaalsed päringud, mida võiks optimeerida on leitud, saab nende analüüsimiseks kasutada SQL Serveri Päringu täitmisplaani (Query Execution Plan). See näitab vajalike operatsioone päringu täitmiseks. Seda tuleb lugeda vasakult paremale, alt üles. Nii on võimalik leida ülesse probleemseid kohti, näiteks kui indekseerimine ei tööta.
</source>
(http://www.sarv.ee/ftp/henn/SQL/Proc%20cache%20statistika.sql)
 
Selle abil saab sorteerida SQL päringuid kolmel erineval viisil:
# täitmiskordade arvu järgi  
# päringu täitmiseks kokku kulunud aeg
# päringu täitmiseks kulunud kõige suurem aeg.
Head kandidaadid on päringud, mida täidetakse kõige sagedamini, sest nende parandamine annab tihti lõppkokkuvõttes suurema võidu. Näiteks, olgu meil kaks päringut,milledest esimest täidetakse päevas kümme ja teist tuhat korda. Optimeerides neist esimest, paraneb kiirus ühe sekundi ja teise puhul saja millisekundi võrra. Kogu ajaline võit ühe päeva kohta on aga tegelikult vastavalt kümme sekundit ja poolteist minutit.
 
Konkreetse päringu analüüsimiseks saab kasutada SQL Serveri päringu täitmisplaani ''(Query Execution Plan)''. See näitab graafiliselt, kui palju mingi päringu täitmine aega võtab ja milliseid operatsioone selle käigus läbi viiakse. Kuvatavat plaani tuleb lugeda paremalt vasakule ja see lihtsustab päringus probleemsete kohtade leidmist.


==Päringute optimeerimine==
==Päringute optimeerimine==
Info saamiseks andmebaasist tehakse päringuid, kus vastavalt seatud tingimustele väljastatakse sobivad tulemused. Nende loomisel ja kirjutamisel tuleb jälgida mõningaid lihtsaid võtteid, et vältida üleliigset ressursi kulutamist.
Info saamiseks andmebaasist tehakse päringuid, kus vastavalt seatud tingimustele väljastatakse neile vastavad kirjed. Nende loomisel tuleks jälgida mõningaid lihtsaid võtteid, et vältida üleliigset ressursi raiskamist.


Infot küsides peab alati kirjeldama, mida me tahame tagasi saada. Ehk näiteks SELECT * päring võib olla päris korralik jõudlusetapja, olukorras kus meil on tabelis 10 välja, kuid tahame saada kätte neist ainult kahte. Sellisel juhul on tegemist ebavajaliku ressursiraiskamisega. Lisaks on sellisel juhul ka tabelite indekseerimisest väga vähe kasu, kuna kõigi veergude kättesaaamiseks tuleb teha lisapäringuid.
Kirjete pärimisel peab alati kirjeldama, milliseid veerge soovitakse selle tulemusena saada. Näiteks SELECT *(vali kõik veerud) mõjub jõudlusele negatiivselt: kui tabelis on kümme veergu, kuid vaja läheb neist ainult kahte. Sellisel juhul on tegemist ebavajaliku ressursiraiskamisega kahel põhjusel: 1)andmebaas saadab rakendusele rohkem infot kui vaja, 2) muudab indekseerimise keeruliseks.  


Päringuid kirjutades peaks küsima alati seda, mida meil vaja on. Võimalusel tuleks vältida eitusi.
Tingimuste kirjutamisel tuleks alati küsida seda, mida tahetakse. Mitte vastupidi.


Andmebaasi töö sõltub väga palju selle ülesehitustest ja konkreetsetest päringutest. Selle optimeerimiseks peab analüüsima juba loodud ja loomisel olevaid päringuid, et näha kuidas nad käituvad. Selle jaoks on soovitatv kasutada SQL Serveri Query Editor'i kus on võimalik näha päringu täitmist kasutades Execution plan'i. Nii on võimalik kindlaks teha, näiteks kas loodud indekseid kasutatakse, kuidas täpselt toimub päringu täitmine ning kui palju see aega võtab. Selle alusels saab vajadusel muuta indekseerimist või päringuid.
Kõiki päringuid peaks hoidma andmebaasile võimalikult lähedal, kuna nii saadakse neile ka kiirem vastus, sest need asuvad andmetele lähemal võrreldes rakendusega.


==Protseduurid==
==Talletatud protseduurid==
Andmebaasi jõudluse tagamisel on hea praktika protseduuride kasutamine. Hästi kirjutatud protseduurid on väga kiired. Lisaks on neid lihtne testida ja hallata võrreldes ad hoc päringutega. Samuti on need turvalisemad, kuna kasutavad parameetreid, mis antakse neile kaasa. Ka rakenduseloojatel on lihtsam kutsuda välja protseduur, mille sisendiks antakse parameetrid, kui kirjutada ad hoc päringut, mis avab võimaluse SQL "injenction" rünnakuteks ja seega on ka üheks turvariskiks. Viimaseid on ka raske hallata ja asuvad reaalsetest andmetest kaugel.
Talletatud protseduurid on põhimõtteliselt kogum juba varem valmis kirjutatud SQL päringuid, mis on koondatud üheks hallatavaks blokiks. Igat loodud protseduuri kompileeritakse (toimub automaatselt) ühekorra ja peale seda luuakse päringu täitmise plaan, mida hoitakse mälus. Edaspidi võetakse päringu täitmiseks see plaan juba mälust ning seetõttu on ka nende täitmine kiirem. http://www.tech-faq.com/stored-procedure.html + SQL Server Bible(Lk 610)


Kasutades protseduure on lihtsam jälgida päringute täitmist ja ajakulu, võrreldes tavalise SQL päringuga, mis tuleb väljaspoolt andmebaasi. Kuna kaasa antakse ainult parameetrid, siis on ka edastatav andmemaht väiksem. Samuti asub see ka andmetele lähem.
'''Kas peaks siia hoopis loetelu tekitama? Nagu punkt1..punkt2.. punkt3'''<br />
Hästi kirjutatud protseduurid on väga kiired, kuna nad asuvad andmete lähedal. Neid on lihtne testida ja hallata võrreldes veebirakendustes loodud päringutega. Talletatud protseduurid on turvalised, kuna kasutavad parameetreid, mis antakse neile kaasa ja nii kaob SQL injektsiooni oht. Rakenduse loojatel on samuti lihtsam kutsuda välja protseduur, mille sisendiks antakse parameetrid, kui kirjutada seda päringut veebirakenduses. SQL Server Bible (607)


Kirjutades protseduure on hea praktika lülitada COUNT välja kasutades käsku SET NOCOUNT ON. Viimasega võib sõltuvalt päringu keerukusest võita kuni 17% selle täitmise kiirusest. Vaikimisi on NOCOUNT välja lülitatud ja see tõttu saadab saadab SQL Server kaasa ka alati ridade arvu, mis päringu tulemusena leiti.
Kasutades protseduure on lihtsam jälgida päringute täitmist ja ajakulu, võrreldes tavalise SQL päringuga, mis tuleb väljaspoolt andmebaasi. Kuna talletatud protseduuri väljakutsumiseks antakse kaasa ainult parameetrid, siis on ka edastatav andmemaht väiksem.


Lisaks tuleks vältida kursoreid. Kuigi nad on väga paindlikud ja võimaluste rohked, tuleb nende kasutamisel maksta ränka hinda jõudluses. Kui protseduurides kasutatakse kursoreid, siis nende optimeerimiseks tuleks alustada kursorite eemaldamisest.
Kirjutades protseduure on hea praktika lülitada COUNT välja kasutades käsku <source lang="sql">SET NOCOUNT ON</source>. Viimasega võib sõltuvalt päringu keerukusest võita kuni 17% selle täitmise kiirusest. Vaikimisi on NOCOUNT välja lülitatud ja seetõttu saadetakse päringu tulemusele kaasa ka alati kirjete arv, mis selle tulemusena leiti. ( SQL Server 2008 Bible ..622 ).
(LK
 
Lisaks tuleks vältida kursoreid. Kuigi nad on väga paindlikud ja võimaluste rohked, tuleb nende kasutamisel maksta ränka hinda jõudluses.  
Kui neid kasutatakse protseduurides, siis optimeerimiseks tuleks alustada nende eemaldamisest.
<br/>'''Kas võin tuua näite SQL Server Bible'st?'''


==Indekseerimine==
==Indekseerimine==
Indeksid mõjutavad SQL Serveri jõudlust märgatavalt. Indekseerimine on nagu raamatu sisukord. Kui soovime leida vajalikku infot, vaatame sisukorda ning leiame õige koha. Samamoodi käime pidevalt andmebaasist infot otsimas, kus mingi sissekanne asub. Tabel ilma indeksita on nagu raamat sisukorrata - millegi leidmiseks peame lappama läbi terve raamatu, et leida õige koht, mida otsime ja see on kulukas. Kui andmebaasis on tabelid õigesti indekseeritud toimub otsimine nagu raamatu sisukorrast(kiiresti).
Indekseerimine on nagu raamatu sisukord. Kui soovitakse leida vajalikku infot, vaadatakse eelkõige sisukorda ning leitakse õige koht. Samamoodi käiakse pidevalt andmebaasist infot pärimas. Tabel ilma indeksita on nagu raamat sisukorrata - millegi leidmiseks peab lehitsema läbi terve raamatu, et leida õige koht, mida otsitakse. Loomulikult on see ajaliselt kulukas protsess. Kui andmebaasis on tabelid õigesti indekseeritud toimub otsimine nagu raamatu sisukorrast (kiiresti).


Indekseid on kahte tüüpi - klasterdatud ja klasterdamata.
Indekseid on kahte tüüpi - klasterdatud ja klasterdamata.
Klasterdatud indekseerimiseks on ideaalsed väljad tabelite primaarvõtmed kahel põhjusel: 1) see väli on alati unikaalne 2)infot otsitakse tihti selle võtme järgi. Vaikimisi luuakse primaarvõtme veerule alati klasterdatud indeks. Selle loomiseks käsitsi tuleb kasutades SQL lauset:
Klasterdatud indekseerimiseks on ideaalsed väljad tabelite primaarvõtmed kahel põhjusel: 1) see väli on alati unikaalne 2) infot otsitakse tihti selle võtme järgi. Vaikimisi luuakse primaarvõtme veerule alati klasterdatud indeks. Selle loomiseks käsitsi tuleb kasutades SQL lauset:
<pre>CREATE UNIQUE CLUSTERED INDEX index_id ON TABLE (veeru_nimi)</pre>
<pre>CREATE UNIQUE CLUSTERED INDEX index_id ON TABLE (veeru_nimi)</pre>
Tabeliveerg millele see luuakse, peab olema alati unikaalne.
Tabeliveerg, millele see luuakse, peab olema alati unikaalne.


Mitte klasterdatud indekseerimise puhul ei pea olema väli unikaalne. Luuakse lausega: CREATE INDEX võti ON tabeli_nimi(veeru_nimi). Sellest on ainult siis kasu, kui me valime ainult konkreetse välja, mis on klasteerimata indeksisse määratud. Kui aga on vajalik lisaks veel välju, tuleks kasutada Coverage-Indexit ning lisada ka need väljad. Selleks tuleb kasutada lauset: <pre>CREATE INDEX võti ON tabeli nimi(veerg) include ( tabeli_veerg1, tabeli_veerg2,..).</pre> Sobib eriti veergudele, kus kasutatakse GROUP BY, COUNT(*) päringuid.
Mitte klasterdatud indekseerimise puhul ei pea väli olema unikaalne. Luuakse lausega: <source lang="sql"> CREATE INDEX voti ON tabeli_nimi(veeru_nimi)</source>. Sellest on ainult siis kasu, kui me valime ainult konkreetse välja, mis on klasterdamata indeksisse määratud. Kui lisaks sellele on vajalik valida veel välju, tuleks kasutada kaetud indekseerimist ning lisada vajalikud väljad. Selleks tuleb kasutada lauset: <pre>CREATE INDEX v0ti ON tabeli nimi(veerg) include ( tabeli_veerg1, tabeli_veerg2,..).</pre> Sobib eriti veergudele, kus kasutatakse ''GROUP BY, COUNT(*)'' päringuid.


Indekseerimiseks ei sobi väljad, mis on väga mahukad. Näiteks nVarchar(200), mis võtab palju ruumi ja indeksite loomine on mahukas protsess.
Indekseerimiseks ei sobi väljad, mis on väga mahukad. Näiteks nVarchar(200), mis võtab palju ruumi ja indeksite loomine on mahukas protsess.


Indekseerides tabeli veerge kõhutunde järgi, võib see mõjuda jõudlusele hoopis negatiivselt, kuna õigete ridade leidmiseks peab ikkagi tegema lisapäringuid. Selle vätlimiseks tuleks jälgida päringu täitmise plaani, mis näitab, kuidas päringuid läbi viiakse ja kas indeksite tabelit üldse kasutatakse. Nii võib leida kohti, kus tabel on küll indekseeritud, kuid selleks on kasutatud valesid välju ja see tõttu ei saa kasutada kunagi otsimist indeksi järgi ja päringu täitmine võtab rohkem aega ning ressurssi.
Indekseerides tabeli veerge ilma analüüsita, võib see mõjuda jõudlusele hoopis negatiivselt, kuna õigete ridade leidmiseks peab ikkagi tegema lisapäringuid. Selle vältimiseks tuleks jälgida päringu täitmise plaani, mis näitab, kuidas päringuid läbi viiakse ja kas loodud indekseid kasutatakse. Nii võib leida kohti, kus need on küll loodud, kuid küsitakse rohkem kirjeid kui indeksiga kaetud on.  


Indeksite loomisel peab arvestama, et indekseerimisega peab maksma natuke hinda ka jõudluses. See tõttu tuleks kaasta indeksitesse minimaalselt välju. Mida rohkem on välju, seda kulukam on indeksite uuesti arvutamine, mis leiab aset iga DDL käsu puhul. Indeksite tabel koosneb lehtedest ja lisades uue sissekande tuleb lehed uuesti luua. Eriti halvasti mõjub see siis, kui uus sissekanne tuleb indeksi lehtede keskele. See eeldab lehtede uuesti loomist ja nende poolitamist. See tõttu tuleb hoolikalt kaaluda, kus kasutada rühmitatud indekseid.
Indekseerimisel tuleb arvestada sellega, et nende loomisel peab maksma natuke hinda ka jõudluses. Sellest tulenevalt tuleks kaasata indeksitesse minimaalselt välju. Mida rohkem on välju, seda kulukam on indeksite uuesti arvutamine, mis leiab aset iga DDL käsu puhul. Indeksite tabel koosneb lehtedest ja lisades uue sissekande tuleb lehed uuesti luua. Eriti halvasti mõjub see siis, kui uus sissekanne tuleb indeksi lehtede keskele. Viimane eeldab lehtede uuesti loomist ja nende poolitamist. Seetõttu tuleb hoolikalt kaaluda, kus kasutada rühmitatud indekseid.


Alates SQL Server 2008 versioonist on võimalik kasutada filtreeritud indekseerimist, mis tähendab, et klasterdamata indeksite loomiseks kasutatakse andmetest ainult mingit osa, mis vastab seatud tingimustele. Selle loomiseks on lause: <pre>CREATE INDEX index_id ON tabeli_nimi(tabeli_veerg) WHERE tingimus </pre> . Vajadusel saab ka siin kasutada kaetud indekseerimist.
Alates SQL Server 2008 versioonist on võimalik kasutada filtreeritud indekseerimist, mis tähendab, et klasterdamata indeksite loomiseks kasutatakse andmetest ainult mingit osa, mis vastab seatud tingimustele. Selle loomiseks on lause:  
<pre>CREATE INDEX index_id ON tabeli_nimi(tabeli_veerg) WHERE tingimus </pre> . Vajadusel saab ka siin kasutada kaetud indekseerimist.


==Transaktsioonid==
==Transaktsioonid==
http://msdn.microsoft.com/en-us/library/ff647793.aspx#scalenetchapt14%20_topic9
http://msdn.microsoft.com/en-us/library/ff647793.aspx#scalenetchapt14%20_topic9
Valesti kirjutatud transaktsioonid võivad mõjuda andmebaasi tööle halvavalt. Selle vältimiseks on levinud praktikad:
Valesti kirjutatud transaktsioonid mõjuvad andmebaasi tööle negatiivselt. Selle vältimiseks on levinud praktikad:
tuleks vältiad pikki transaktsioone, kuna nende ajal toimub tabelis lukustamine. Soovitatav on valideerida enne transaktsioone juba rakenduses andmed, et vältida transaktsiooni ajal vigade tekkmist, mis pikedab neid. Lisaks ei tohiks transaktsioone alustada enne, kui kõik vajalikud andmed on olemas, kuna lukustus lõpeb alles siis, kui kõik andmed on saadetud. Halb näide on näiteks see, kui alustada transaktsiooniga, kuid selle edukaks lõppemiseks on vaja veel kasutaja poolt sisendit. Tabel on lukus seni, kuni kasutaja on sisendi andnud.
tuleks vältida pikki transaktsioone, kuna nende ajal toimub tabelis lukustamine. Soovitatav on valideerida enne transaktsioone juba rakenduses andmed, et vältida transaktsiooni ajal vigade tekkimist, mis pikedab neid. Lisaks ei tohiks transaktsioone alustada enne, kui kõik vajalikud andmed on olemas, kuna lukustus lõpeb alles siis, kui kõik andmed on saadetud. Halb näide on näiteks see, kui alustada transaktsiooniga, kuid selle edukaks lõppemiseks on vaja veel kasutaja poolt sisendit. Tabel on lukus seni, kuni kasutaja on sisendi andnud.


Deadlockide vältimine(üks transaktsioon ootab teise taga ja võivadki igaveseks ootama jääda)
Ummik(''Deadlock'')on situatsioon, kus üks transaktsioon ootab teise ja teine esimese taga. Kindlasti tuleks sättida sellele aegumise piir, kuna vaikeseadetes võivadki need üksteise järgi põhimõtteliselt ootama jääda. Samuti tuleks sättida parallelism üheks.
Parallelism tuleks sättida üheks. Transaktsioonid peaksid olema lühikesed, kõik üleliigne tuleks eemaldada. ja veel punkte.
Lisaks tuleks sättida lukkudele time-out ühenduses, kuna by default võibki igaveseks ootama jääda.
SQL Server Bible 1382.
SQL Server Bible 1382.


==Sõnaotsing==
==Täistekstiotsing==
SQL Server pakub sõnade otsimiseks lahendust, mille nimeks on FullTextSearch. Seda saab kasutada alates Standard versioonist ning töötab indekseerimise põhimõttel. See lahendus pole küll mõeldud otseselt otsingumootoriks, kuid see on väga hea jõudlusega ning täidab igati oma põhiülesannet, hoides samal ajal ressursikasutuse madalana. Kindlasti tuleks seda eelistada algelisele otsingule, kus kasutatae LIKE operaatorit, mis on aeglane.
Tihti on vaja lõppkasutajatele võimaldada info otsimist. Kuna enda otsingusüsteemi loomine on kulukas protsess, siis sobib seda asendama alguses SQL Serveri ''FullTextSearch'' funtsionaalsus. Viimast saab kasutada alates Standard väljaandest ning see töötab indekseerimise põhimõttel. Antud lahendus pole mõeldud otseselt otsingumootoriks, kuid see on väga hea jõudlusega ning täidab igati oma põhiülesannet, hoides samal ajal ressursikasutuse madalana. Kindlasti tuleks seda eelistada algelisele otsingule, kus kasutatae LIKE operaatorit, mis on aeglane.
Sama lahendus on hetkel kasutusel Eesti Rahvusringhäälingu .NET portaalide otsingusüsteemides ja on ennast igati õigustanud.


==Andmebaasi konfigureerimine==
==Andmebaasi konfigureerimine==
Parimate praktikate kohaselt soovitatakse jätta palju variante vaikimisi, kuna nii töötab server kõige optimaalselt ning nende muutmisel võib olla effekt jõudlusele hoopis negatiivne
Parimate praktikate kohaselt soovitatakse jätta paljudele seadetele vaikimisi väärtused. Nii töötab server kõige optimaalsemalt ning nende muutmisel võib olla effekt jõudlusele hoopis negatiivne.


'''Startup Manager'''
'''Startup Manager'''
Kui soovida SQL Serverist pigistada välja  viimane, siis võib SQL Server Configuration Manager'i all saab lisada Startup Parameters alla parameetri -x, mis võimaldab maksimaalselt jõudlust. Selllel on aga üks väga suur miinus. Nimelt lülitatakse kõik monitoorimisvõimalused selleks välja ja jõudlusprobleemide jälgimine ja otsimine muutub peaaegu võimatuks.
Kui soovida andmebaasist kätte saada maksimum, siis võib SQL Server Configuration Manager'is lisada Startup Parameters alla parameetri -x, mis võimaldab maksimaalselt jõudlust. Selllel on aga üks väga suur miinus. Nimelt lülitatakse kõik monitoorimisvõimalused selleks välja ja jõudlusprobleemide jälgimine ja otsimine muutub peaaegu võimatuks.


'''Ühenduste automaatne sulgemine(Auto Close)'''
'''Ühenduste automaatne sulgemine''(Auto Close)'''''
Ühenduste automaatset sulgemist saab kontrollida graafilisel Management Studiost ja käsuga: ALTER DATABASE <ANDBEMAASINIMI> SET auto_close ON/OFF.  Kui Auto Close on lubatud, siis peale kõigi aktiivste ühenduste sulgumist andmebaasiga vabastab SQL server kõik selle andmebaasi ressursid, mis teoreetiliselt peaks andma rohkem ressursse mõnele teisele andmebaasile. Pealtnäha võib see mõjuda jõudlusele hästi, kuid tegelikult on see kindel viis kuidas hävitada SQL Serveri jõudlus, kuna paljud rakendused sulgevad ja avavad ühendusi korduvalt. Uute ühenduste puhul tuleb aga andmebaas uuesti laadida, kompileerida protseduurid ja arvutada päringu läbiviimise plaanid. See tõttu peaks see ühenduste automaatne sulgemine olema keelatud, mis on ka kõigis SQL Serveri versioonides vaikimis, välja arvatud SQL Express.
Ühenduste automaatse sulgumise korral vabastab SQL SERVER kõik selle andmebaasi ressursid, peale viimase aktiivse ühenduse sulgumist (sh päringu täitmise plaanide ja  kompileeritud talletatud protsetuuride kustutamist).  Vabanenud ressursse saavad kasutada teised andmebaasid. Pealtnäha tundub selline tegevus optimaalne, kuid tegelikult on see kindel viis, kuidas SQL Serveri töö hävitada. Paljud rakendused sulgevad ja avavad ühendusi korduvalt. Uute ühenduste tekkimisel tuleb uuesti laadida, kompileerida protseduurid ja arvutada päringu läbiviimise plaanid. See tõttu peaks ühenduste automaatne sulgemine olema keelatud, mis on ka kõigis SQL Serveri versioonides vaikimisiväärtuseks, välja arvatud SQL Express väljaandes.
Ühenduste automaatset sulgemist saab kontrollida graafiliselt Management Studiost või käsuga: <source lang="sql">ALTER DATABASE ANDBEMAASINIMI SET auto_close ON/OFF.</source> 


Ühenduste automaatne sulgemine peaks olema lubatud ainult siis, kui tegemist on andmebaasiga, mis hoiab endas arhiivi ja kasutatakse väga vähe.
See peaks olema lubatud ainult siis, kui tegemist on andmebaasiga, mis hoiab endas arhiivi ja kasutatakse väga vähe.


'''Automaatne kahanemine (Auto Shrink)'''
'''Automaatne kahanemine ''(Auto Shrink)'''''
Samuti peaks olema keelatud käsuga ALTER DATABASE <Andmebaasinimi> SET AUTOSHRINK OFF; Kui andmebaasil on üle 25% vaba ruumi, siis see põhjustab andmete ja logifailide kahandamise operatsiooni. Failide kahandamine on väga kulukas protsess.
Kui see võimalus on sisselülitatud, siis juhul kui andmebaasil on üle 25% vaba ruumi, toimub andmete ja logifailide kahandamise operatsiooni. See protsess on kulukas ja samas hakkavad need failid hiljem nagunii kasvama.  See põhjustab faili fragmenteerumist operatsioonisüsteemi tasandil. Selle saab välja lülitada käsuga:
<source lang="sql">ALTER DATABASE Andmebaasinimi SET AUTOSHRINK OFF;</source> 
SQL Server Bible 2008 lk 920


=ASP.NET tehnoloogiast tulenevad optimeerimisvõimalused=
=ASP.NET tehnoloogiast tulenevad optimeerimisvõimalused=
==Web.config==
==Konfiguratsioon==
web.config failis asub informatsioon veebirakenduse seadistuse kohta nagu näiteks andmebaasiga ühenduse loomiseks vajalikud parameetrid või kuidas toimub rakenduse kompileerimine. ASP.NET kasutab selles failis olevat infot, et luua rakenduse ülesehitus. Kui testkonnas testida rakendust, peaks olema kindlasti web.configis olema parameeter "compilation debug" väärtus true. Vigade esinemise korral on sel juhul neid lihtne leida. Veebirakenduse tõstmisel live serverisse tõstmisel peab jälgima, et antud parameeter oleks false. Vastasel juhul kompileeritakse pidevalt veebirakendust iga lehe laadimise ajal uuesti ja see omakorda kasvatab protsessori ja mälu kasutust. Kõige kindlam viis selle vältimiseks on muuta serveris asuvat machine.config faili ja lisada parameeter deployment retail="true". Nii on kindel, et ükski veebiaplikatsioon ei kasuta antud serveris debug mode'i. Ainukeseks miinuseks selle puhul on, et vea ilmnemisel ei kuvata vea täpset asukohta(Rea numbrit ja veakirjeldust).
Konfiguratsiooni hoitakse web.config failis. Selle näol on tegemist infoga veebirakenduse seadistuse kohta. Näiteks: andmebaasiga ühenduse loomiseks vajalikud parameetrid või kuidas toimub rakenduse kompileerimine. ASP.NET kasutab selles failis olevat infot, et luua rakenduse ülesehitus.  


Lisaks tasub web.config faili lisada ka outputcache'imise erinevad profiilid, millega saab määrata kui kaua lehte serveri mälus hoitakse. Kui lehele on tulemas suur koormus või midagi muud, saab ühest kohast muuta kõikide cahche'ide kehtivuse pikkust, mis kasutavad konkreetset profiili.
Kui testkeskkonnas siluda rakendust, peaks kindlasti selles failis parameetri "compilation debug" väärtus olema true. Vigade esinemise korral on sel juhul neid lihtne leida. Rrakenduse ''live ''serverisse tõstmisel peab jälgima, et silumine oleks kindlasti välja lülitatud. Vastasel juhul kompileeritakse pidevalt veebirakendust iga lehe laadimise ajal uuesti ja see omakorda kasvatab protsessori ja mälu kasutust. Kõige kindlam viis sellise olukorra vältimiseks on muuta serveris asuvat machine.config faili ja lisada parameeter ''deployment retail="true"''. Nii on kindel, et ükski veebiaplikatsioon ei kasuta antud serveris silumist. Ainukeseks miinuseks selle puhul on, et vea ilmnemisel ei kuvata vea täpset asukohta (rea numbrit ja veakirjeldust).
 
 
Lisaks tasub web.config faili lisada väljundipuhvri erinevad profiilid. Sellega saab määrata, kui kaua lehte serveri mälus hoitakse. Kui rakendusele on tulemas suur koormus, saab ühest kohast muuta kõikide väljundite kehtivuse pikkust, mis kasutavad konkreetset profiili.


==Viewstate==
==Viewstate==
Viewstate'i kasutatakse, et hoida väärtusi ASP.NET tööriistade(controls) objektide kohta. Lehe rendendamisel genereerib ASP.NET ühe peidetud välja, mis kannab nime __VIEWSTATE, kus on see info sees. Nii on võimalik antud väärtuseid kasutada ka peale kliendi-serveri vahelist suhtlust, kui selleks kasutatakse postbacki, mille kutsub välja näiteks nupulevajutus. Hoides selles aga suurel hulgal andmeid, kasvab see tõttu ka lehe suurus ning selle laadimise aeg. Arvestama peab ka sellega, et lehe renderdamisel tuleb viewstate'i serialiseerida ja deseriaaliseerida. Lisaks võib see vähendada Garbage Collection'i efektiivsust. Sellepärast tuleb selle kasutamisega olla ettevaatlik ja eemaldada kohtadest, kus seda vaja ei lähe, kuna see mõjub jõudlusele halvasti. Näiteks genereerivad kõige rohkem viewstate'i ASP.net enda tööriistad Listview ja Gridview.  
Viewstate'i kasutatakse, et hoida väärtusi ASP.NET tööriistade (controls) objektide kohta. Lehe laadimisel genereerib ASP.NET ühe peidetud välja, mis kannab nime ''__VIEWSTATE'', kus on see info sees. Nii on võimalik antud väärtuseid kasutada ka peale kliendi-serveri vahelist suhtlust, kui toimub tagasipostitamine ''(postback)''. Hoides selles suurel hulgal andmeid, kasvab seetõttu ka lehe suurus ning selle laadimise aeg. Arvestama peab ka sellega, et lehe laadimisel tuleb viewstate'is olevaid andmeid serialiseerida ja deseriaaliseerida. Lisaks võib see vähendada mäluhalduse(GC) efektiivsust. Sellepärast tuleb selle kasutamisega olla ettevaatlik ja eemaldada kohtadest, kus seda vaja ei lähe, kuna see mõjub jõudlusele halvasti. Näiteks genereerivad kõige rohkem viewstate'i ASP.net enda tööriistad nagu ''Listview'' ja ''Gridview''.  
Lehel sisalduva viewstate'i hulga analüüsimiseks on hea tööriist ASP.NET ViewState Helper, mis töötab Firefoxi ja Internet Exploreriga. Selle abil on võimalik näha, kui suure osa moodustab kogu lehe suurusest viewstate.
Lehel sisalduva viewstate'i hulga analüüsimiseks on hea tööriist ASP.NET ViewState Helper, mis töötab Firefoxi ja Internet Exploreriga. Selle abil on võimalik näha, kui suure osa moodustab kogu lehe suurusest viewstate.
Vaikimisi on see ASP.NET'is igal pool sisselülitatud. Soovitatav on see välja lülitada kohtades, kus ei toimu serveri poolseid kontrolle ja ei kasutata postbacke. Seda saab välja lülitada erinevatel tasemetel: serveris(machinge.config), veebirakenduses(web.config), lehel <%@ Page EnableViewState="false" %> kui ka ASP.NET tööriistades endas(EnableViewstate=false).
Vaikimisi on see ASP.NET'is igal pool sisse lülitatud. Soovitatav on see välja lülitada kohtades, kus ei toimu serveri poolseid kontrolle ja ei kasutata tagasipostitamist (postback). Seda saab välja lülitada erinevatel tasemetel: serveris (machinge.config), veebirakenduses (web.config), lehel <source lang="asp"><%@ Page EnableViewState="false" %> </source>kui ka ASP.NET tööriistades endas (EnableViewstate=false).


Postback'i kontrollimine
Kui lehel on lubatud viewstate ja toimub tagasipostitus (postback), siis tuleb seda kontrollida kasutades ''IsPostBack()'' meetodit. Viimane teeb kindlaks, kas tegemist on tagasipostitamisega ''(postback)''. Kui on, siis pole vajadust enam andmeid uuesti pärida, vaid kasutada juba olemasolevaid ja võtta need viewstate'is.
Kui lehel on lubatud viewstate ja toimub postback, tuleb seda kontrollida kasutades IsPostBack() meetodit, mis teeb kindlaks, kas tegemit on postbackiga. Kui on, siis pole mõtet enam uuesti andmeid pärida, vaid kasutada juba olemasolevaid.


==ASP.NET enda tööriistad==
==ASP.NET enda tööriistad==
Enimlevinud tööriistad, mida tihti kasutatakse on GridView, Listview ja Repeater. Neid kõiki on mugav kasutada, erinevate ????? loomiseks. Esimesed kaks neist genereerivad aga suurel hulgal viewstate'i. Kui eesmärgiks on tavalise listi loomine(näiteks uudiste), siis peab kindlasti selle keelama. Nende tööriistade kasutamisels tuleks pöörata tähelepanu ka sellele, kuidas saada väärtuseid allikast kätte. Väga levinud viis on selleks kasutada süntaksi: <%#Eval("fieldname")%>, mis defineerib välja nime, kuskohast väärtust päritakse. Seda on lihtne kasutada, olenemata sellest, kas on tegemist objektide listiga või DataTable'iga. Tegelikult tuleb sellise süntaksi puhul maksta hinda jõudluses, kuna küsitava välja tüüp ei ole tegelikult defineeritud ja selle kindlaks tegemiseks kasutatakse peegeldust.(reflection) Nii tuleb 10 rea väärtustamiseks teha Eval operatsiooni tegelikult 20 korda, kuna esialgu pole teada, millist tüüpi andmetega tegu on. Parem variant on viidata kohe klassile, kust otsitav väli pärit on nagu näiteks:
Enimkasutatavad tööriistad on tihti GridView, Listview ja Repeater. Neid kasutatakse tihti erinevate vaadete loomiseks. Esimesed kaks neist genereerivad suurel hulgal viewstate'i, sisaldes väga palju  funktsionaalsust. Selle tõttu peab alati valima, milliseid tööriistu kasutada. Kui eesmärgiks on tavalise listi loomine (näiteks uudiste), siis peab kindlasti viewstate'i keelama ja kasutama võimalusel ''Repeater''' it, kuna ''ListView'' funktsionaalsust tegelikult vaja  ei lähe.
<pre><%#((MyClass)Container.DataItem).field1%> või DataTable kasutamise puhul <%#((DataRowView)Container.DataItem).field1%>.</pre> Ainuüksi 10 rea lisamisel võib kiirusevahe olla enam kui kümne kordne, viimase variandi kasuks. Selle kasutamisel peame arvestaam, et muutes näiteks klassinime, peame muutma seda ka kohas, kus pärime välja väärtuseid.


ASP.NET genereerib automaatselt html'i kõikidele väljadele ID'd, kui need on ka koodis määratud. Näiteks kui meil on ASP.NET'i pildikomponent parameetritega <asp:Image ID="imgMainItem" runat="server"/>, siis sõltuvalt selle sügavusest lehtede hierarhias võib peale kompileerimist htmli vaadates näha, et antud välja ID'ks on saanud hoopis id="ctl00_leftColumn_ctl00_Vaikekategooria3_imgMainItem". Nagu näha on tegemist üpriski mahuka nimetusega. Kui aga tegelikkuses seda id'd meil vaja ei lähe, siis peaks jätma selle määramata. Mahuka esilehe puhul on sellega võimalik hoida päris palju ruumi kokku. Kui siiski vajame ID'd, võime selle peale kasutamist ära nullida. Eht näiteks: imgMainItem.Src="pilt.jpg"; imgMainItem.ID=null;
Nende kasutamisel tuleks tähelepanu pöörata väärtuste kuvamise viisile. Levinud on selleks kasutada võimalust: <source lang="asp"><%#Eval("fieldname")%></source>, mis defineerib välja nime, kuskohast väärtust päritakse. Seda on lihtne kasutada, olenemata sellest, kas tegemist on objektide listiga või ''DataTable'''iga. Tegelikult tuleb sel juhul maksta hinda jõudluses, kuna küsitava välja tüüp ei ole tegelikult defineeritud ja selle kindlaks tegemiseks kasutatakse peegeldust (reflection). Nii tuleb 10 rea väärtustamiseks teha Eval operatsiooni tegelikult 20 korda, kuna esialgu pole teada, millist tüüpi andmetega on tegu. Parem variant on viidata kohe klassile, kust otsitav väli pärit on. Nagu näiteks:  
<source lang="asp">
<%#((MyClass)Container.DataItem).field1%> <!-----Klass----!>
<%#((DataRowView)Container.DataItem).field1%>.<!---DataTable---!>
</source>
'''ASP.NEt Site Performance 76'''
Ainuüksi 10 rea lisamisel võib kiiruse vahe olla enam kui kümnekordne, viimase variandi kasuks mõõdetuna ticksides. Selle kasutamisel peab arvestama, et muutes näiteks klassinime, tuleb muutma seda ka kohas, kus päritakse välja väärtuseid.


==Cache==
ASP.NET genereerib automaatselt HTML'i kõikidele väljadele ID'd, kui need on ka koodis määratud. Näiteks kui kasutada pildikomponenti parameetritega <source lang="asp"><asp:Image ID="imgMainItem" runat="server"/></source>, siis sõltuvalt selle sügavusest lehtede hierarhias võib peale kompileerimist HTMLi vaadates näha, et antud välja ID'ks on saanud hoopis <source lang="asp">id="ctl00_leftColumn_ctl00_Vaikekategooria3_imgMainItem"</source>. Tegemist üpriski mahuka nimetusega. Kui aga tegelikkuses seda id'd ei vajata, siis peaks jätma selle määramata. Mahuka esilehe puhul on sellega võimalik hoida päris palju ruumi kokku. Kui siiski vajatakse ID'd, võib selle peale kasutamist ära nullida. Nnäiteks:
Cache'imine on üks lihtsamaid viise, kuidas muuta veebirakenduse ja ka andmebaasi tööd optimaalsemaks, hoides enimkasutatavaid ressursse mälus. Sellest andmete kättesaamine on lihtsam ja kiirem, kui selle pärimine pidevalt andmebaasist või kuskilt mujalt. ASP.NETis on kasutusel Cache API hoidmaks enimkasutatavat .... ja outputcache, mille korral salvestatakse serveri mällu terve leht. Selle kasutamisel peab arvestama, et vajalike andmete/lehtede hoiustamiseks kasutatake serveri mälu. See tõttu peab läbi mõtlema, mida on vaja cache'ida ja mida mitte, eriti siis kui serveri mälu on vähe. Head kandidaadid cahce'imiseks on lehed/andmed, mida kasutatakse kõige rohkem või mille kätte saamine on väga kulukas protsess. Enamasti on selleks näiteks esileht ja mõned suuremad listid ning otsingutulemused.
<source lang="csharp">
Cache API'l ja OutPutCache on küll kaks erinevat asja, kuid põhimõte on neil siiski sarnane. Mõlemale on võimalik ette anda aeg, kui kaua aega neid serveri mälus hoitakse. Lisaks saab mõlema puhul kasutada SqlCacheDepencyt, mis võimaldab jälgida, kas andmebaasitabelites on muudatusi toimunud. Cache kustutakse sellel juhul, siis kui jälgitavas tabelis toimub muudatus. Selle toimimiseks peab andmebaasis lubaba tabelitel SqlCacheDependency ja ka web.config failis kajastama seda. On võimalus ka kasutada mitme tabeli jälgmist. Soovitatav on kasutada tabeleid, kus tihti muudatusi ei toimu, vastasel juhul on Cache pidevalt tühi ja andmete saamiseks tuleb siiski päringuid teha. Sellisel juhul tuleks anda ajaline intervall, mille tagant andmeid uuendatakse. http://msdn.microsoft.com/en-us/library/system.web.caching.sqlcachedependency.aspx. Cache API puhul on võimalik  jälgida Cachedependency kasutamisel ka näiteks xml failide muutumist.
//....
imgMainItem.Src="pilt.jpg";
imgMainItem.ID=null;
//....
</source>


===OutPutCache===
==Puhver==
OutPutCache'i puhul salvestatakse terve dünaamiliselt loodav leht serveri mällu. Peale seda kuvatakse lihtsalt mälus olevat lehte. Seda saab kasutada nii terve .aspx lehtede salvestamiseks, kui ka usercontrolide puhul. OutPutCache jaoks tuleb lisada järgnev kood lehe ülaossa: < %@ OutputCache Duration="60" VaryByParam="None" % > Need kaks parameetrit on alati kohustuslikud. Duration näitab kui pikka aega lehte serveri mälus hoitakse. Lisaks on levinumad parameetrid veel:
Andmete talletamine puhvris on üks lihtsamaid viise, kuidas muuta veebirakenduse ja ka andmebaasi tööd kiiremaks. See võimaldab hoida enimkasutatavaid objekte mälus. Sellest andmete kättesaamine on lihtsam ja kiirem, kui selle pärimine pidevalt andmebaasist või kuskilt mujalt. ASP.NETis on kasutusel väljundi puhverdamisliides hoidmaks mälus objekte ning väljundipuhver, kus salvestatakse serveri mällu terve leht. Nende mõlema meetodi  kasutamisel peab arvestama, et vajalike andmete/lehtede hoiustamiseks kasutatake serveri mälu. Seetõttu peab läbi mõtlema, milliste andmete talletamine mälus on kriitiline. Seda eriti juhul, kui serveril on mälu vähe. Head kandidaadid puhverdamiseks on lehed/andmed, mida kasutatakse kõige rohkem või mille kätte saamine on väga kulukas protsess. Enamasti on selleks näiteks esileht ja mõned suuremad listid ning otsingutulemused.
Shared="true/false" - saab kasutada ainult usercontrollide puhul. Kui true, siis cache'itakse see kõikidel lehtedel.  
 
VarByParam="parameetrinimi" - arvestatakse querystringidega.
Väljundi puhverdamisliides ja väljundipuhver on küll kaks erinevat mõistet, kuid põhimõte on neil siiski sarnane. Mõlemale on võimalik ette anda aeg, kui kaua aega neid serveri mälus hoitakse. Lisaks saab mõlema puhul kasutada ''SqlCacheDepencyt'', mis võimaldab jälgida, kas andmebaasitabelites on muudatusi toimunud. Mälust kustutakse andmed, kui jälgitavas tabelis toimub muudatus.'''Selle toimimiseks peab andmebaasis lubama tabelitel ''SqlCacheDependency'' ja ka web.config failis kajastama seda.''' Selles saab määrata, kui tihti kontrollitakse, kas andmebaasitabelites on toimunud muudatusi.
CacheProfile="profiilinimi" - web.configis asuv outputcache'i profiil.  
 
SqlDependency ="adnmebaasi/tabeli paar" -  defineeritakse andmebaasi /tabeli paarid, mille muutumise korral leht serveri mälust kustutakse.
http://www.asp.net/data-access/tutorials/using-sql-cache-dependencies-vb
http://msdn.microsoft.com/en-us/library/hdxfb6cy.aspx
http://msdn.microsoft.com/en-us/library/system.web.caching.sqlcachedependency.aspx
Lisaks on üks huvitav parameeter veel VaryByCustom, mille kasutamiseks tuleb Global.asax'is override'ida GetVarByCstomString meetod:
 
Võimalus on kasutada ka mitme tabeli jälgimist. Soovitatav on vaadelda tabeleid, milles ei toimu tihti muudatusi. Vastasel juhul on puhver pidevalt tühi ja andmete saamiseks tuleb siiski päringuid teha. Sellisel juhul tuleks anda ajaline intervall, mille tagant andmeid uuendatakse. http://msdn.microsoft.com/en-us/library/system.web.caching.sqlcachedependency.aspx.
 
Väljundipuhvri kasutamine on kiirem, kuna selle puhul on lehe töötsükkel lühike. Alguses kontrollitakse, kas leht on serveri mälus olemas ja kui see eksisteerib seal, siis see saadetakse kasutajale. Väjundi puhverdamisliidese puhul aga toimub terve lehe elutsükkel. (See on kirjeldatud peatükis ASP.NET veebirakenduse põhikomponendid ja töötsükkel)
 
===Väljundipuhver===
http://msdn.microsoft.com/en-us/library/xadzbzd6.aspx
Väljundipuhvri kasutamisel salvestatakse terve dünaamiliselt loodav leht serveri mällu. Peale seda kuvatakse seal olevat lehte. Seda saab kasutada nii terve .aspx lehtede salvestamiseks kui ka usercontrolide puhul. Väljundipuhvri jaoks tuleb lisada järgnev kood lehe ülaossa:  
<source lang="asp">< %@ OutputCache Duration="60" VaryByParam="None" % ></source>
Need kaks parameetrit on alati kohustuslikud. Kestvus(''Duration'') näitab kui pikka aega lehte serveri mälus hoitakse ja ''VarByParam'' parameetriks saab anda päringustringi(d).
Lisaks on levinumad parameetrid veel:
<ul>
<li>Shared="true/false" - saab kasutada ainult usercontrollide puhul. Kui true, siis cache'itakse see kõikidel lehtedel. </li>
<li>CacheProfile="profiilinimi" - konfigratsuoonfailis asuv väljundpuhvri profiil. </li>
<li>SqlDependency ="adnmebaasi/tabeli paar" -  defineeritakse andmebaasi /tabeli paarid, mille muutumise korral leht serveri mälust  
kustutakse.
http://msdn.microsoft.com/en-us/library/hdxfb6cy.aspx</li>
<li>VarByCustom ="nimi" - võimaldab kasutajal luua endal puhverdamise meetod </li>
<li>VarByParam="parameeter" - saab anda ühe või mitu päringustringi väärtust, mille põhjal leht salvestatakse väljundpuhvrisse.
</ul>
''VaryByCustom'''i, kasutamiseks tuleb Global.asax failis ülekirjutada GetVarByCstomString meetod:
Näiteks:   
Näiteks:   
<source lang="csharp">
public override string GetyVarByCustomString(HttpContext context, string custom){
public override string GetyVarByCustomString(HttpContext context, string custom){
if(custom=="weekday"){
if(custom=="weekday"){
return ....
return ....
}else{
}else{
return bas.GetVarbyCustomString(context, custom)
return base.GetVarbyCustomString(context, custom)
}
}
}
}
ASP.NET ei hooli stringi tegelikust sisust, vaid kontrollib seda, kas vastav stringi väärtusega leht on juba serveri mällu salvestatud. Kui on, siis serveeritakse leht serveri mälust, vastasel juhul lisatakse uus lehe koopia mällu. Olen seda saab kasutanud näiteks feedi cache'imiseks, mille loomine oli väga kulukas ja mida tohivad näha ainult teatud IP aadressitega kliendid. Tavalise OutPutCache'i lisamine on välistatud, kuna kui võõra IP'ga klient tuleb, näeb ta ikkagi feedi sisu, leht on serveri mälus ja outputcache'i puhul lehe eventeid ei käivtata. Teine halb asi, mis võib juhtuda on kui võõra IP'ga klient tuleb siis kui lehte pole veel serveri mälus.Sellel juhul aga läheb terve feed katki, kuna serveri mälllu salvestatakse leht, mis on tühi, kuna sel hetkl käis lehel keelatud IP'ga klient. Lahenduseks oli override'ida GetVarByCustomString meetod ja cache'ida leht IP põhiselt.
</source>
ASP.NET ei hooli stringi tegelikust sisust, vaid kontrollib seda, kas vastav stringi väärtusega leht on juba serveri mällu salvestatud. Kui on, siis serveeritakse leht serveri mälust, vastasel juhul lisatakse uus lehe koopia mällu.  
 
'''Kas selle alumise möla peaks ära kustutama? Tegelikult ei ole üldse hea lahendus ju... Või mis?'''
Olen seda saab kasutanud näiteks feedi cache'imiseks, mille loomine oli väga kulukas ja mida tohivad näha ainult teatud IP aadressitega kliendid. Tavalise OutPutCache'i lisamine on välistatud, kuna kui võõra IP'ga klient tuleb, näeb ta ikkagi feedi sisu, leht on serveri mälus ja outputcache'i puhul lehe eventeid ei käivtata. Teine halb asi, mis võib juhtuda on kui võõra IP'ga klient tuleb siis kui lehte pole veel serveri mälus.Sellel juhul aga läheb terve feed katki, kuna serveri mälllu salvestatakse leht, mis on tühi, kuna sel hetkl käis lehel keelatud IP'ga klient. Lahenduseks oli override'ida GetVarByCustomString meetod ja cache'ida leht IP põhiselt.
 
===Väljundi puhverdamisliides===
Cache API puhul ei hoita serveri mälus mitte tervet lehte, vaid soovitud väärtusi, mis lisatakse sinna koodifailis. Näiteks:
<source lang="csharp">Cache.Insert("võti", "väärtus");</source>. Tihti on selleks list objektidest, ''DataTable'' või midagi muud sarnast. Lisamiseks kasutatakse võti/väärtus paari, millele saab lisaks kaasa anda aegumise intervall või sõltuvus andmebaasitabeli muudatustest (''SqlCacheDependency'').
 
Võimalikud parameetrid, mida Cache.Insert meetodi sisendiks saab kasutada on:
<ul>
<li>Insert(String, Object) - Lisab objekti mällu.</li>
<li>Insert(String, Object, CacheDependency) - Lisatakse objekt mällu ja arvestatakse Dependencyga nii faili kui andmebaasi puhul.</li>
<li>Insert(String, Object, CacheDependency, DateTime, TimeSpan) - Lisatakse objekt mällu koos aegumisreeglitega.
</li>
</ul>
http://msdn.microsoft.com/en-us/library/system.web.caching.cache.insert.aspx
Selle abil saab vähendada väärtuste pärimiseks tehtavaid päringuid. Enne väljundipuhvrist informatsiooni välja võtmist, tuleb alati kontrollida, kas vastava võtmega on seal üldse midagi olemas, kuna vahepeal kustutakse serveri mälus hoiustatud väärtusi. See  leiab aset näiteks juhtudkel, kui serveril on vähe mälu, objekt aegub või muutub dependency.
 
Kontrollida saab näiteks nii:
<source lang="csharp">
if(Cache[key]!=null){


===Cache API===
}
Cache API puhul ei hoita serveri mälus mitte tervet lehte, vaid soovitud väärtusi, mis lisatakse sinna koodifailis. Näiteks: Cache.Insert("võti", "väärtus"). Tihti on selleks list objektidest, DataTable või midagi muud sarnast. Lisamiseks kasutatakse võti/väärtus paari, millele saab lisaks kaasa anda aegumise intervall või sõltuvus andmebaasitabeli muudatustest(SqlCacheDependency). Nii saab vähendada väärtuste loomiseks tehtavaid operatsioone. Enne Cache'ist väärtuste väljaküsimist tuleb alati kontrollida, kas vastava võtmega on seal üldse midagi olemas, kuna vahepeal kustutakse serverimälus hoiustatud väärtusi, kui serveril on vähe mälu, objekt aegub või dependency muutb. sest need kustutakse vahepeal serveri mälust. (Kas tuleks panna ka mingid koodinäited? http://msdn.microsoft.com/en-us/library/ms178597.aspx
</source>
  http://msdn.microsoft.com/en-us/library/ms178597.aspx


==.NET raamistiku vahenditest tulenevad optimeerimisvõimalused==
=.NET raamistiku vahenditest tulenevad optimeerimisvõimalused=
Koodi optimeerimine ei puuduta ainult koodi kirjutamist, vaid kuidas seda teha. Juba lihtsamate praktikate jälgimine võib anda olulist võitu.
Koodi optimeerimine ei puuduta ainult selle kirjutamist, vaid ka viisi, kuidas seda teha. Juba lihtsamate praktikate järgimine võib tagada rakenduse kiirema töötamise.
Tuleks vältida kordusi, kuna see genereerib liiasusut ja võtab ilmaasjata mälu. Objektid tuleks initsialiseerida võimalikult hilja:alles siis kui neid kasutatakse. Nende loomine võtab küll vähe aega, kuid nad allutavad endale seniks mälu kuni neid enam ei vajata. See tõttu tuleks teha objektidega toimetamised võimalikud lühikesed ja siis nad deinitsialiseerida(anda väärtuseks null). Siis teab GC, et võib objekti "heap"ist ära kustuta. Kui objekt initsialiseerida varakult ja seda pikalt kasutada, siis võib ta tõusta GC kõrgemale tasemele ja jääda nii kustutamata, kasutades ilmaasjata mälu.
Tuleks vältida kordusi, kuna see genereerib liiasust ja võtab ilmaasjata mälu. Objektid tuleks initsialiseerida võimalikult hilja:alles siis kui neid kasutatakse. Nende loomine võtab küll vähe aega, kuid nad allutavad endale seniks mälu kuni neid enam ei vajata. Seda teemat puudutab autor peatükis Mäluhaldus.


==.NET enda vahendite kasutamine==
Erinevate andmetöötlusprotsesside jaoks tuleks eelistada .NET'i enda olemasolevaid meetodeid, kuna need on tihti kõige optimeeritumad. Väikeste andmehulkade puhul ei pruugi ajaline vahe välja paista, kuid mahukamate operatsioonide puhul võib olla see märgatav.


'''Stringide liitmine.'''
Näiteks väga mahukate stringide liitmisel, tuleks kasutada ''StringBuilder''it ja tema ''append'' meetodit.
<source lang="csharp">
string s = "TestSona";
string temp="";
for (int i = 0; i < 15000; i++)
            {
              temp += s;
               
            }
</source>


Kui teha stringide mahukaid liitmisoperatsioone, on soovitatav kasutada StringBuilderi append meetodit. Kui tegemist on vähem kui seitsme stringi liitmisega, siis tuleks kasutada + operaatorit. Kui ühekorraga liita suurem kogus stringe, on mõistlik kasutada samuti + operaatorit, kuna ainult stringi lõpptulemus luuakse.
Täitmiseks kulus: 0.7213204 sekundit.


'''Võrdlused'''
<source lang = "csharp">
StringBuilder sb = new StringBuilder();
string s = "TestSona";
  for (int i = 0; i < 15000; i++)
            {
                sb.Append(s);
             
            }
</source>
Täitmiseks kulus: 0.0003441 sekundit.


Erinevate objektide võrdlemiseks tuleks kasutada Compare meetodit nii stringide kui ka kuupäevade puhul, kuna see on kiirem. Eriti on see kasulik stringide puhul, kui tegemist on tõusutundmatute võrdlustega.
Samad põhimõtted kehtivad ka teiste operatsioonide kohta nagu näiteks stringide ja kuupäevade võrdlus.
 
'''Veahaldus'''
SQL Site Performance lk 79
 
==Veahaldus==
Veahaldus on kulukas protsess ja selle valesti kasutamine võib maksta väga valusalt kätte jõudluses. Näitena kasutab autor ''Guid'''i sõelumist ''(parse)''. Tegemist võib olla reaalse situtatsiooniga, kus päringustringist saadakse väärtus ja on vaja kontrollida, kas tegemist on õiget tüüpi muutujaga. Selleks on kaks võimalust: kasutada tavalist try-catch veahaldust või meetodit TryParse(). TryParse proovib sisendiks antud parameetrit parsida ja kui see õnnestub, siis tagastab ''true'' ja parsitud väärtuse. Kui see toimub edukalt, töötavad mõlemad variandid sama kiiresti. Kui see ei õnnestu, on TryParse tunduvalt kiirem.


Veahaldus on kulukas protsess ja selle valesti kasutamine võib maksta väga valusalt kätte jõudluses. Toome näite. Olgu meil stringide list ja me peame kontrollima kas neid on võimalik Guidides parsida. Selleks on kaks võimalust: kasutada tavalist try-catch veahaldust või meetodit TryParse(). TryParse proovib sisendiks antud parameetrit parsida ja kui see õnnestub, siis tagastab väärtuse true ja parsitud väärtuse. Kui parsimine on edukas, töötavad mõlemad variandid sama kiiresti. Kui aga parsimine ei õnnestu, on TryParse tunduvalt kiirem.
<pre>for(int i=0; i<5000; i++){
Guid temp;
Koodinäide lk 74:
                try
<pre>for(int i=0; i<1000; i++){
                {
int targetInt=0;
                    temp = Guid.Parse("asd-454-as23-a2322-asdasdasd-afgh123");
try{
                }
targetInt = Int32.Parse("xyz");
                catch
}catch{
                {
}
                }
}
}
for(int i=0; i<1000; i++){
for(int i=0; i<5000; i++){
int targetInt=0;
Guid targetGuid;
if(!Int32.TryParse("xyz", out targetInt)){
if(!Int32.TryParse("xyz", out asd-454-as23-a2322-asdasdasd-afgh123)){
}
}
}</pre>
}</pre>
Tulemus: Esimese variandi jaoks kulus 1052207 ticksi, TryParse jaoks 1522 ticksi. Vahe on märgatav ning võib järeldada, et try-catchi kasutamist tuleb vältida igal pool kus seda võimalik.
Tulemus: Esimese variandi jaoks kulus 0.2146621 ticksi, ''TryParse'' jaoks 0.0010329 sekundit. Vahe on umbes kahesaja kordne.
See on siiski loodud ainult vigade töötlemiseks nagu näiteks andmebaasiühenduseavamine, kus ei saa seda tõesti muudmoodi kontrollida. Kindlasti ei tohiks kasutada seda programmis tingimuste täitmise kontrolliks.  
Lisaks on sellises situatsioonis try-catchi kasutamine väga väär, kuna see on siiski loodud ainult vigade töötlemiseks nagu näiteks andmebaasiühendus eavamine. Kindlasti ei tohiks kasutada seda programmis tingimuste täitmise kontrolliks, sellele tuleks eelistada kontrolle.
 
'''Tsüklid'''
==Tsüklid==
Kasutades foreachi on küll mugav koodi kirjutada, kuid arvestades jõudlust ei ole see kõige parem variant, kuna listi läbikäimiseks kasutatakse enumeratorit ja see tõttu on see ka kulukas. Sellele tuleks eelistada for tsüklit, mis on optimaalsem. Lisaks tuleks viimast kasutades hoiustada listi pikkus muutujas, et iga iteratsiooni ajal ei peaks seda uuesti arvutama, mis on küll väike, aga siiski ressursi raiskav operatsioon. Samuti ei tohiks küsida välja iga iteratsiooni ajal välja väärtusi, mis on kõik aeg konstantsed, vaid defineerida need enne tsüklit näiteks objektide puhul. Lk80
Kasutades foreachi on küll mugav koodi kirjutada, kuid arvestades jõudlust ei ole see kõige parem variant, kuna listi läbikäimiseks kasutatakse enumeraatorit ja see tõttu on see ka kulukas. Sellele tuleks eelistada for tsüklit, mis on optimaalsem. Lisaks tuleks viimast kasutades hoiustada listi pikkus muutujas, et iga iteratsiooni ajal ei peaks seda uuesti arvutama, mis on küll väike, aga siiski ressursi raiskav operatsioon. Samuti ei tohiks küsida välja iga iteratsiooni ajal välja väärtusi, mis on kõik aeg konstantsed, vaid defineerida need enne tsüklit näiteks objektide puhul. ASP.NEt site performance Lk80


'''Strukt ja klass'''
==Strukt ja klass==
Võimalusels tuleks eelistada struktide kasutamist, kuna need annavad juurde jõudlust. Põhjuseks on nende erinevus mälukasutuses. Struktid paiknevad alati pinus(stack), peale meetodi täitmist kustutab kohe ära need. Mäluhaldus on väga lihtne. Klasside puhul on tegemist reference tüüpi, mille jaoks läheb lisaks vaja veel aadressi(tüüpobjektpointerit), sünkroniseerimisblokki(alati olemas), GC vajalikud väljad(bitid), alles siis hakkavad väärtused. Ehk üks integer võtab 3 integeri ruumi. Struct aga ainult ühe.  
Võimalusel tuleks eelistada struktide kasutamist, kuna need annavad juurde jõudlust. Põhjuseks on nende erinevus mälukasutuses. Struktid paiknevad alati pinus(stack), peale meetodi täitmist kustutatakse need kohe ära. Klasside puhul on tegemist 'reference' tüüpi väärtustega, mille jaoks läheb lisaks vaja veel aadressi(tüüpobjektpointerit), sünkroniseerimisblokki(alati olemas), GC vajalikud väljad(bitid) ja alles siis on kirjeldatud väärtused. Näiteks juhul, kui on defineeritud strukt ja objekt, millel mõlemal on ainult üks väli ja see on täisarvu tüüpi, siis objekti puhul võtab üks täisarvu väärtus kolme täisarvu jagu ruumi. Strukt aga ainult ühe.  
Ka nende meetodite väljakutsumine on erinev, kuna value tüüpi, siis teab alati mis tüüpi välja kutsuda. Objekti meetodi väljakutsumisel viitab see  tüübi tabelile...
Ka nende meetodite väljakutsumine on erinev, kuna strukt on väärtustüüpi, siis teab kompilaator alati mis tüüpi väljaga on tegemist. Objekti meetodi väljakutsumisel viitab see aga tüübi tabelile.
Staatilisi meetodeid tuleks kasutada, kuna tema puhul saab translaator panna õige aadressi.
Struktidel on aga ka piirangud, kui neid kasutada ei saa. Nende puhul ei ole pärilust(inheritance) nagu klassidel. Lisaks ei saa seda olemasolevast klassist ega struktist tuletada, küll aga saab implementeerida ''interface'''ist.  
Struktidel on ka piirangud, kus neid kasutada ei saa. Nende puhul ei ole pärilust(inheritance) nagu klassidel. Teda ei saa olemasolevast klassist ega struktist tuletada, küll aga saab implementeerida interface'ist.  
http://msdn.microsoft.com/en-us/library/aa288471%28v=vs.71%29.aspx + hennu loeng.
http://msdn.microsoft.com/en-us/library/aa288471%28v=vs.71%29.aspx + hennu loeng.
00:43 H.Sarv. Võimaluse korral tuleks staatilisi meetoodeid kasutada, kuna translaator saab...  00:44 on koodinäide.
00:43 H.Sarv.


'''Listid'''
==Listid==
Kollektsioonide kasutamist tuleks alati võimalusel vältida, neile tuleks eelistada massiive, mis on kõige kiiremad. Kui see pole aga võimalik, on soovitatav kasutada Genereerikuid nagu näiteks List või Dictionary. Viimane on eriti kiire kui listist on vaja otsida konkreetseid väärtuseid, kuna tegemist on võti-väärtus paariga. Lisaks saab võtme välja abil välistada duplikaatide esinemist, kuna see peab olema unikaalne. Listi loomisel tuleks anda ette ka selle suurus. Kui seda mitte teha, siis peale seda kui listis saab kohtade arv täis, korrutatakse olemasolev list kahega ja pannakse see selle uueks pikkuseks. Sorted lisit asemel List.Sort
Kollektsioonide kasutamist tuleks alati võimalusel vältida, neile tuleks eelistada massiive, mis on kõige kiiremad. Kui see pole aga võimalik, on soovitatav kasutada Genereerikuid nagu näiteks List või Dictionary. Viimane on eriti kiire kui listist on vaja otsida konkreetseid väärtuseid, kuna tegemist on võti-väärtus paariga. Lisaks saab võtme välja abil välistada duplikaatide esinemist, kuna see peab olema unikaalne. Listi loomisel tuleks anda ette ka selle suurus. Kui seda mitte teha, siis peale seda kui listis saab kohtade arv täis, korrutatakse olemasolev list kahega ja pannakse see Listile uueks pikkuseks. Samuti tuleks sorteeritud listile eelistada List'i, mis sorteeritakse lõpus kasutades ''Sort'' meetodit. Vastasel juhul toimub listi sorteerimine kõik aeg, kus sinna lisatakse uus element.


http://msdn.microsoft.com/en-us/library/ms172181%28v=vs.80%29.aspx + hennu loeng. Samas soovitab üldse massiividele üle minna.
http://msdn.microsoft.com/en-us/library/ms172181%28v=vs.80%29.aspx + hennu loeng. Samas soovitab üldse massiividele üle minna.


'''Mäluhaldus'''
==Mäluhaldus==
http://msdn.microsoft.com/en-us/library/ff647790.aspx#scalenetchapt05_topic5 Kui luuakse uus objekt, siis peale new väljakutsumist eraldatakse sellele mälu. Objekti kasutatakse ja ta "sureb" peale seda kui tema väärtus sätitakse nulliks või "else going out of scope". Peale seda vabastatakse see osa mälust ja seda saavad kasutada teised objektid. Need tuleb luua nii hilja kui võimalik, sest see säästab mälu kasutust ja nii ei teki ohtu, et see säilib kaua. Peale seda kui objektiga on toimetused tehtud, pole meil seda enam vaja ning see tuleks "ära visata" ehk väärtus võrtsustada nulliga. Nii teab Garbage Collector, et seda objekti enam ei vajata ning saab selle varakult ära koristada.
http://msdn.microsoft.com/en-us/library/ff647790.aspx#scalenetchapt05_topic5  
Mälu puhastatakse siis kui vaja ja korjatakse ära see, mida ei kasutata.  Kogu mälu jagatakse neljaks generatsiooniks. Kõik värsked objektid saavad mälu 0 generatsioonis, kui see saab täis, siis tuleb GC neid koristama. Kõik need objektid, mis sellele ajal ei osutu prügiks, tõstetakse esimesse generatsiooni, kuna on vajalikud. Kui 0 generatsioonis ei ole midagi kustutada, liigutakse esimesele tasemele. Finalizerite loomine objektidele on väga ebasoovitatav, kuna nad jäävad GC töö käigus ellu. Nad tõstetakse Finalizer qeuesse. Allas järgmisel prügikoristamisel jõutakse neile. Jäävad ette alles siis kui, hakatakse puhastama järgmisesse. GC.SupressFinalizer(kas on nii põhjalikult vaja). IDisposable on eelistatav. Eelistatav konstruktsioon on "using", mis hoolitseb selle eest, et selle sees tehtud objekt kustutakse peale selle lõppu.
Kui luuakse uus objekt, siis peale ''new'' väljakutsumist eraldatakse sellele mälu. Objekti kasutatakse ja ta "sureb" peale seda, kui tema väärtus sätitakse nulliks või enam ei kasutata. See järel vabastatakse objekti poolt kasutatud osa mälust ja seda saavad tarbida teised objektid. Need tuleb luua alati nii hilja kui võimalik, sest nii säästetakse mälu kasutuamist ja nii ei teki ohtu, et see säilib kaua. Peale seda kui objektiga on toimetused tehtud, pole seda enam vaja ning see tuleks "ära visata" ehk väärtus võrtsustada nulliga. Nii teab ''Garbage Collector'', et seda objekti enam ei vajata ning saab selle varakult ära koristada.
Tee pikaajalised objektid kõige pealt. Generatsioon 2's.  
Kogu mälu jagatakse neljaks generatsiooniks. Kõik värsked objektid asuvad mälu nullindas generatsioonis. selle täitumisel kutsutakse välja ''Garbage Collector'', mis hakkab seda koristama. Kõik objektid, mis sellele ajal ei osutu prügiks(need, mida veel kasutatake), tõstetakse esimesse generatsiooni, kuna nad on vajalikud. Kui nullindas generatsioonis ei ole midagi kustutada, liigutakse esimesele tasemele.  
''Finalizer''ite loomine objektidele on väga ebasoovitatav, kuna nad jäävad prügi koristamise käigus ellu. Nad tõstetakse ''Finalizer qeuesse'' ja nendeni jõutakse alles järgmisel prügikorstamisel.
Eelistatav konstruktsioon on "using", mis hoolitseb selle eest, et selle sees tehtud objekt kustutakse peale selle lõppu.
http://msdn.microsoft.com/en-us/library/ff647790.aspx#scalenetchapt05_topic5
http://msdn.microsoft.com/en-us/library/ff647790.aspx#scalenetchapt05_topic5


=Leitud võimaluste rakendamine=
=Leitud võimaluste rakendamine=
Leitud võimaluste rakendamine
Töö praktilises osas tegeleb autor leitud optimeerimisvõimaluste rakendamisega ja tulemuste analüüsimisega. Läbiviidavad muudatused puudutavad eelkõige ERR'i teise põlvkonna .NET portaale news.err.ee ja rus.err.ee
Töö praktilises osas tegelen leitud optimeerimisvõimaluste rakendamisega ja tulemuste analüüsimisega. Läbiviidavad muudatused puudutavad eelkõige ERR'i teise põlvkonna .Net portaale. ASP.Net optimeerimisvõimalusi kasutan lehtedele news.err.ee ja rus.err.ee. News'i valiku põhjuseks on asjaolu, et selle baasil on loodud ka mitmeid teisi portaale ehk leitud võimalusi saab lihtsalt neile üle kanda. Rus pidid algselt olema väike uudisteportaal, millest on praeguseks välja kasvanud meie üks suurima sisuga ERR .NET lehti. Lisaks on varem esinenud suurte koormuste puhul sellel portaalil märgatavaid jõudlusprobleeme. Prioriteediks on mõlema portaali puhul tegeleda esilehega, kuna need on võrreldes muude alamlehtedega sisuga kõige mahukamad. Lisaks korduvad mitmed esilehe komponendid alamlehtedel.
 
   
Testimiseks luuakse virtuaalmasin, mis on antud lahenduste testkeskkonnaks. Serverina kasutatakse Windows Server 2008 R2 Standard ning andmebaasimootoriks on SQL Server 2008 R2 väljannet. Lisaks paigaldatakse ka Visual Studio 2010 Ultimate, millega saab veebirakenduses läbi viia muutusi erinevate testide jaoks. Koormuse simuleerimiseks veebirakendusele kasutatakse ''Apache WampServerit''. Iga koormustest kestab 400 sekundit. Selle käigus jälgitakse, kui palju päringuid suudab server keskmiselt sekundis teeninda ning kui palju võtab aega ühe päringu täitmine. Samuti pööratakse tähelepanu SQL Serveri ja IIS'i protsessori ressursikasutusele  testide ajal. Andmebaasiks on kasutusel oleva andmebaasi koopia ja rakendused on testmise alsutamise hetkel ka reaalselt kasutusel.
Kõigepealt on plaanis uurida, milliseid päringuid on andmebaasis seni täidetud kõige rohkem ja kui kaua aega need võtavad. See info võetakse live'i andmebaasist. Esialgseks analüüsiks kasutatakse kasutusel oleva andmebaasi koopiat. Mahukamate päringute puhul analüüsin nende läbiviimist, proovin leida "pudelikaela" ja rakendada mõnda leitud optimeerimisvõimalustest. See võib endaga kaasa tuua muudatusi andmebaasis või koodi poolel, sõltuvalt sellest, kus see päring asub.
 
Põhjalikult uuritakse erinevate optimeerimisvõimaluste kasutamist portaalis rus.err.ee, kuna viimasega on esinenud suurte koormuste korral kõige rohkem jõudlusprobleeme. Esmajärjekorras rakendatakse ASP.Net tehnoloogiast tulenevaid optimeerimisvõimalusi. Võrreldakse milline on mõju jõudlusele väljundpuhvri ja puhvri programmeerimisliidese kasutamise korral ning kumba neist tuleks eelistada. Nende testimiste käigus tehakse andmebaasile päringuid, mida analüüsitakse hiljem. Vaadeldakse neist enimtehtavaid ning analüüsitakse, kuidas saaks neid parandada.
 
Sellele järgneb eelnevate testide tulemuste analüüs ning vastavalt nendele teostatakse portaali optimeerimine. Tähelepanu pööratakse esilehele ja kategooriavaadele, kuna need on ERR portaalide kõige mahukamad osad ning mitmed neil asuvad komponendid korduvad ka teistel lehtedel. Samuti vaadatakse üle kas .NET enda vahenditest tulenevaid optimeermise võimalused ning vajadusel püütakse neid rakendada. Lähtudes rus.err.ee portaali optimeerimisel tehtud järeldustest, on neid võimalik rakendada ka teistes Eesti Rahvusringhäälingu portaalides, mis kasutavad teise põlvkonna administreerimisliidest. Töö lõpus võrreldakse olemasoleva lahenduse ja töö käigus optimeeritud lahenduste jõudlust.
 
Antud diplomitöö käigus teostab autor muudatusi kindlasti veebirakenduses, vajadusel ka andmebaasis.
 
 
==Esileht ilma optimeerimata==
Kõige esimesena testitakse rakendust ilma väljundpuhvrit ja puhvri programmeerimisliidese kasutamiseta. See tähendab seda, et iga lehe uuesti laadimine põhjustab uued päringud andmebaasi ja terve lehe töötsükli läbimist. Esilehe puhul  Tulemused on näidatud allolevas tabelis.
 
<table border="1">
  <tr><td>Testi pikkus</td>                                <td>403.2 sekundit</td></tr>
  <tr><td>Päringuid lehele</td>                              <td>72 </td></tr>
  <tr><td>Sekundis täidetud päringute arv</td>              <td>0.18 </td></tr>
  <tr><td>Keskmiselt ühe päringu täitmiseks kulunud aeg</td><td>5,642 sekundit</td></tr>
<table>
 
Kuna andmeid ei hoita puhvris, siis on nii andmebaasile kui ka veebiserverile pidevalt suur koormus, nagu on näha ka allolevatelt joonistelt. Selle tõttu tekib päringu täitmisel järjekord ning need võtavad kauem aega. Joonisel on näha, et hetkel kui SQL serverile on suur koormus, siis veebirakendusel on see väiksem ja vastupidi. Sellise olukorra ajutise kaotamise jaoks tuleks kasutada väljundpuhvrit või selle programmeerimiseliidest. Järgmises peatükis uuritakse nende mõju jõudlusele täpsemalt.<br />
 
IIS:<br />
[[File:IIS_test_1.jpg]]
<br/>
SQL Server: <br/>
[[File:SQLServer_test_1.jpg]]
<br/>
 
==Väljundipuhver ja puhverdamisliidese võrdlus==
Lähtuvalt erinevatest optimeerimisvõimalustest, siis võib väita, et kasutades puhvrit on võimalik koormust andmebaasile ja veebiserverile võimalik vähendada, kuna andmeid ei pea pärima ja töötlema enam nii tihti. Nii saab jõudlusprobleemide esinemise korral vähendada neid kasutades puhvrit. Viimast on olemas kahte liiki: puhverdamisliides ja väljundipuhver. Autor viib testib neist mõlemat. Selle eesmärk on selgitada välja kui suur ressursikasutuse vahe esineb nende kasutamisel ning kumba neist peaks eelistama.
 
Antud lähtetingimused testi läbiviimisel: test kestab 400 sekundit või kuni 50 000 päringu täitmiseni. Testitavaks leheks on rubriigivaade, kus kuvatakse antud kategooria viitekümmet viimast uudist. Selle läbiviimise ajaks eemaldatakse lehelt teised komponendid. Puhvri pikkuseks on mõlema variandi puhul 40 sekundit.
 
Lähtuvalt peatükist "x.x", kus tuvustati ASP.NET veebirakenduse töötsüklit, peaks olema väljundpuhvri kasutamine kiirem, kuna lehe töötsükli täitmine lõpetatakse juba Algus faasis, kui serveris on leht olemas.  Puhverdamisliidese puhul aga kontrollitakse alati, kas puhvris on soovitud andmed olemas ja see järel leiab aset DataBind, kus andmed salvestatakse komponenti.
 
<table border="1">
<th></th>                                            <th>Väljundipuhver</th>      <th>Puhverdamisliides</th>
  <tr><td>Testi pikkus</td>                                <td>158.18 sekundit</td> <td>402.85 </td></tr>
  <tr><td>Päringuid lehele</td>                              <td>50 000  </td>      <td> 45522</td></tr>
  <tr><td>Sekundis täidetud päringute arv</td>              <td>316.1 </td>        <td> 113</td></tr>
  <tr><td>Keskmiselt ühe päringu täitmiseks kulunud aeg</td><td>3.1ms sekundit</td>  <td>8.8ms </td></tr>
</table>
 
Antud testi tulemuste põhjal võib järeldada, et võimalusel peaks eelistama alati väljundpuhvri kasutamist, kuna selle kasutamine annab üle kahekordse kiirusevõidu.
 
==Esileht väljundipuhvris==
Lähtuvalt eelmises peatükis saadud informatsioonist, lisatakse esileht väljundpuhvrisse 40 sekundiks. Võrreldes eelneva testiga, kus puhverdamist ei kasutatud üldse, on tulemuste paranemise arv märgatav. Samas märgib autor, et sellise lahenduse kasutamine pole kindlasti aktsepteeritav. Nagu graafikutelt  on näha, siis puhvri tühjaks saamisel andmete uuesti pärimine toob endaga kaasa nii veebi- kui andmebaasiserveris väga järsu ressursikasutuse kasvu. Arvestades asjaolu, et ERRis on ühel serveril veel mitu teist portaali, tuleks sellist situatsiooni vältida, kuna erinevate portaalide puhvrid võivad tühjaks saada samal ajal. See põhjustab kordades suurema koormuse, kui ühe portaali puhul. Võimalikult hea tulemuse saamiseks tuleks kasutada osalist väljundpuhvrisse lisamist, kus komponentidele antakse ette erinev aegumisaeg. See peaks tagama autori arvates lehele ühtalsema koormuse jaotamise. Seetõttu ei ole soovitatav kasutada ka ''SQLCacheDependencyt'' komponentides, mille uuendus sõltub sama andmetabeli muudatustest. Muidu tekib sarnane situatsioon nagu antud testis:Hetkel kui jälgitavas tabelis toimub muutus, tühjenevad kõik puhvrid kõikidel komponentidel, mis seda kasutavad. Antud organisatsiooni puhul on see eriti aktuaalne, kuna samu andmebaasitabeleid kasutavad 8 erinevat portaali.
 
Samuti ei saa kasutada väljundpuhvrit kohtades, kus toimub lehele tagasipostitus või toimub andmete täitmine näiteks ruutingu tingimusest lähtuvalt, sest lehe töötsükkel lõpetatakse juba algusfaasis, mis välistab edasise andmete töötlemise. Viimased komponendid on Eesti Rahvusringhäälingu portaalides näiteks kommenteerimisvormid, küsitlus ning "Samal teemal" kast.
 
 
<table border="1">
  <tr><td>Testi pikkus</td>                                <td>301.62 sekundit</td></tr>
  <tr><td>Päringuid lehele</td>                              <td>50 000  </td></tr>
  <tr><td>Sekundis täidetud päringute arv</td>              <td>165,77 </td></tr>
  <tr><td>Keskmiselt ühe päringu täitmiseks kulunud aeg</td><td>0.6 sekundit</td></tr>
<table>
 
IIS:<br/>
[[File:IIS_test2.png]]
<br/>
SQL Server: <br/>
[[File:Sqlserver_test2.png]]
 
==Andmete sidumine==
Nagu autor ka eelpool välja tõi, ei saa kasutada väljundipuhverdamist Eesti Rahvusringhäälingu portaalis mitmel komponendil. Üheks selliseks on ka kategooriavaade, mille sisu täidetakse vastavalt ruutingu esimes kohal asuvale väärtusele. See ütleb, millise rubriigiga on hetkel tegu. Selleks, et neid andmeid mälus hoida, tuleks kasutatada puhverdamisliidest, kuhu lisatakse andmetabel, milles kuvatavad väljad asuvad.
Väljakuvamiseks kasutatakse hetkel listivaadet ja Eval operaatorit. Peatükkide 4.3 ja 4.4 põhjal väita, et hetkel on tegemist on ebaoptimaalse ressursikasutusega. Listivaade genereerib lehele ohtralt viewstate'i ja selle funktsionaalsust antud lahenduse puhul tegelikult vaja ei lähe. ''Eval'' operaatori kasutamine on samuti kulukas lähtudes leitud materjalidest.
 
See tõttu asendatakse listivaade kordajaga ''(repeater)'' ning ''Eval("väljanimi")'' operaatori asemel kasutatakse ((System.((System.Data.DataRowView)Container.DataItem)["väljanimi"] varianti. Kasutatakse 40 sekundilist puhverdamist.
 
<table border="1">
<th></th>                                                  <th>Uus versioon</th>        <th>Vana versioon</th>
  <tr><td>Testi pikkus</td>                                <td>394.229 sekundit</td>    <td>402.85 </td></tr>
  <tr><td>Päringuid kokku</td>                              <td>50 000  </td>            <td> 45522</td></tr>
  <tr><td>Sekundis täidetud päringute arv</td>              <td>126.83 </td>            <td> 113</td></tr>
  <tr><td>Keskmiselt ühe päringu täitmiseks kulunud aeg</td><td>7.885msms sekundit</td>  <td>8.8ms </td></tr>
</table>
 
Lähtudes mõõtmistulemustest tuleb tõdeda, et optimaalsem on kasutada materjalidest leitud võimalusi ning neid tuleks rakendada ka mujal.
 
==Andmebaasipäringute optimeerimine==
Peale andmebaasipäringute analüüsimist selgus, et praeguse lahenduse korral pole kohati indekseerimisest eriti kasu. Tehtavad päringud võtavad tihti rohkem infot kaasa kui vaja, kuna valitakse kõik veerud. Samuti tehakse kõiki neid päringuid rakenduses ning mitmes osas. Otsitakse üles uudised, nende kategooriad, siis tekst ja nii edasi. Anmdebaasiühendusi avatakse ja suletakse tihti, mis on aega võttev protsess. Autor leiab, et arvestades antud situatsiooni, tuleks luua andmebaasi protseduur, mis tagataks soovitud väärtused. Nii on päringuid lihtsam hallata. Loodav lahendus peaks olema piisavalt paindlik, et seda saaks kasutada ka teistes portaalides.


ASP.Net optimeerisvõimalustest proovitakse esmasjärjekorras Cache'imist, kuna sellega on võimalik vähendada pöörumisi andmebaasi poole ja seega parandada ka selle jõudlust. See eeldab enne komponentide prioriteetide analüüsi, mille alusel saab otusta, mida saab Cache'ida ja kui kauaks. Lisaks proovitakse vähendada lehel viewstate'i suurust, mis on aktuaalne kui lahendust luuakse näiteks mobiilse saidi jaoks, kuna mobiilistandardite järgi ei tohiks lehed väga suured olla. Samuti tuleb kontrollida, et lehtedel kasutataks ASP.NET enda tööriistu kõige optimaalselt.  
==Läbiviidavad muudatused==
Antud veebirakenduse jõudluse parandamiseks luuakse protseduur, mis oleks võimalikult paindlik, et seda saaks kasutada ka teistes portaalides. Peale selle valmimist tuleb olemasoleva lahenduse koodis viia läbi muudatusi. Hetkel on veatöötlemine lahendatu try catch plokkidega kohtades, kus seda tegelikult vaja ei lähe. Erinevad päringud andmebaasi poolele asendatakse loodava protseduuriga, mis suudab anda tagasi kogu info. Selle arvelt peaks kasvama andmebaasist saadavate päringutele vastuste saamine. Puhverdamisel eelistatakse võimalusel väljundpuhvri kasutamist, kuna see on võrreldes puhverdamisliidesega kiirem ja põhjustab veebiserverile vähem koormust. Nagu joonistel näha oli siis hetkel kui puhvrit hakati uuesti täima, tekkis sellel ajal nii veebiserverile kui ka andmebaasile järsult suur koormus. Kuna Eesti Rahvusringhäälingu puhul on ühes serveris mitu erinevat portaali tuleks sellist olukorda vältida. Selleks pannakse puhvri aegumise ajad erinevad, et jagada koormust ühtlasemalt.


Kõige viimasena proovitakse rakendada .NET raamistiku vahenditest tulenevaid optimeerimisvõimalusi, kuna need ei pruugi anda alati nii suurt võitu võrrledes eelnevatega. Need mõjutavad ainult rakendusekihti, kui eelnevad aga mõlemat. Kontrollitakse veahaldust ja võrdlusi. Lisaks for ja foreachi, kuna tihti soovitatakse kasutada küll for'i, kuid .NET4 versioonis on juba foreach väga optimeeritud ja võib käituda isegi kiiremini. Kuna mõlemal testitaval veebirakendusel on puudulik andmekiht, siis structi ja klassi erinevusi ei saa testida.
=Venekeelsete uudiste portaal=

Latest revision as of 17:14, 4 May 2011

Siin lehel kirjutan oma diplomitööd. Alustan 19.märtsil probleemi kirjeldusega.

Olemasoleva olukorra ja probleemi kirjeldus

Selle peatüki eesmärk on anda lühike ülevaade Eesti Rahvusringhäälingust ja selle portaalidest ning olemasolevast lahendusest.

Eesti Rahvusringhääling

Ilus organisatsiooni skeem
Eesti Rahvusringhäälingu moodustavad kaks tele- ja viis raadioprogrammi, millele lisanduvad juurde veel mitmed uudiste- ja teemaportaalid. Organisatsioon hakkas sellisel kujul tegutsema 1. juunil 2007, kui ühendati Eesti Raadio ja Eesti Televisioon. Viimast esindavad ETV ja ETV2 ning raadiod Vikerraadio, Klassikaraadio, Raadio 2, Raadio 4 ja Raadio Tallinn.

Rahvusringhäälingu kõige olulisem tegevus on sisu tootmine.

Missiooniks on arendada ja hoida Eestit ning selleks kaasatakse inimesi Eesti riigi ellu, innustatakse vaba arutelu, edendatakse loomingulisust ja tegusust. Luuakse teabevõrgustik kõigi Eestiga seotud inimeste vahel kogu maailmas, oma programmides avardatakse Eesti inimeste maailmapilti, haritakse avalikus mõtteruumis osalejaid, väärustatakse inimeste isiklikku elu ja perekonda, kaitstakse eetilisi põhiväärtusi.

Raadio-ja teleprogrammide kõrval mängivad olulist rolli missiooni täitmisel ka Eesti Rahvusringhäälingu internetiportaalid. Näiteks on antud organisatsioon loonud ainsana inglise keelse portaali, mis kajastab Eestit. Samuti tehakse seda ka vene keeles. TNS-i Emor andmetel oli Rahvusringhäälingu portaalide lugejaskond 2010. aasta lõpul enam kui 165 tuhat lugejat nädalas. Eesmärk on olla viie esimese ajakirjanduslikku sisu pakkuva portaali seas.

Samuti on loodud võimalused jälgimaks kõiki tele- ja raadioprogramme otsesaateid üle maailma läbi interneti, et olla Eestis toimuvaga kursis. Praegu tegeletakse sellega, et tuua otsetoodang ka mobiili ja inimesed saaksid programme jälgida sõltumata seadmetest. Internetis saavad oluliseks ka ineteraktiivsed keskkonnad ja sotsiaalvõrgustikud.

Portaalide arendus ERR'is

ERR'is tegeleb portaalide arendusega portaalide arenduse üksus. Ametikult loodi see 1. jaanuar 2011. Praeguse hetkel kuuluvad meeskonda ametlikult 4 arendajat ja veebiarendusjuht. Eelnevalt vastutas arenduse eest üks isik. Kõik uued portaalid luuakse hetkel ASP.NET 4 platvormil, millega paralleelselt toimub vanema ASP.NET generatsiooni portaalide üle toomine uuemale versioonile. Lisaks .NET raamistikku kasutavatele portaalidele on hetkel veel ka PHP lahendusi, millele ei tehta enam väga suuri juurdearendusi.

PHP tehnoloogial portaalid Eesti Rahvusringhäälingus

Alljärgnevas peatükis tutvustatakse erinevaid PHP portaale Eesti Rahvusringhäälingus.

PHP4 tehnoloogial arendatud portaalid

PHP 4 portaalidest on kõige pikema ajalooga etv, mis loodi PHP4 tehnoloogial aastal 2003. Eksisteeris ka varem, kuid selle ajalugu on hetkel teadmata. Sellele järgnes uudisteportaal 2006ndal aastal, mis esialgu kandis nimetust etv24. Ilm loodi aastal 2009.

  • etv.err.ee - ETV kanali portaal, võimalik jälgida tagantjärele saateid ja nende uudiseid.
  • uudised.err.ee - uudiste portaal.
  • ilm.err.ee - ilma portaal.
  • meieoma.ee - lastele mõeldud portaal.

PHP5 tehnoloogial arendatud portaalid

PHP5 portaalidest on kõige pikema ajalooga raadioportaalid. Alates 1995ndast aastast kuni aastani 2000 toimus nende haldamine kasutades staatilist HTML'i. Peale seda võeti kasutusele PHP3 ja aastal 2002 PHP4. 2007ndal aastal valmisid kõik raadioveebid baseerudes PHP5'le, neist viimane portaal - klassikaraadio, valmis sama aasta detsembris.

Kõige uuemad lahendused on pood.err.ee ja teadus, mis valmisid 2010. aasta septembris.

  • pood.err.ee - võimalik osta ERR toodangut.
  • Raadioportaalides on võimalik lugeda nendega seonduvaid uudisedeid, kuulata saateid arhiivist ja ka otse.
    • vikerraadio.err.ee
    • r2.err.ee
    • r4.err.ee
    • raadiotallinn.err.ee
    • klassikaraadio.err.ee
  • teadus.err.ee - teadus- ja haridussaadete portaal.
  • raadioteater.err.ee - võimaldab kuulata vikerraadios esitatud kuuldemänge ja järjejutte.

ASP.NET platvormil portaalide arendus Eesti Rahvusringhäälingus

Miks? Kes?Kus? Kuidas?
2009 aastal lisandus ERR portaalidesse Arendusjuht. Tema ülesandeks oli analüüsida tehnoloogiate ja rakenduste hetkeseisu ning võimalikke lahendusi. Peale esimest poolaastat analüüse langetati otsus kasutada ühtset valmis võimekat veebimootorit ning osta sisse esmane arendus, kuna organisatsioonis puudus vajalik tööjõud. Selle tegevuse tulemusena alustati taotlust Riigihankele läbi Euroopa Struktuurifondide. Tehnoloogiliseks alusstandardiks sai Microsft.NET platvorm tänu vahendite võimekusele ja tööjõudlusele. Kuna hanked on pikk protsess siis alustati esimeste portaalide üleviimist ning uute rakenduste loomist. Kõige esimeseks rakenduseks sai keskportaal (err.ee) ning see hostiti Microlingi avalikus hostingus kuna .net platvormi infrastruktruu on üks osa riigihankest. Alates aastast 2010 omab organisatsioon minimaalset infrastruktuuri .net platvormi teenindamiseks siseselt ning aastal 2011 tarniti riigihanke raames hangitud riist ja tarkvarile platvorm mille lõplik avalik käivitamine toimub kevadel 2012.

ASP.NET 2.0

  • err.ee -Eesti Rahvusringhäälingu keskportaal.
  • om.err.ee - Taliolümpiamänge kajastav portaal.

ASP.NET 4.0

  • news.err.ee - Eestit kajastav ingliskeelne uudiste portaal
  • eestilaul.err.ee - Eesti Laulu ja Eurovisiooni kajastav teemaportaaal
  • otse.err.ee - Portaal, mis võimaldab jälgida ERR'i tele-ja raadiotoodangut reaalajas.
  • valijakompass.err.ee - teemaportaal mis aitas võrrelda inimestel enda seisukohti erakondade omadega.
  • koolifilm.err.ee - koolifilmi konkurssi läbiviimiseks loodud portaal
  • rus.err.ee - Eestit kajastav venekeelne uudisteportaal.
  • retseptid.err.ee - portaal, kuhu lisatakse eetris olnud retsepte.
  • kodanik.err.ee -
  • jalgpall.err.ee - Portaal, mis kajastas jalgpalli MM 2010't
  • ring.err.ee - ERR portaalide registreeritud kasutajate..
  • etv2.err.ee - kajastab ETV2'ga seotud uudiseid/üritusi.

Probleemi kirjeldus

Teise põlvkonna ASP.NET portaalide jaoks loodud lahendus valmis kiirustades, kuna selle valmistamine toimus äärmiselt piiratud ajaraamis ja tööjõudu selle projekti tarvis oli vähe. Seetõttu puudus oodatava süsteemi põhjalik eelanalüüs. Rakenduse loomiseks kasutati töövõtteid, mis kiirendasid küll selle valmimise kiirust, kuid paratamatult kannatas selle all rakenduse kvaliteet (sh jõudlus). Ametlikku kasutuselevõttu eel ei olnud võimalik, tulevenalt ajaraamist, teha süsteemile täielikke jõudlusteste, mis näidanuks selle toimimist suurte koormuste korral. Teise põlvkonna ASP.NET portaalide mootori valmimise hetkel hakati seda lahendust kasutama vaid ühe portaali piires. Hiljem lisandus sellele platvormile täiendavaid portaale ning jõudluse küsimus muutus seepärast aktuaalseks.

Arendusmeeskonda on lisandunud noori programeerijaid, kes ei ole piisavalt teadlikud kuidas tagada korraliku koodikvaliteeti. ASP.NET lahendusi on küll võimalik pealtnäha kiiresti ja kergelt luusa, kuid kasutades valesid tehnoloogiaid ning töövõtteid ja jättes optimaalse ressursikasutuse jälgimise tagataustale, mõjub see rakenduse jõudlusele negatiivselt.

Poole aasta jooksul on lisandunud uusi .NET portaale, milledest enamus kasutab eelpool mainitud lahendust. Viimasel ajal on esinenud suurte koormuste korral märgatavaid jõudlusprobleeme. Üheks põhjuseks on kindlasti asjaolu, et kõiki .NET portaalide haldamiseks on kasutada ainult üks server. Ehk kui üks portaal hakkab kasutama väga palju ressurssi, siis mõjutab see ka teiste veebirakenduste tööd. See on kindlasti hetkel ka üheks turvanõrkuseks - leides ühel leheküljel ressursinõudliku protseduuri, saab seda kasutada kõikide Eesti Rahvusringhäälingu ASP.NET portaalide töö häirimiseks. Halvimal juhul lõpeb see serveri töö seiskumisega. Serveripargi jõudluse parandamiseks on täiendavad investeeringud riistvarasse hetkel välistatud. Kuna organisatsioon tegutseb internetimeedia turul ja laieneb sellel pidevalt, siis häired veebirakenduste töös mõjuvad mainele negatiivselt ning on oht kaotada külastajaid.

Lähiajal on lisandumas antud serverile veel kaks täiesti uut portaali. Lisaks peavad hakkama mõned esimese põlvkonna portaalid kasutama "uut mootorit", üheks neist on sport, millele on oodata suurt külastajatearvu. Arvestades asjaolu, et juba praegu esineb jõudlusprobleeme, tuleb enne parandada olemasoleva lahenduse jõudlust.

Antud peatükis andis autor ülevaate konkreetse organisatsiooni probleemi tekkimise põhjustest, lisaks käsitleb peatükis 2.3 "Optimeerimisest üldiselt" jõudlusprobleemide esinemist laiemalt.
See osa on selgelt liiga lühike Võimalik viide, et probleemi aktuaalsust üldisena käsitleb autor peeatükis see ja see

Metoodika valik ja võimalikud lahendused

Selles peatükis selgitab autor töös kasutatavat metoodikat ning annab ülevaate käsitletava teema valdkonnast üldiselt.

Metoodika

Lahenduse leidmiseks teostab autor teoreetilise uuring kasutatakse olemasolevate materjalide analüüsi ning seejärel koostab olemasolevate rakenduste optimeerimise kava. Lõputöö käigus tutvutakse parimate praktikatega ja valitakse välja neist sobivaimad. Valiku tegemisel hinnatakse sobivust olemasoleva lahendusega. Kui valik on teostatud mõõdetakse praeguse lahenduse töökiirust. Peale seda võetakse kasutusele leitud optimeerimisvõimalused, mida rakendatakse kõigepealt testserveris, millele järgnevad uuesti mõõtmiseid. Võrreldakse saadud tulemusi ja tehakse järeldus.

ASP.NET veebirakenduse põhikomponendid ja töötsükkel

http://msdn.microsoft.com/en-us/library/ms178472.aspx
Tänapäeval kasutab enamus veebirakendusi dünaamilist sisu kuvamist, kuna see teeb lehtede haldamise mugavamaks ja paindlikumaks. Enamasti hoitakse sisu andmetena andmebaasis, mida päritakse sealt, korrastatakse ja kuvatakse see järel kasutajatele. Selle kuvamise lihtsustamiseks on ASP.NET raamistikul mitmeid komponente nagu näiteks ListView, GridView ja ka teisi listidel baseeruvad komponente.

Nende kasutamiseks peab teadma kuidas töötab lehe elutsükkel ja kuidas toimub andmeseondamine (Data Binding)

Komponendi andmeseondamise sündmus leiab aset pärast komponendi PreRender sündmust, mis leiab omakorda aset pärast lehe PreRender sündmust. See märgib protsessi algust, mile käigus hakatakse komponenti andmetega siduam. Seda meetodit saab kasutada manuaalseks andmebaasiühenduse avamiseks.

RowCreated(GridView) või ItemCreated sündmus (teisteö listidel baseeruvat komponentide puhul) täidetakse pärast andmesidumist. Seda saab kasutada manipuleerimiaks sisuga , mida kuvatakse.

RowDataBound(GridView) või ItemDataBound(teistel listidel baseeruvate komponentide puhul) sündmuse käigus on rea või kirje puhul. Võimalik seda vormindada või kuvada sellega seotud andmeid konkreetse rea või kirjega.

DataBound sündmus kutsutakse andmetesidumise lõppedes.....34h ilma magamata...

Etapp Kirjeldus

Lehe pärimine (Page request)

Leiab aset pärast lehe töötsükli algust. Kui seda päritakse, siis ASP.Net teeb kindlaks, kas lehte on vaja parsida ja kompileerida või on puhvris antud lehe versioon juba olemas. Viimase variandi puhul saab selle resveerida ilma töötsüklit jätkamata.

Algus(Start)

Algusfaasis väärtustatakse lehe atribuudid nagu näiteks Request ja Response. Samuti otsustatakse, kas tegemist on tagasipostitusega või uue päringuga. Ükski komponent pole veel kättesaadav.

Intsialieerimine(Initialization)

Selle protsessi käigus loodakse komponendid ja lisatakse lehe komponentide kollektsiooni. Igale ühele neist luuakse unikaalne tunnusUniqueID. See on ainus töötsükli osa kus nägusid või pealhti saab dünaamiliselt muuta. ViewState pole veel taastatud.

Laadimine(Load)

Kui antud protsessi käigus ilmneb, et tegemist on tagasipostitamise, siis laetakse komponentide atribuudid view state' ja control stateist. Selles osas tuleb enamasti küsida andmebaasist andmeid.

Tagasipostituse sündmuse töötlemine(Postback event handling)

Kui tegemist on tagasipostitusega, siis kutsutakse välja kontrollide sündmusetöötlejad (event handler). Peale seda kutsutakse välja Valid meetod mis paneb paika IsValid atribuudi kõikidel kontrollidel ja lehele

Renderdamine(Rendering)

Siin toimub toimub viewstate'i salvestamine lehe ja kõikide komponentide jaoks. Selle protsessi käigus kutsub leht iga kontrolli jaoks välja Render meetodi, mis kirjutab lehe ja iga komponendi HTML'i ja saadab selle väljundisse.

Unload

Meetod kutsutakse esile, kui leht on täielikult renderdatud ja kliendile saadetud. Sel juhu vabanetakse atribuutidest nagu näiteks Response ja Request ning toimub koristus.

Optimeerimisest üldiselt

Tänapäeval on jõudlusprobleemid väga aktuaalsed, kuna IT-lahendused ning nende funktsionaalsute maht kasvab ajas kiiresti ning populaarsete veebirakenduste kasutajate hulk võib ajas eksponentaalselt kasvada. Kui veebirakendused on optimeerimata, siis võib kasutajate hulga lisandumine põhjustada halvimal juhul rakenduse töö katkemise või mitteootuspärase kasutajakogemuse.

Tihti häirivad optimeerimata veebirakenduste tööd jõudlusprobleemid. Viimased kerkivad esile, kui süsteemile kasvab koormus ning tihti on nende tekkimist raske prognoosida. Olukorra iseloomustamiseks võib näite tuua liikluses: kell 4 öösel tööle sõit võtab alati vähem aega, kui seda teha hommikusel tipptunnil, teisalt võib juhtuda, et hommikul kell seitse toimub mõni oluline tähtsündmus ning öösel kell 4 on ootamatult tekkinud ummikud, kuna valgusfoorid ei tööta, aga liikluskoormus on suur. Nii võib juhtuda, et veebirakeendusel, kus tavapäraselt on paartuhat külastajat päevas, kasvab ühel päeval kasutajate hulk kümnetes kordades, kuna rakendusele tegi reklaami mõni meeldiakanal või populaarne sotsiaalmeedia kasutaja.

Sellised näited on EERi kogemuses näiteks otse.err.ee portaalis, kus mõne aktuaalse sündmuse ajal võib kasvada kasutajate hulk järsult kümnetes kordades. Varasemalt on seda juhtunud eurovisiooni ja spordiülekannete puhul, mille tulemusena käitus leht mitteootuspäraselt.

Parem kirjuta vormis: selle vältimiseks saab kasutada...
Sellise olukorra vältimiseks on alati kõige lihtsam juurde soetada riistvara, mis annab omakorda juurde rohkem jõudlust. See on õigustatud ainult juhul, kui on kindlaks tehtud, et süsteem on juba optimeeritud ja olemasolevate vahenditega pole seda enam võimalik parandada. Vastasel juhul on tegemist probleemi ajutise peitmisega, mitte lahendamisega. Lisaks kulutatakse nii ebaotstarbekalt rahalisi vahendeid. Seega tuleks alati alustada probleemi lahendamist olemasoleva lahenduse analüüsiga ja võimaluse korral optimeerimisega.

Süsteemi tuleb alati vaadata kui tervikut. Näiteks veebileht ei koosne ainult koodist, mis kirjutab välja vajalikke asju. Seda infot tuleb käia kuskilt pärimas - andmebaasist. Lehe reserveerimise eest vastutab aga server. Ükskõik millise eelpool mainitud osa halvasti töötamine mõjutab teisi. Parandades ühte osa, paraneb enamasti ka üldine jõudlus, kuid maksimaalse kasutegerui saavutamiseks tuleb vaadata rakenduse kõiki osasid. Edukalt probleemide lahendamisel võib nii vältida täiendava riistvara soetamist ja tagada parema süsteemi töökindluse.

Enne optimeerimise alustamist tuleks veenduda, et plaanitav muudatus on vajalik ning see toob kaasa endaga jõudlusekasvu. Näiteks, kui kulutada kaks päeva andmebaasipäringu optimeerimiseks, mida tehakse kord aastas ja sellega võidetakse paar millisekundit, siis tegelikkuses on kaotatud 2 väärtuslikku tundi. Lisaks tasub jälgida, milliseid muudatusi toob tehtva muudatus kaasa olemasolevas lahenduses, kuna muutus, mis muudab koodi loetamatuks ja selle silumise raskeks ei pruugi olla alati õigustatud.

Antud lõputöö raames vaatleeb autor eelkõige enimkasutatavaid ja suuremat jõudlusvõitu tagavaid võtteid ASP.NET veebirakenduse optimeerimiseks ning seda, kuidas neid olemasolevates ja ka uutes ERRi portaalimootorites rakendada. Tuuakse välja ka võimalused, kuidas mõõta erinevate rakenduse osade töötamiskiirust, millele tuleks selle juures tähelepanu pöörata ja milliseid muudatusi see endaga kaasa toob. Lisaks luuakse dokument, mida saab kasutada uute loodavate lahenduste varajaseks optimeerimiseks tulevikuks. Eeludseks on, et tegemist on .NET 4 raamistikuga ja andmebaasina kasutatakse SQL Server 2008 väljaannet, kuna need on antud töö aluseks.

Andmebaasi optimeerimine

Siia pigem jutt, miks on andmebaaside optimeerimine rakenduse optimeerimise seisukohast oluline
Mõiste "Andmebaas" defineerib wikipedia järgnevalt:"Andmebaas on korrastatud infokogum." http://et.wikipedia.org/wiki/Andmebaas Sellest vajaliku osa näitamise eest lõppkasutajale vastutab enamasti rakendus, mis pärib seda andmebaasist. Järelikult võib väita, et sellise rakenduse töö sõltub lisaks muule ka andmebaasist. See tõttu on viimase kiire ja optimaalne töötamine prioriteetne, kuna aeglane andmete leidmine ei mõjuta ainult andmebaasi enda tööd, vaid ka rakendust. Kui andmebaasi päringute täitmine võtab palju aega, peab rakendus ootama vajalike andmete järel, enne kui saab oma tööd jätkata.

Antud peatüki eesmärgiks on kirjeldada võimalusi andmebaasi optimaalse töö tagamiseks. Lisaks peab autor vajalikuks kirjutada ka selle loomisest, kuna materjalide analüüsist selgus, et andmebaasi jõudluse tagamisel mängib väga suurt rolli ka selle disain. Halva arhitektuuriga andmebaaasi on väga keeruline optimeerida.


Microsoft SQL Server 2008 andmebaasimootori väljaanded ja nende funktsionaalsuste erinevus

Microsoft SQL Server 2008 on 6 erinevat väljaannet: Express, Workgroup, Web. Standard, Enterprise ja Datacenter. Antud nimekirja järjestus baseerub litsentside hinnal, milles kõige esimene on Express versioon. See on tasuta ja kõige väiksema funktsionaalsuse ning võimalustega. Töö käigus kasutas diplomitöö autor Standard väljaannet. Selle peatüki eesmärgiks on lühidalt võrrelda ja kirjeldada erinevate väljaannete funktsionaalsust lähtuvalt jõudlusest.

Tabelite ja indeksite partitsioneerimine (Table and index partitioning) - võimaldab tabelid ja indeksid jagada väiksemateks osadeks. See on kasulik suure hulga andmete puhul, sest sellest väiksema osa läbi vaatamine võtab vähem aega ja ressurssi. SQL Server 2008 Bible 1428

Indekseeritud vaated (Indexed views) - Tavalised vaated on virtuaalsed tabelid, mis luuakse alati iga päringu ajal uuesti. Indekseeritud vaadete puhul aga hoitakse selle päringu tulemusi andmebaasis tabelina. Lisaks sellel suudab päringuoptimeerija(query optimizer) vajadusel loodud vaadet kasutada päringute täitmiseks ilma, et seda peaks FROM klauslis eraldi kirjeldama.
http://msdn.microsoft.com/en-us/library/ms187864.aspx

Andmete tihendamine(Data Compression)- võimaldab tihendada tervet kuhja(heap), klasterdatud indeksit, klasterdamata indeksit, indekseeritud vaadet ja üksikut tabelit või indeksi partitsiooni. Näiteks mahub seetõttu lehtedele rohkem ridu ja kirjete läbi vaatamine toimub kiiremini. Peab arvestama, et kõik andmed ei kompresseeru hästi ja lisaks mõjutab see protsessori jõudlust. (SQL Server 2008 Bibile lk 1416)

Ressursi haldur (Resource governor) - tööriist, mille abil saab määrata erinevatele päringutele ressursipiirangud ja limiidid. Kasulik olukorras, kus suur ja väikeseprioriteediga päring, kasutab palju ressurssi. Viimasele saab määrata maksimaalse protsessori kasutuse piiri. Nii võtab selle päringu täitmine küll rohkem aega, kuid kasutab vähem ressurse. http://msdn.microsoft.com/en-us/library/bb895232.aspx

Parallel index operations - vähendab aega, mis kulub indeksite loomiseks ja ülesehitamiseks kasutades mitme protsessori tuge. http://msdn.microsoft.com/en-us/library/ms191292.aspx

Parallel consistency checks (DBCC) - võimaldab andmebaasi käsurea päringuid täita paralleelselt ja seega kiiremini.

Enhanced read-ahead scan - ei saa aru. http://msdn.microsoft.com/en-us/library/ms191475.aspx

- ExpressWorkgroupWeb StandardEnterpriseDatacenter
Protsessorite arv 1 2 4 4 8 Operatsioon süsteemi maksimum
Maksimaalne mälukasutus 1GB 4GB 64GB 64GB 2TB Operatsioon süsteemi maksimum
Maksimaalne andmebaasi suurus 10GB 524PB 524PB524PBB 524PB 524PB
Tabelite ja indeksite partitsioneerimine Ei Ei Ei Ei Jah Jah
Indekseeritud vaated Ei Ei Ei Ei Jah Jah
Andmete tihendamine Ei Ei Ei Ei Jah Jah
Ressursi haldur Ei Ei Ei Ei Jah Jah
Parallel index operations Ei Ei Ei Ei Jah Jah
Parallel consistency checks (DBCC) Ei Ei Ei Ei Jah Jah
Enhanced read-ahead scan Ei Ei Ei Ei Jah Jah

Andmebaasi loomine

Andmete hoiustamiseks andmebaasis, tuleb see enne luua. Selle protsessi käigus tehtud otsused mõjutavad väga palju tulevikus jõudlust ja ressursikasutust. Algfaasis tehtud valed valikud mõjuvad halvasti nii andmebaasi kui seda kasutavale rakenduse kiirusele. Oluline on andmebaasi loogiline ülesehitus, kuid tähelepanu tuleb pöörata ka kindlasti veergude definitsioonidile, mis tuleb määrata korrektselt ja loogiliselt. Näiteks reaalarvulised väärtused peavad olema reaalarvu tüüpi, tekstina neid hoides raisatakse ressurssi ning andmete lugemisel peab neid üldjuhul kasutamiseks teisendama vajalikku vormingusse. Samuti tuleb veerutüüpide loomisel alati läbi mõelda, kui täpseid andmeid nõutakse. Lihtne näide selle kohta on kuupäevad, mida kasutatakse alati väga palju. Näiteks registreerimaks uue sissekande loomise kuupäeva. Tihti kasutatakse andmebaasis kuupäeva tüübiks automaatselt DateTime, mis võtab ruumi 8 baiti ja täpsuseks kolm millisekundit. Kuid enamasti ei ole selline täpsus vajalik ning väiksema täpsusega andmete hoiustamiseks ja töötlemiseks kulub vähem ressursse. Samas on olukordi, kus väärtuste suur täpsus on kriitiline, kuid kindlasti leidub rohkem situatsioone, kus piisab ka väiksemast täpsusest.

Näiteks uudisteportaalides on uudiste avaldamisajad tihti märgitud ainult kuupäeva koos kellaajaga, mis on minutitäpsusega. Viimase jaoks on sobiv SmallDateTime, mis on minuti täpsusega ja lisaks võtab poole vähem ruumi (4baiti). Lisaks on sellisel juhul olemas vajalikus vormingus kuupäev ning seda ei pea hakkama veebirakenduses andmete väljaküsimusel ümber hakkama vormindama.

Andmebaasi loomisel tuleb säilitada paindlikus. Näiteks tabelis võtab tinyint primaarvõtme väljana 4 korda vähem ruumi võrreldes Int tüüpi veeruga, kuid sellesse tabelisse saab luua see tõttu ka 256 sissekannet.

Samasuguseid näiteid leidub kõigi andmetüüpide kohta. Seega peaks enne tabelite loomist ja veergude tüübi määramist tutvuda konkreetse andmebaasimootori dokumentatsiooniga ja analüüsida, milliseid võimalusi võimalused on olemas. Näitena võib tuua eelpool mainitud kuupäevade tüübi valimise, kuna SmallDateTime on saadaval alates SQL Server 2008 versioonist.

Kordumatute väärtustega väljad andmebaasides

Andmebaasi loomisel tuleb otsustada, millist tüüpi on primaarvõtme veerud. Tihti on nendeks INT või uniqueidentifier. Esimene neist esindab täisarvulisi arve ja teise puhul on tegemist kordumatute väärtustega, mis on 16 baidised globaalsed identifikaatorid (GUID- Global Unique IDentifier). Need esitatakse kujul xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx, kus iga x tähistab üht tähte või arvu kuueteistkümnendsüsteemist.
Siia selgitus, milleks sellised väljad andmebaasides üldse kasutusel on ning mis on INT ja mis GUID

Arvestades kui palju kordumatu väärtusega identifikaator ruumi võtab, võrreldes täisarvuga, võib selle kasutamine tunduda ebaratsionaalne. Siiski on sellel täisarvu ees ka mõned eelised.Näiteks on see alati unikaalne, kuid täisarv on unikaalne ainult ühes tabelis. Samuti on selle kasutamisega välistatud võimalus, et relatsioonilises andmebaasis viiakse omavahel kokku tabelite veerud, mis tegelikult ei ole seotud. Lisaks ei saa GUID kunagi otsa, kuid täisarvulise tüübi kõige suurem väärtus on 9 223 372 036 854 775 807, kui tegemist on bigint 'iga ja sellel juhul võtab see ruumi 8 baiti. [1]

Üheks kordumatu väärtusega välja puuduseks on see, et selle kasutamine võib vähendada klasterdatud indeksiga saavutatud jõudlusevõitu, kui selle genereerimine toimub väljaspool andmebaasi. Iga uus sissekanne nõuab indeksite uuendamist ja seetõttu võib selle kasutamine kutsuda esile indeksi lehtede poolitusprobleeme ja nende fragmenteerumist, kuna loodud võtme väärtus ei pruugi olla viimane ja sellele tuleb leida õige koht. See nõuab aga kõigi seniste võtmete uuesti sorteerimist. Alates SQL Server 2005 versioonist saab selle vältimiseks kasutada funktsiooni NewsequentialID(), mis tagab, et iga järgmine globaalne identifikaator on eelmisest suurem. Seega ei tule uus sissekanne mitte indeksite lehe keskele, vaid läheb alati viimaseks. Tuleb arvestada ka asjaoluga, et kuna see kasutab rohkem mälu, siis tekib indekseerimisel rohkem lehti ja nende uuendamine on kulukam kui täisarvulise tüübi puhul.

Päringute analüüs

Kirjete lisandumisel andmebaasi kasvab selle suurus ja ka päringute täitmiseks hakkab kuluma rohkem aega. Mingil ajahetkel võib tekkida situatsioon, kui andmete leidmiseks kulub liiga palju aega. See on aga selge märk sellest, et tehtavaid päringuid tuleks analüüsida ja seejärel optimeerida.

Alljärgnev päring aitab otsustada, millised päringuid andmebaasis võivad vajada optimeerimist.

-- alljärgneva päringuga saad lugeda protseduur cache'i sisu
-- saadav tabel sisaldab küllalt infot otsustamaks, millised protseduurid või päringud kulutavad serverit

SELECT sql.text, qs.EXECUTION_COUNT, qs.*, p.* 
FROM sys.dm_exec_query_stats AS qs 
CROSS APPLY sys.dm_exec_sql_text(sql_handle) sql
CROSS APPLY sys.dm_exec_query_plan(plan_handle) p
WHERE text NOT LIKE '%sql.text%'
ORDER BY 

-- vali ise mis järjekorras sa vastust tahad
--qs.total_worker_time desc  -- kulutatud aja järgi
qs.EXECUTION_COUNT DESC  -- täitmiskordade järgi
--qs.max_elapsed_time DESC  -- maksimaalse kestuse järgi

--vajaduse saad protseduur cache'i puhastada
--CHECKPOINT				--writes dirty pages to disk
--DBCC FREEPROCCACHE		--clears entire plan cache

--NB! Viimases veerus saadud tabelis on XML kujul Query Plan
--Salvesta see laiendiga sqlplan ja ava Management Studios - ja imesta :)
(http://www.sarv.ee/ftp/henn/SQL/Proc%20cache%20statistika.sql)

Selle abil saab sorteerida SQL päringuid kolmel erineval viisil:

  1. täitmiskordade arvu järgi
  2. päringu täitmiseks kokku kulunud aeg
  3. päringu täitmiseks kulunud kõige suurem aeg.

Head kandidaadid on päringud, mida täidetakse kõige sagedamini, sest nende parandamine annab tihti lõppkokkuvõttes suurema võidu. Näiteks, olgu meil kaks päringut,milledest esimest täidetakse päevas kümme ja teist tuhat korda. Optimeerides neist esimest, paraneb kiirus ühe sekundi ja teise puhul saja millisekundi võrra. Kogu ajaline võit ühe päeva kohta on aga tegelikult vastavalt kümme sekundit ja poolteist minutit.

Konkreetse päringu analüüsimiseks saab kasutada SQL Serveri päringu täitmisplaani (Query Execution Plan). See näitab graafiliselt, kui palju mingi päringu täitmine aega võtab ja milliseid operatsioone selle käigus läbi viiakse. Kuvatavat plaani tuleb lugeda paremalt vasakule ja see lihtsustab päringus probleemsete kohtade leidmist.

Päringute optimeerimine

Info saamiseks andmebaasist tehakse päringuid, kus vastavalt seatud tingimustele väljastatakse neile vastavad kirjed. Nende loomisel tuleks jälgida mõningaid lihtsaid võtteid, et vältida üleliigset ressursi raiskamist.

Kirjete pärimisel peab alati kirjeldama, milliseid veerge soovitakse selle tulemusena saada. Näiteks SELECT *(vali kõik veerud) mõjub jõudlusele negatiivselt: kui tabelis on kümme veergu, kuid vaja läheb neist ainult kahte. Sellisel juhul on tegemist ebavajaliku ressursiraiskamisega kahel põhjusel: 1)andmebaas saadab rakendusele rohkem infot kui vaja, 2) muudab indekseerimise keeruliseks.

Tingimuste kirjutamisel tuleks alati küsida seda, mida tahetakse. Mitte vastupidi.

Kõiki päringuid peaks hoidma andmebaasile võimalikult lähedal, kuna nii saadakse neile ka kiirem vastus, sest need asuvad andmetele lähemal võrreldes rakendusega.

Talletatud protseduurid

Talletatud protseduurid on põhimõtteliselt kogum juba varem valmis kirjutatud SQL päringuid, mis on koondatud üheks hallatavaks blokiks. Igat loodud protseduuri kompileeritakse (toimub automaatselt) ühekorra ja peale seda luuakse päringu täitmise plaan, mida hoitakse mälus. Edaspidi võetakse päringu täitmiseks see plaan juba mälust ning seetõttu on ka nende täitmine kiirem. http://www.tech-faq.com/stored-procedure.html + SQL Server Bible(Lk 610)

Kas peaks siia hoopis loetelu tekitama? Nagu punkt1..punkt2.. punkt3
Hästi kirjutatud protseduurid on väga kiired, kuna nad asuvad andmete lähedal. Neid on lihtne testida ja hallata võrreldes veebirakendustes loodud päringutega. Talletatud protseduurid on turvalised, kuna kasutavad parameetreid, mis antakse neile kaasa ja nii kaob SQL injektsiooni oht. Rakenduse loojatel on samuti lihtsam kutsuda välja protseduur, mille sisendiks antakse parameetrid, kui kirjutada seda päringut veebirakenduses. SQL Server Bible (607)

Kasutades protseduure on lihtsam jälgida päringute täitmist ja ajakulu, võrreldes tavalise SQL päringuga, mis tuleb väljaspoolt andmebaasi. Kuna talletatud protseduuri väljakutsumiseks antakse kaasa ainult parameetrid, siis on ka edastatav andmemaht väiksem.

Kirjutades protseduure on hea praktika lülitada COUNT välja kasutades käsku
SET NOCOUNT ON
. Viimasega võib sõltuvalt päringu keerukusest võita kuni 17% selle täitmise kiirusest. Vaikimisi on NOCOUNT välja lülitatud ja seetõttu saadetakse päringu tulemusele kaasa ka alati kirjete arv, mis selle tulemusena leiti. ( SQL Server 2008 Bible ..622 ).

(LK

Lisaks tuleks vältida kursoreid. Kuigi nad on väga paindlikud ja võimaluste rohked, tuleb nende kasutamisel maksta ränka hinda jõudluses. Kui neid kasutatakse protseduurides, siis optimeerimiseks tuleks alustada nende eemaldamisest.
Kas võin tuua näite SQL Server Bible'st?

Indekseerimine

Indekseerimine on nagu raamatu sisukord. Kui soovitakse leida vajalikku infot, vaadatakse eelkõige sisukorda ning leitakse õige koht. Samamoodi käiakse pidevalt andmebaasist infot pärimas. Tabel ilma indeksita on nagu raamat sisukorrata - millegi leidmiseks peab lehitsema läbi terve raamatu, et leida õige koht, mida otsitakse. Loomulikult on see ajaliselt kulukas protsess. Kui andmebaasis on tabelid õigesti indekseeritud toimub otsimine nagu raamatu sisukorrast (kiiresti).

Indekseid on kahte tüüpi - klasterdatud ja klasterdamata. Klasterdatud indekseerimiseks on ideaalsed väljad tabelite primaarvõtmed kahel põhjusel: 1) see väli on alati unikaalne 2) infot otsitakse tihti selle võtme järgi. Vaikimisi luuakse primaarvõtme veerule alati klasterdatud indeks. Selle loomiseks käsitsi tuleb kasutades SQL lauset:

CREATE UNIQUE CLUSTERED INDEX index_id ON TABLE (veeru_nimi)

Tabeliveerg, millele see luuakse, peab olema alati unikaalne.

Mitte klasterdatud indekseerimise puhul ei pea väli olema unikaalne. Luuakse lausega:
 CREATE INDEX voti ON tabeli_nimi(veeru_nimi)
. Sellest on ainult siis kasu, kui me valime ainult konkreetse välja, mis on klasterdamata indeksisse määratud. Kui lisaks sellele on vajalik valida veel välju, tuleks kasutada kaetud indekseerimist ning lisada vajalikud väljad. Selleks tuleb kasutada lauset:
CREATE INDEX v0ti ON tabeli nimi(veerg) include ( tabeli_veerg1, tabeli_veerg2,..).
Sobib eriti veergudele, kus kasutatakse GROUP BY, COUNT(*) päringuid.

Indekseerimiseks ei sobi väljad, mis on väga mahukad. Näiteks nVarchar(200), mis võtab palju ruumi ja indeksite loomine on mahukas protsess.

Indekseerides tabeli veerge ilma analüüsita, võib see mõjuda jõudlusele hoopis negatiivselt, kuna õigete ridade leidmiseks peab ikkagi tegema lisapäringuid. Selle vältimiseks tuleks jälgida päringu täitmise plaani, mis näitab, kuidas päringuid läbi viiakse ja kas loodud indekseid kasutatakse. Nii võib leida kohti, kus need on küll loodud, kuid küsitakse rohkem kirjeid kui indeksiga kaetud on.

Indekseerimisel tuleb arvestada sellega, et nende loomisel peab maksma natuke hinda ka jõudluses. Sellest tulenevalt tuleks kaasata indeksitesse minimaalselt välju. Mida rohkem on välju, seda kulukam on indeksite uuesti arvutamine, mis leiab aset iga DDL käsu puhul. Indeksite tabel koosneb lehtedest ja lisades uue sissekande tuleb lehed uuesti luua. Eriti halvasti mõjub see siis, kui uus sissekanne tuleb indeksi lehtede keskele. Viimane eeldab lehtede uuesti loomist ja nende poolitamist. Seetõttu tuleb hoolikalt kaaluda, kus kasutada rühmitatud indekseid.

Alates SQL Server 2008 versioonist on võimalik kasutada filtreeritud indekseerimist, mis tähendab, et klasterdamata indeksite loomiseks kasutatakse andmetest ainult mingit osa, mis vastab seatud tingimustele. Selle loomiseks on lause:

CREATE INDEX index_id ON tabeli_nimi(tabeli_veerg) WHERE tingimus 
. Vajadusel saab ka siin kasutada kaetud indekseerimist.

Transaktsioonid

http://msdn.microsoft.com/en-us/library/ff647793.aspx#scalenetchapt14%20_topic9 Valesti kirjutatud transaktsioonid mõjuvad andmebaasi tööle negatiivselt. Selle vältimiseks on levinud praktikad: tuleks vältida pikki transaktsioone, kuna nende ajal toimub tabelis lukustamine. Soovitatav on valideerida enne transaktsioone juba rakenduses andmed, et vältida transaktsiooni ajal vigade tekkimist, mis pikedab neid. Lisaks ei tohiks transaktsioone alustada enne, kui kõik vajalikud andmed on olemas, kuna lukustus lõpeb alles siis, kui kõik andmed on saadetud. Halb näide on näiteks see, kui alustada transaktsiooniga, kuid selle edukaks lõppemiseks on vaja veel kasutaja poolt sisendit. Tabel on lukus seni, kuni kasutaja on sisendi andnud.

Ummik(Deadlock)on situatsioon, kus üks transaktsioon ootab teise ja teine esimese taga. Kindlasti tuleks sättida sellele aegumise piir, kuna vaikeseadetes võivadki need üksteise järgi põhimõtteliselt ootama jääda. Samuti tuleks sättida parallelism üheks. SQL Server Bible 1382.

Täistekstiotsing

Tihti on vaja lõppkasutajatele võimaldada info otsimist. Kuna enda otsingusüsteemi loomine on kulukas protsess, siis sobib seda asendama alguses SQL Serveri FullTextSearch funtsionaalsus. Viimast saab kasutada alates Standard väljaandest ning see töötab indekseerimise põhimõttel. Antud lahendus pole mõeldud otseselt otsingumootoriks, kuid see on väga hea jõudlusega ning täidab igati oma põhiülesannet, hoides samal ajal ressursikasutuse madalana. Kindlasti tuleks seda eelistada algelisele otsingule, kus kasutatae LIKE operaatorit, mis on aeglane. Sama lahendus on hetkel kasutusel Eesti Rahvusringhäälingu .NET portaalide otsingusüsteemides ja on ennast igati õigustanud.

Andmebaasi konfigureerimine

Parimate praktikate kohaselt soovitatakse jätta paljudele seadetele vaikimisi väärtused. Nii töötab server kõige optimaalsemalt ning nende muutmisel võib olla effekt jõudlusele hoopis negatiivne.

Startup Manager Kui soovida andmebaasist kätte saada maksimum, siis võib SQL Server Configuration Manager'is lisada Startup Parameters alla parameetri -x, mis võimaldab maksimaalselt jõudlust. Selllel on aga üks väga suur miinus. Nimelt lülitatakse kõik monitoorimisvõimalused selleks välja ja jõudlusprobleemide jälgimine ja otsimine muutub peaaegu võimatuks.

Ühenduste automaatne sulgemine(Auto Close) Ühenduste automaatse sulgumise korral vabastab SQL SERVER kõik selle andmebaasi ressursid, peale viimase aktiivse ühenduse sulgumist (sh päringu täitmise plaanide ja kompileeritud talletatud protsetuuride kustutamist). Vabanenud ressursse saavad kasutada teised andmebaasid. Pealtnäha tundub selline tegevus optimaalne, kuid tegelikult on see kindel viis, kuidas SQL Serveri töö hävitada. Paljud rakendused sulgevad ja avavad ühendusi korduvalt. Uute ühenduste tekkimisel tuleb uuesti laadida, kompileerida protseduurid ja arvutada päringu läbiviimise plaanid. See tõttu peaks ühenduste automaatne sulgemine olema keelatud, mis on ka kõigis SQL Serveri versioonides vaikimisiväärtuseks, välja arvatud SQL Express väljaandes.

Ühenduste automaatset sulgemist saab kontrollida graafiliselt Management Studiost või käsuga:
ALTER DATABASE ANDBEMAASINIMI SET auto_close ON/OFF.

See peaks olema lubatud ainult siis, kui tegemist on andmebaasiga, mis hoiab endas arhiivi ja kasutatakse väga vähe.

Automaatne kahanemine (Auto Shrink) Kui see võimalus on sisselülitatud, siis juhul kui andmebaasil on üle 25% vaba ruumi, toimub andmete ja logifailide kahandamise operatsiooni. See protsess on kulukas ja samas hakkavad need failid hiljem nagunii kasvama. See põhjustab faili fragmenteerumist operatsioonisüsteemi tasandil. Selle saab välja lülitada käsuga:

ALTER DATABASE Andmebaasinimi SET AUTOSHRINK OFF;

SQL Server Bible 2008 lk 920

ASP.NET tehnoloogiast tulenevad optimeerimisvõimalused

Konfiguratsioon

Konfiguratsiooni hoitakse web.config failis. Selle näol on tegemist infoga veebirakenduse seadistuse kohta. Näiteks: andmebaasiga ühenduse loomiseks vajalikud parameetrid või kuidas toimub rakenduse kompileerimine. ASP.NET kasutab selles failis olevat infot, et luua rakenduse ülesehitus.

Kui testkeskkonnas siluda rakendust, peaks kindlasti selles failis parameetri "compilation debug" väärtus olema true. Vigade esinemise korral on sel juhul neid lihtne leida. Rrakenduse live serverisse tõstmisel peab jälgima, et silumine oleks kindlasti välja lülitatud. Vastasel juhul kompileeritakse pidevalt veebirakendust iga lehe laadimise ajal uuesti ja see omakorda kasvatab protsessori ja mälu kasutust. Kõige kindlam viis sellise olukorra vältimiseks on muuta serveris asuvat machine.config faili ja lisada parameeter deployment retail="true". Nii on kindel, et ükski veebiaplikatsioon ei kasuta antud serveris silumist. Ainukeseks miinuseks selle puhul on, et vea ilmnemisel ei kuvata vea täpset asukohta (rea numbrit ja veakirjeldust).


Lisaks tasub web.config faili lisada väljundipuhvri erinevad profiilid. Sellega saab määrata, kui kaua lehte serveri mälus hoitakse. Kui rakendusele on tulemas suur koormus, saab ühest kohast muuta kõikide väljundite kehtivuse pikkust, mis kasutavad konkreetset profiili.

Viewstate

Viewstate'i kasutatakse, et hoida väärtusi ASP.NET tööriistade (controls) objektide kohta. Lehe laadimisel genereerib ASP.NET ühe peidetud välja, mis kannab nime __VIEWSTATE, kus on see info sees. Nii on võimalik antud väärtuseid kasutada ka peale kliendi-serveri vahelist suhtlust, kui toimub tagasipostitamine (postback). Hoides selles suurel hulgal andmeid, kasvab seetõttu ka lehe suurus ning selle laadimise aeg. Arvestama peab ka sellega, et lehe laadimisel tuleb viewstate'is olevaid andmeid serialiseerida ja deseriaaliseerida. Lisaks võib see vähendada mäluhalduse(GC) efektiivsust. Sellepärast tuleb selle kasutamisega olla ettevaatlik ja eemaldada kohtadest, kus seda vaja ei lähe, kuna see mõjub jõudlusele halvasti. Näiteks genereerivad kõige rohkem viewstate'i ASP.net enda tööriistad nagu Listview ja Gridview. Lehel sisalduva viewstate'i hulga analüüsimiseks on hea tööriist ASP.NET ViewState Helper, mis töötab Firefoxi ja Internet Exploreriga. Selle abil on võimalik näha, kui suure osa moodustab kogu lehe suurusest viewstate.

Vaikimisi on see ASP.NET'is igal pool sisse lülitatud. Soovitatav on see välja lülitada kohtades, kus ei toimu serveri poolseid kontrolle ja ei kasutata tagasipostitamist (postback). Seda saab välja lülitada erinevatel tasemetel: serveris (machinge.config), veebirakenduses (web.config), lehel
<%@ Page EnableViewState="false" %>
kui ka ASP.NET tööriistades endas (EnableViewstate=false).

Kui lehel on lubatud viewstate ja toimub tagasipostitus (postback), siis tuleb seda kontrollida kasutades IsPostBack() meetodit. Viimane teeb kindlaks, kas tegemist on tagasipostitamisega (postback). Kui on, siis pole vajadust enam andmeid uuesti pärida, vaid kasutada juba olemasolevaid ja võtta need viewstate'is.

ASP.NET enda tööriistad

Enimkasutatavad tööriistad on tihti GridView, Listview ja Repeater. Neid kasutatakse tihti erinevate vaadete loomiseks. Esimesed kaks neist genereerivad suurel hulgal viewstate'i, sisaldes väga palju funktsionaalsust. Selle tõttu peab alati valima, milliseid tööriistu kasutada. Kui eesmärgiks on tavalise listi loomine (näiteks uudiste), siis peab kindlasti viewstate'i keelama ja kasutama võimalusel Repeater' it, kuna ListView funktsionaalsust tegelikult vaja ei lähe.

Nende kasutamisel tuleks tähelepanu pöörata väärtuste kuvamise viisile. Levinud on selleks kasutada võimalust:
<%#Eval("fieldname")%>
, mis defineerib välja nime, kuskohast väärtust päritakse. Seda on lihtne kasutada, olenemata sellest, kas tegemist on objektide listiga või DataTable'iga. Tegelikult tuleb sel juhul maksta hinda jõudluses, kuna küsitava välja tüüp ei ole tegelikult defineeritud ja selle kindlaks tegemiseks kasutatakse peegeldust (reflection). Nii tuleb 10 rea väärtustamiseks teha Eval operatsiooni tegelikult 20 korda, kuna esialgu pole teada, millist tüüpi andmetega on tegu. Parem variant on viidata kohe klassile, kust otsitav väli pärit on. Nagu näiteks:
<%#((MyClass)Container.DataItem).field1%> <!-----Klass----!> 
<%#((DataRowView)Container.DataItem).field1%>.<!---DataTable---!>

ASP.NEt Site Performance 76 Ainuüksi 10 rea lisamisel võib kiiruse vahe olla enam kui kümnekordne, viimase variandi kasuks mõõdetuna ticksides. Selle kasutamisel peab arvestama, et muutes näiteks klassinime, tuleb muutma seda ka kohas, kus päritakse välja väärtuseid.

ASP.NET genereerib automaatselt HTML'i kõikidele väljadele ID'd, kui need on ka koodis määratud. Näiteks kui kasutada pildikomponenti parameetritega
<asp:Image ID="imgMainItem" runat="server"/>
, siis sõltuvalt selle sügavusest lehtede hierarhias võib peale kompileerimist HTMLi vaadates näha, et antud välja ID'ks on saanud hoopis
id="ctl00_leftColumn_ctl00_Vaikekategooria3_imgMainItem"
. Tegemist üpriski mahuka nimetusega. Kui aga tegelikkuses seda id'd ei vajata, siis peaks jätma selle määramata. Mahuka esilehe puhul on sellega võimalik hoida päris palju ruumi kokku. Kui siiski vajatakse ID'd, võib selle peale kasutamist ära nullida. Nnäiteks:
//....
imgMainItem.Src="pilt.jpg"; 
imgMainItem.ID=null;
//....

Puhver

Andmete talletamine puhvris on üks lihtsamaid viise, kuidas muuta veebirakenduse ja ka andmebaasi tööd kiiremaks. See võimaldab hoida enimkasutatavaid objekte mälus. Sellest andmete kättesaamine on lihtsam ja kiirem, kui selle pärimine pidevalt andmebaasist või kuskilt mujalt. ASP.NETis on kasutusel väljundi puhverdamisliides hoidmaks mälus objekte ning väljundipuhver, kus salvestatakse serveri mällu terve leht. Nende mõlema meetodi kasutamisel peab arvestama, et vajalike andmete/lehtede hoiustamiseks kasutatake serveri mälu. Seetõttu peab läbi mõtlema, milliste andmete talletamine mälus on kriitiline. Seda eriti juhul, kui serveril on mälu vähe. Head kandidaadid puhverdamiseks on lehed/andmed, mida kasutatakse kõige rohkem või mille kätte saamine on väga kulukas protsess. Enamasti on selleks näiteks esileht ja mõned suuremad listid ning otsingutulemused.

Väljundi puhverdamisliides ja väljundipuhver on küll kaks erinevat mõistet, kuid põhimõte on neil siiski sarnane. Mõlemale on võimalik ette anda aeg, kui kaua aega neid serveri mälus hoitakse. Lisaks saab mõlema puhul kasutada SqlCacheDepencyt, mis võimaldab jälgida, kas andmebaasitabelites on muudatusi toimunud. Mälust kustutakse andmed, kui jälgitavas tabelis toimub muudatus.Selle toimimiseks peab andmebaasis lubama tabelitel SqlCacheDependency ja ka web.config failis kajastama seda. Selles saab määrata, kui tihti kontrollitakse, kas andmebaasitabelites on toimunud muudatusi.

http://www.asp.net/data-access/tutorials/using-sql-cache-dependencies-vb http://msdn.microsoft.com/en-us/library/system.web.caching.sqlcachedependency.aspx

Võimalus on kasutada ka mitme tabeli jälgimist. Soovitatav on vaadelda tabeleid, milles ei toimu tihti muudatusi. Vastasel juhul on puhver pidevalt tühi ja andmete saamiseks tuleb siiski päringuid teha. Sellisel juhul tuleks anda ajaline intervall, mille tagant andmeid uuendatakse. http://msdn.microsoft.com/en-us/library/system.web.caching.sqlcachedependency.aspx.

Väljundipuhvri kasutamine on kiirem, kuna selle puhul on lehe töötsükkel lühike. Alguses kontrollitakse, kas leht on serveri mälus olemas ja kui see eksisteerib seal, siis see saadetakse kasutajale. Väjundi puhverdamisliidese puhul aga toimub terve lehe elutsükkel. (See on kirjeldatud peatükis ASP.NET veebirakenduse põhikomponendid ja töötsükkel)

Väljundipuhver

http://msdn.microsoft.com/en-us/library/xadzbzd6.aspx Väljundipuhvri kasutamisel salvestatakse terve dünaamiliselt loodav leht serveri mällu. Peale seda kuvatakse seal olevat lehte. Seda saab kasutada nii terve .aspx lehtede salvestamiseks kui ka usercontrolide puhul. Väljundipuhvri jaoks tuleb lisada järgnev kood lehe ülaossa:

< %@ OutputCache Duration="60" VaryByParam="None" % >

Need kaks parameetrit on alati kohustuslikud. Kestvus(Duration) näitab kui pikka aega lehte serveri mälus hoitakse ja VarByParam parameetriks saab anda päringustringi(d). Lisaks on levinumad parameetrid veel:

  • Shared="true/false" - saab kasutada ainult usercontrollide puhul. Kui true, siis cache'itakse see kõikidel lehtedel.
  • CacheProfile="profiilinimi" - konfigratsuoonfailis asuv väljundpuhvri profiil.
  • SqlDependency ="adnmebaasi/tabeli paar" - defineeritakse andmebaasi /tabeli paarid, mille muutumise korral leht serveri mälust kustutakse. http://msdn.microsoft.com/en-us/library/hdxfb6cy.aspx
  • VarByCustom ="nimi" - võimaldab kasutajal luua endal puhverdamise meetod
  • VarByParam="parameeter" - saab anda ühe või mitu päringustringi väärtust, mille põhjal leht salvestatakse väljundpuhvrisse.

VaryByCustom'i, kasutamiseks tuleb Global.asax failis ülekirjutada GetVarByCstomString meetod: Näiteks:

public override string GetyVarByCustomString(HttpContext context, string custom){
		if(custom=="weekday"){
			return ....
		}else{
			return base.GetVarbyCustomString(context, custom)
		}
	}

ASP.NET ei hooli stringi tegelikust sisust, vaid kontrollib seda, kas vastav stringi väärtusega leht on juba serveri mällu salvestatud. Kui on, siis serveeritakse leht serveri mälust, vastasel juhul lisatakse uus lehe koopia mällu.

Kas selle alumise möla peaks ära kustutama? Tegelikult ei ole üldse hea lahendus ju... Või mis? Olen seda saab kasutanud näiteks feedi cache'imiseks, mille loomine oli väga kulukas ja mida tohivad näha ainult teatud IP aadressitega kliendid. Tavalise OutPutCache'i lisamine on välistatud, kuna kui võõra IP'ga klient tuleb, näeb ta ikkagi feedi sisu, leht on serveri mälus ja outputcache'i puhul lehe eventeid ei käivtata. Teine halb asi, mis võib juhtuda on kui võõra IP'ga klient tuleb siis kui lehte pole veel serveri mälus.Sellel juhul aga läheb terve feed katki, kuna serveri mälllu salvestatakse leht, mis on tühi, kuna sel hetkl käis lehel keelatud IP'ga klient. Lahenduseks oli override'ida GetVarByCustomString meetod ja cache'ida leht IP põhiselt.

Väljundi puhverdamisliides

Cache API puhul ei hoita serveri mälus mitte tervet lehte, vaid soovitud väärtusi, mis lisatakse sinna koodifailis. Näiteks:

Cache.Insert("võti", "väärtus");
. Tihti on selleks list objektidest, DataTable või midagi muud sarnast. Lisamiseks kasutatakse võti/väärtus paari, millele saab lisaks kaasa anda aegumise intervall või sõltuvus andmebaasitabeli muudatustest (SqlCacheDependency).

Võimalikud parameetrid, mida Cache.Insert meetodi sisendiks saab kasutada on:

  • Insert(String, Object) - Lisab objekti mällu.
  • Insert(String, Object, CacheDependency) - Lisatakse objekt mällu ja arvestatakse Dependencyga nii faili kui andmebaasi puhul.
  • Insert(String, Object, CacheDependency, DateTime, TimeSpan) - Lisatakse objekt mällu koos aegumisreeglitega.

http://msdn.microsoft.com/en-us/library/system.web.caching.cache.insert.aspx Selle abil saab vähendada väärtuste pärimiseks tehtavaid päringuid. Enne väljundipuhvrist informatsiooni välja võtmist, tuleb alati kontrollida, kas vastava võtmega on seal üldse midagi olemas, kuna vahepeal kustutakse serveri mälus hoiustatud väärtusi. See leiab aset näiteks juhtudkel, kui serveril on vähe mälu, objekt aegub või muutub dependency.

Kontrollida saab näiteks nii:

if(Cache[key]!=null){

}
http://msdn.microsoft.com/en-us/library/ms178597.aspx

.NET raamistiku vahenditest tulenevad optimeerimisvõimalused

Koodi optimeerimine ei puuduta ainult selle kirjutamist, vaid ka viisi, kuidas seda teha. Juba lihtsamate praktikate järgimine võib tagada rakenduse kiirema töötamise. Tuleks vältida kordusi, kuna see genereerib liiasust ja võtab ilmaasjata mälu. Objektid tuleks initsialiseerida võimalikult hilja:alles siis kui neid kasutatakse. Nende loomine võtab küll vähe aega, kuid nad allutavad endale seniks mälu kuni neid enam ei vajata. Seda teemat puudutab autor peatükis Mäluhaldus.

.NET enda vahendite kasutamine

Erinevate andmetöötlusprotsesside jaoks tuleks eelistada .NET'i enda olemasolevaid meetodeid, kuna need on tihti kõige optimeeritumad. Väikeste andmehulkade puhul ei pruugi ajaline vahe välja paista, kuid mahukamate operatsioonide puhul võib olla see märgatav.

Näiteks väga mahukate stringide liitmisel, tuleks kasutada StringBuilderit ja tema append meetodit.

string s = "TestSona";
string temp="";
for (int i = 0; i < 15000; i++)
            {
               temp += s;
                
            }

Täitmiseks kulus: 0.7213204 sekundit.

StringBuilder sb = new StringBuilder();
string s = "TestSona";
   for (int i = 0; i < 15000; i++)
            {
                sb.Append(s);
               
            }

Täitmiseks kulus: 0.0003441 sekundit.

Samad põhimõtted kehtivad ka teiste operatsioonide kohta nagu näiteks stringide ja kuupäevade võrdlus.

SQL Site Performance lk 79

Veahaldus

Veahaldus on kulukas protsess ja selle valesti kasutamine võib maksta väga valusalt kätte jõudluses. Näitena kasutab autor Guid'i sõelumist (parse). Tegemist võib olla reaalse situtatsiooniga, kus päringustringist saadakse väärtus ja on vaja kontrollida, kas tegemist on õiget tüüpi muutujaga. Selleks on kaks võimalust: kasutada tavalist try-catch veahaldust või meetodit TryParse(). TryParse proovib sisendiks antud parameetrit parsida ja kui see õnnestub, siis tagastab true ja parsitud väärtuse. Kui see toimub edukalt, töötavad mõlemad variandid sama kiiresti. Kui see ei õnnestu, on TryParse tunduvalt kiirem.

for(int i=0; i<5000; i++){
		Guid temp;
                try
                {
                    temp = Guid.Parse("asd-454-as23-a2322-asdasdasd-afgh123");
                }
                catch
                {
                }
	}
	
	for(int i=0; i<5000; i++){
		Guid targetGuid;
		if(!Int32.TryParse("xyz", out asd-454-as23-a2322-asdasdasd-afgh123)){
		}
	}

Tulemus: Esimese variandi jaoks kulus 0.2146621 ticksi, TryParse jaoks 0.0010329 sekundit. Vahe on umbes kahesaja kordne. Lisaks on sellises situatsioonis try-catchi kasutamine väga väär, kuna see on siiski loodud ainult vigade töötlemiseks nagu näiteks andmebaasiühendus eavamine. Kindlasti ei tohiks kasutada seda programmis tingimuste täitmise kontrolliks, sellele tuleks eelistada kontrolle.

Tsüklid

Kasutades foreachi on küll mugav koodi kirjutada, kuid arvestades jõudlust ei ole see kõige parem variant, kuna listi läbikäimiseks kasutatakse enumeraatorit ja see tõttu on see ka kulukas. Sellele tuleks eelistada for tsüklit, mis on optimaalsem. Lisaks tuleks viimast kasutades hoiustada listi pikkus muutujas, et iga iteratsiooni ajal ei peaks seda uuesti arvutama, mis on küll väike, aga siiski ressursi raiskav operatsioon. Samuti ei tohiks küsida välja iga iteratsiooni ajal välja väärtusi, mis on kõik aeg konstantsed, vaid defineerida need enne tsüklit näiteks objektide puhul. ASP.NEt site performance Lk80

Strukt ja klass

Võimalusel tuleks eelistada struktide kasutamist, kuna need annavad juurde jõudlust. Põhjuseks on nende erinevus mälukasutuses. Struktid paiknevad alati pinus(stack), peale meetodi täitmist kustutatakse need kohe ära. Klasside puhul on tegemist 'reference' tüüpi väärtustega, mille jaoks läheb lisaks vaja veel aadressi(tüüpobjektpointerit), sünkroniseerimisblokki(alati olemas), GC vajalikud väljad(bitid) ja alles siis on kirjeldatud väärtused. Näiteks juhul, kui on defineeritud strukt ja objekt, millel mõlemal on ainult üks väli ja see on täisarvu tüüpi, siis objekti puhul võtab üks täisarvu väärtus kolme täisarvu jagu ruumi. Strukt aga ainult ühe. Ka nende meetodite väljakutsumine on erinev, kuna strukt on väärtustüüpi, siis teab kompilaator alati mis tüüpi väljaga on tegemist. Objekti meetodi väljakutsumisel viitab see aga tüübi tabelile. Struktidel on aga ka piirangud, kui neid kasutada ei saa. Nende puhul ei ole pärilust(inheritance) nagu klassidel. Lisaks ei saa seda olemasolevast klassist ega struktist tuletada, küll aga saab implementeerida interface'ist. http://msdn.microsoft.com/en-us/library/aa288471%28v=vs.71%29.aspx + hennu loeng. 00:43 H.Sarv.

Listid

Kollektsioonide kasutamist tuleks alati võimalusel vältida, neile tuleks eelistada massiive, mis on kõige kiiremad. Kui see pole aga võimalik, on soovitatav kasutada Genereerikuid nagu näiteks List või Dictionary. Viimane on eriti kiire kui listist on vaja otsida konkreetseid väärtuseid, kuna tegemist on võti-väärtus paariga. Lisaks saab võtme välja abil välistada duplikaatide esinemist, kuna see peab olema unikaalne. Listi loomisel tuleks anda ette ka selle suurus. Kui seda mitte teha, siis peale seda kui listis saab kohtade arv täis, korrutatakse olemasolev list kahega ja pannakse see Listile uueks pikkuseks. Samuti tuleks sorteeritud listile eelistada List'i, mis sorteeritakse lõpus kasutades Sort meetodit. Vastasel juhul toimub listi sorteerimine kõik aeg, kus sinna lisatakse uus element.

http://msdn.microsoft.com/en-us/library/ms172181%28v=vs.80%29.aspx + hennu loeng. Samas soovitab üldse massiividele üle minna.

Mäluhaldus

http://msdn.microsoft.com/en-us/library/ff647790.aspx#scalenetchapt05_topic5 Kui luuakse uus objekt, siis peale new väljakutsumist eraldatakse sellele mälu. Objekti kasutatakse ja ta "sureb" peale seda, kui tema väärtus sätitakse nulliks või enam ei kasutata. See järel vabastatakse objekti poolt kasutatud osa mälust ja seda saavad tarbida teised objektid. Need tuleb luua alati nii hilja kui võimalik, sest nii säästetakse mälu kasutuamist ja nii ei teki ohtu, et see säilib kaua. Peale seda kui objektiga on toimetused tehtud, pole seda enam vaja ning see tuleks "ära visata" ehk väärtus võrtsustada nulliga. Nii teab Garbage Collector, et seda objekti enam ei vajata ning saab selle varakult ära koristada. Kogu mälu jagatakse neljaks generatsiooniks. Kõik värsked objektid asuvad mälu nullindas generatsioonis. selle täitumisel kutsutakse välja Garbage Collector, mis hakkab seda koristama. Kõik objektid, mis sellele ajal ei osutu prügiks(need, mida veel kasutatake), tõstetakse esimesse generatsiooni, kuna nad on vajalikud. Kui nullindas generatsioonis ei ole midagi kustutada, liigutakse esimesele tasemele. Finalizerite loomine objektidele on väga ebasoovitatav, kuna nad jäävad prügi koristamise käigus ellu. Nad tõstetakse Finalizer qeuesse ja nendeni jõutakse alles järgmisel prügikorstamisel. Eelistatav konstruktsioon on "using", mis hoolitseb selle eest, et selle sees tehtud objekt kustutakse peale selle lõppu. http://msdn.microsoft.com/en-us/library/ff647790.aspx#scalenetchapt05_topic5

Leitud võimaluste rakendamine

Töö praktilises osas tegeleb autor leitud optimeerimisvõimaluste rakendamisega ja tulemuste analüüsimisega. Läbiviidavad muudatused puudutavad eelkõige ERR'i teise põlvkonna .NET portaale news.err.ee ja rus.err.ee

Testimiseks luuakse virtuaalmasin, mis on antud lahenduste testkeskkonnaks. Serverina kasutatakse Windows Server 2008 R2 Standard ning andmebaasimootoriks on SQL Server 2008 R2 väljannet. Lisaks paigaldatakse ka Visual Studio 2010 Ultimate, millega saab veebirakenduses läbi viia muutusi erinevate testide jaoks. Koormuse simuleerimiseks veebirakendusele kasutatakse Apache WampServerit. Iga koormustest kestab 400 sekundit. Selle käigus jälgitakse, kui palju päringuid suudab server keskmiselt sekundis teeninda ning kui palju võtab aega ühe päringu täitmine. Samuti pööratakse tähelepanu SQL Serveri ja IIS'i protsessori ressursikasutusele testide ajal. Andmebaasiks on kasutusel oleva andmebaasi koopia ja rakendused on testmise alsutamise hetkel ka reaalselt kasutusel.

Põhjalikult uuritakse erinevate optimeerimisvõimaluste kasutamist portaalis rus.err.ee, kuna viimasega on esinenud suurte koormuste korral kõige rohkem jõudlusprobleeme. Esmajärjekorras rakendatakse ASP.Net tehnoloogiast tulenevaid optimeerimisvõimalusi. Võrreldakse milline on mõju jõudlusele väljundpuhvri ja puhvri programmeerimisliidese kasutamise korral ning kumba neist tuleks eelistada. Nende testimiste käigus tehakse andmebaasile päringuid, mida analüüsitakse hiljem. Vaadeldakse neist enimtehtavaid ning analüüsitakse, kuidas saaks neid parandada.

Sellele järgneb eelnevate testide tulemuste analüüs ning vastavalt nendele teostatakse portaali optimeerimine. Tähelepanu pööratakse esilehele ja kategooriavaadele, kuna need on ERR portaalide kõige mahukamad osad ning mitmed neil asuvad komponendid korduvad ka teistel lehtedel. Samuti vaadatakse üle kas .NET enda vahenditest tulenevaid optimeermise võimalused ning vajadusel püütakse neid rakendada. Lähtudes rus.err.ee portaali optimeerimisel tehtud järeldustest, on neid võimalik rakendada ka teistes Eesti Rahvusringhäälingu portaalides, mis kasutavad teise põlvkonna administreerimisliidest. Töö lõpus võrreldakse olemasoleva lahenduse ja töö käigus optimeeritud lahenduste jõudlust.

Antud diplomitöö käigus teostab autor muudatusi kindlasti veebirakenduses, vajadusel ka andmebaasis.


Esileht ilma optimeerimata

Kõige esimesena testitakse rakendust ilma väljundpuhvrit ja puhvri programmeerimisliidese kasutamiseta. See tähendab seda, et iga lehe uuesti laadimine põhjustab uued päringud andmebaasi ja terve lehe töötsükli läbimist. Esilehe puhul Tulemused on näidatud allolevas tabelis.

Testi pikkus 403.2 sekundit
Päringuid lehele 72
Sekundis täidetud päringute arv 0.18
Keskmiselt ühe päringu täitmiseks kulunud aeg5,642 sekundit
Kuna andmeid ei hoita puhvris, siis on nii andmebaasile kui ka veebiserverile pidevalt suur koormus, nagu on näha ka allolevatelt joonistelt. Selle tõttu tekib päringu täitmisel järjekord ning need võtavad kauem aega. Joonisel on näha, et hetkel kui SQL serverile on suur koormus, siis veebirakendusel on see väiksem ja vastupidi. Sellise olukorra ajutise kaotamise jaoks tuleks kasutada väljundpuhvrit või selle programmeerimiseliidest. Järgmises peatükis uuritakse nende mõju jõudlusele täpsemalt.
IIS:

SQL Server:

Väljundipuhver ja puhverdamisliidese võrdlus

Lähtuvalt erinevatest optimeerimisvõimalustest, siis võib väita, et kasutades puhvrit on võimalik koormust andmebaasile ja veebiserverile võimalik vähendada, kuna andmeid ei pea pärima ja töötlema enam nii tihti. Nii saab jõudlusprobleemide esinemise korral vähendada neid kasutades puhvrit. Viimast on olemas kahte liiki: puhverdamisliides ja väljundipuhver. Autor viib testib neist mõlemat. Selle eesmärk on selgitada välja kui suur ressursikasutuse vahe esineb nende kasutamisel ning kumba neist peaks eelistama.

Antud lähtetingimused testi läbiviimisel: test kestab 400 sekundit või kuni 50 000 päringu täitmiseni. Testitavaks leheks on rubriigivaade, kus kuvatakse antud kategooria viitekümmet viimast uudist. Selle läbiviimise ajaks eemaldatakse lehelt teised komponendid. Puhvri pikkuseks on mõlema variandi puhul 40 sekundit.

Lähtuvalt peatükist "x.x", kus tuvustati ASP.NET veebirakenduse töötsüklit, peaks olema väljundpuhvri kasutamine kiirem, kuna lehe töötsükli täitmine lõpetatakse juba Algus faasis, kui serveris on leht olemas. Puhverdamisliidese puhul aga kontrollitakse alati, kas puhvris on soovitud andmed olemas ja see järel leiab aset DataBind, kus andmed salvestatakse komponenti.

Väljundipuhver Puhverdamisliides
Testi pikkus 158.18 sekundit 402.85
Päringuid lehele 50 000 45522
Sekundis täidetud päringute arv 316.1 113
Keskmiselt ühe päringu täitmiseks kulunud aeg3.1ms sekundit 8.8ms

Antud testi tulemuste põhjal võib järeldada, et võimalusel peaks eelistama alati väljundpuhvri kasutamist, kuna selle kasutamine annab üle kahekordse kiirusevõidu.

Esileht väljundipuhvris

Lähtuvalt eelmises peatükis saadud informatsioonist, lisatakse esileht väljundpuhvrisse 40 sekundiks. Võrreldes eelneva testiga, kus puhverdamist ei kasutatud üldse, on tulemuste paranemise arv märgatav. Samas märgib autor, et sellise lahenduse kasutamine pole kindlasti aktsepteeritav. Nagu graafikutelt on näha, siis puhvri tühjaks saamisel andmete uuesti pärimine toob endaga kaasa nii veebi- kui andmebaasiserveris väga järsu ressursikasutuse kasvu. Arvestades asjaolu, et ERRis on ühel serveril veel mitu teist portaali, tuleks sellist situatsiooni vältida, kuna erinevate portaalide puhvrid võivad tühjaks saada samal ajal. See põhjustab kordades suurema koormuse, kui ühe portaali puhul. Võimalikult hea tulemuse saamiseks tuleks kasutada osalist väljundpuhvrisse lisamist, kus komponentidele antakse ette erinev aegumisaeg. See peaks tagama autori arvates lehele ühtalsema koormuse jaotamise. Seetõttu ei ole soovitatav kasutada ka SQLCacheDependencyt komponentides, mille uuendus sõltub sama andmetabeli muudatustest. Muidu tekib sarnane situatsioon nagu antud testis:Hetkel kui jälgitavas tabelis toimub muutus, tühjenevad kõik puhvrid kõikidel komponentidel, mis seda kasutavad. Antud organisatsiooni puhul on see eriti aktuaalne, kuna samu andmebaasitabeleid kasutavad 8 erinevat portaali.

Samuti ei saa kasutada väljundpuhvrit kohtades, kus toimub lehele tagasipostitus või toimub andmete täitmine näiteks ruutingu tingimusest lähtuvalt, sest lehe töötsükkel lõpetatakse juba algusfaasis, mis välistab edasise andmete töötlemise. Viimased komponendid on Eesti Rahvusringhäälingu portaalides näiteks kommenteerimisvormid, küsitlus ning "Samal teemal" kast.


Testi pikkus 301.62 sekundit
Päringuid lehele 50 000
Sekundis täidetud päringute arv 165,77
Keskmiselt ühe päringu täitmiseks kulunud aeg0.6 sekundit
IIS:

SQL Server:

Andmete sidumine

Nagu autor ka eelpool välja tõi, ei saa kasutada väljundipuhverdamist Eesti Rahvusringhäälingu portaalis mitmel komponendil. Üheks selliseks on ka kategooriavaade, mille sisu täidetakse vastavalt ruutingu esimes kohal asuvale väärtusele. See ütleb, millise rubriigiga on hetkel tegu. Selleks, et neid andmeid mälus hoida, tuleks kasutatada puhverdamisliidest, kuhu lisatakse andmetabel, milles kuvatavad väljad asuvad. Väljakuvamiseks kasutatakse hetkel listivaadet ja Eval operaatorit. Peatükkide 4.3 ja 4.4 põhjal väita, et hetkel on tegemist on ebaoptimaalse ressursikasutusega. Listivaade genereerib lehele ohtralt viewstate'i ja selle funktsionaalsust antud lahenduse puhul tegelikult vaja ei lähe. Eval operaatori kasutamine on samuti kulukas lähtudes leitud materjalidest.

See tõttu asendatakse listivaade kordajaga (repeater) ning Eval("väljanimi") operaatori asemel kasutatakse ((System.((System.Data.DataRowView)Container.DataItem)["väljanimi"] varianti. Kasutatakse 40 sekundilist puhverdamist.

Uus versioon Vana versioon
Testi pikkus 394.229 sekundit 402.85
Päringuid kokku 50 000 45522
Sekundis täidetud päringute arv 126.83 113
Keskmiselt ühe päringu täitmiseks kulunud aeg7.885msms sekundit 8.8ms

Lähtudes mõõtmistulemustest tuleb tõdeda, et optimaalsem on kasutada materjalidest leitud võimalusi ning neid tuleks rakendada ka mujal.

Andmebaasipäringute optimeerimine

Peale andmebaasipäringute analüüsimist selgus, et praeguse lahenduse korral pole kohati indekseerimisest eriti kasu. Tehtavad päringud võtavad tihti rohkem infot kaasa kui vaja, kuna valitakse kõik veerud. Samuti tehakse kõiki neid päringuid rakenduses ning mitmes osas. Otsitakse üles uudised, nende kategooriad, siis tekst ja nii edasi. Anmdebaasiühendusi avatakse ja suletakse tihti, mis on aega võttev protsess. Autor leiab, et arvestades antud situatsiooni, tuleks luua andmebaasi protseduur, mis tagataks soovitud väärtused. Nii on päringuid lihtsam hallata. Loodav lahendus peaks olema piisavalt paindlik, et seda saaks kasutada ka teistes portaalides.

Läbiviidavad muudatused

Antud veebirakenduse jõudluse parandamiseks luuakse protseduur, mis oleks võimalikult paindlik, et seda saaks kasutada ka teistes portaalides. Peale selle valmimist tuleb olemasoleva lahenduse koodis viia läbi muudatusi. Hetkel on veatöötlemine lahendatu try catch plokkidega kohtades, kus seda tegelikult vaja ei lähe. Erinevad päringud andmebaasi poolele asendatakse loodava protseduuriga, mis suudab anda tagasi kogu info. Selle arvelt peaks kasvama andmebaasist saadavate päringutele vastuste saamine. Puhverdamisel eelistatakse võimalusel väljundpuhvri kasutamist, kuna see on võrreldes puhverdamisliidesega kiirem ja põhjustab veebiserverile vähem koormust. Nagu joonistel näha oli siis hetkel kui puhvrit hakati uuesti täima, tekkis sellel ajal nii veebiserverile kui ka andmebaasile järsult suur koormus. Kuna Eesti Rahvusringhäälingu puhul on ühes serveris mitu erinevat portaali tuleks sellist olukorda vältida. Selleks pannakse puhvri aegumise ajad erinevad, et jagada koormust ühtlasemalt.

Venekeelsete uudiste portaal