Bună ziua, te rog ajută-mă din nou.
Sarcina pe care am scris-o mai devreme: faceți o memorie cache a discurilor SSD. + RAID oglindit
Există un sistem Intel® Server SR2625URLXR cu controller controller RAID LSI 1078 SAS RAID Controllers
4 unități SAS drive 2 unități sata și 2 drivere ssd
1. Un animal mic demn (și, cu siguranță, mai bun decât vechiul 1078)
3. În mod clar - da - LSI nu este suficient de altruist pentru a oferi această caracteristică implicit (așa cum a făcut recent cu FastPath), așa că gătiți aproximativ câteva perechi de verde.
2. "Volumetric" în ce sens - multe fluxuri de gigazuri (a-la boil-bitch / file-dustbox) sau o mulțime de IOPS (a la OLTP / mailserver).
Ei bine, ar fi frumos pentru a identifica capacitatea necesară „acum / atunci„- că cel puțin estimarea aproximativă a cantității de axe și a configurației (deși luând în considerare cheltuielile de porturile de pe SSD-uri și un singur HSD fără expandor mai ales nu fugi - sau R10, sau R6).
Despre cache-ul de urgență (ceea ce se numește BBU sau CV) într-adevăr nu stutter - fără el ca și fără pantaloni la minge: puteți, dar indecent.
Bună ziua, te rog ajută-mă din nou.
Sarcina pe care am scris-o mai devreme: faceți o memorie cache a discurilor SSD. + RAID oglindit
Există un sistem Intel® Server SR2625URLXR cu controller controller RAID LSI 1078 SAS RAID Controllers
4 unități SAS drive 2 unități sata și 2 drivere ssd
1. Un animal mic demn (și, cu siguranță, mai bun decât vechiul 1078)
3. În mod clar - da - LSI nu este suficient de altruist pentru a oferi această caracteristică implicit (așa cum a făcut recent cu FastPath), așa că gătiți aproximativ câteva perechi de verde.
2. "Volumetric" în ce sens - multe fluxuri de gigazuri (a-la boil-bitch / file-dustbox) sau o mulțime de IOPS (a la OLTP / mailserver).
Ei bine, ar fi frumos pentru a identifica capacitatea necesară „acum / atunci„- că cel puțin estimarea aproximativă a cantității de axe și a configurației (deși luând în considerare cheltuielile de porturile de pe SSD-uri și un singur HSD fără expandor mai ales nu fugi - sau R10, sau R6).
Despre cache-ul de putere de urgență (ceea ce se numește BBU sau CV) într-adevăr nu stutter - fără el ca și fără pantaloni la minge: puteți, dar indecent.
Multumesc pentru raspuns, așa cum am înțeles din răspunsul tău este potrivit, serverul se face pentru o bază de date care, la rândul său, la conversie va livra RAID 100% și dorește, deși ca și pentru a accelera procesul, roțile sunt deja disponibile: 4 discuri SAS 2diska sata 2 ssd conduceți, aceste două SSD-uri și doriți să le utilizați sub cache
Multumesc pentru raspuns, așa cum am înțeles din răspunsul tău este potrivit, serverul se face pentru o bază de date care, la rândul său, la conversie va livra RAID 100% și dorește, deși ca și pentru a accelera procesul, roțile sunt deja disponibile: 4 discuri SAS 2diska sata 2 ssd conduceți, aceste două SSD-uri și doriți să le utilizați sub cache
Tovarăș, nu vreau să-ți "învăț viața", dar tot îți recomand să abordi mai atent definițiile ("înțelegerea este funcția terminologiei" (c) a mea). "Încarcă RAID 100%" - este ca? Slăbiciune peste bus / memorie de control? Sau s-au odihnit în transferul de transportatori?
În general, nu-mi place ideea ta de a tăia subsistemul disc sub hardware-ul disponibil și nu sub sarcină. Și pentru a lua un nou moderator de înaltă performanță controler și atârnă-o literalmente cu un "grădină zoologică" de diverse mass-media (SAS / SATA HDD + SSD), în general, nu se poate încadra în minte.
Asta e doar u. gs a subliniat în mod corect că dacă baza de date ajunge pe SSD (în cazul tău va fi R1 pe ele), atunci este scump (apropo, nu ai răspuns la întrebarea despre volumele necesare, dar acest lucru este important). Dar chiar daca nu, atunci exista o optiune de a termina o alta pereche de acelasi SSD si micsoreaza R10 / R6 (cresterea automata a volumului volumului).
Și dvs. „zoo“ cu Hardy, în acest caz, care transportă este, de asemenea, oarecum enervant - eu pot vedea doar două grupuri distincte de raid ca sunt pasionat de a face multe din inerție: R1 pe SATA „în cadrul sistemului“ și Rx la SAS pentru date. Dar a fost mult timp o oglindă separat „pentru sistemul“ - tona Mauvais (strecor IOPSy și volumul la datele LUN): a face un singur grup raid de 6 HDD SAS, tăiat controler sau sistem de operare la începutul LUN sale separat pentru sistemul - deci va fi corect.
În general, cu atât mai mult ar fi frumos să înțeleagă profilul de sarcină (RTG între W și R, plus cantitatea de date pe ele încă) - dacă va fi, astfel încât cache-ul la 1GB este suficient pentru a netezi de spargere pe înregistrare, iar grupul raid din 6 SAS va fi de ajuns pentru IOPS , nu puteți pune baza de date pe SSD, și într-adevăr se amestecă CacheCade în r / o, bo lectură la cache-ul este mult mai dificilă decât înregistrarea.
Aici, într-un fel. Fără ofensă, bine?
Multumesc pentru raspuns, așa cum am înțeles din răspunsul tău este potrivit, serverul se face pentru o bază de date care, la rândul său, la conversie va livra RAID 100% și dorește, deși ca și pentru a accelera procesul, roțile sunt deja disponibile: 4 discuri SAS 2diska sata 2 ssd conduceți, aceste două SSD-uri și doriți să le utilizați sub cache
Tovarăș, nu vreau să-ți "învăț viața", dar tot îți recomand să abordi mai atent definițiile ("înțelegerea este funcția terminologiei" (c) a mea). "Încarcă RAID 100%" - este ca? Slăbiciune peste bus / memorie de control? Sau s-au odihnit în transferul de transportatori?
În general, nu-mi place ideea ta de a tăia subsistemul disc sub hardware-ul disponibil și nu sub sarcină. Și pentru a lua un nou moderator de înaltă performanță controler și atârnă-o literalmente cu un "grădină zoologică" de diverse mass-media (SAS / SATA HDD + SSD), în general, nu se poate încadra în minte.
Asta e doar u. gs pe bună dreptate, a subliniat că, în cazul în care se potrivesc bazei de date de pe SSD (în cazul dumneavoastră va fi R1 la ei), apoi înapoi la ea și drumul (de altfel, întrebarea cu privire la volumele necesare pe care nu au aprins, iar acest lucru este important). Dar chiar dacă nu, există o opțiune pentru a termina un cuplu mai mult de aceeași SSD și se agită R10 / R6 (crescând automat cantitatea de volum).
Și dvs. „zoo“ cu Hardy, în acest caz, care transportă este, de asemenea, oarecum enervant - eu pot vedea doar două grupuri distincte de raid ca sunt pasionat de a face multe din inerție: R1 pe SATA „în cadrul sistemului“ și Rx la SAS pentru date. Dar a fost mult timp o oglindă separat „pentru sistemul“ - tona Mauvais (strecor IOPSy și volumul la datele LUN): a face un singur grup raid de 6 HDD SAS, tăiat controler sau sistem de operare la începutul LUN sale separat pentru sistemul - deci va fi corect.
În general, cu atât mai mult ar fi frumos să înțeleagă profilul de sarcină (RTG între W și R, plus cantitatea de date pe ele încă) - dacă va fi, astfel încât cache-ul la 1GB este suficient pentru a netezi de spargere pe înregistrare, iar grupul raid din 6 SAS va fi de ajuns pentru IOPS , nu puteți pune baza de date de pe SSD, și într-adevăr se amestecă CacheCade în r / o, bo lectură la cache-ul este mult mai dificilă decât înregistrarea.
Aici, într-un fel. Fără ofensă, bine?
Vedeți situația acum, baza de date cântărește 1,15 Tb, Windows se află într-o array RAID de 2 discuri ssd, iar baza de date se blochează pe o matrice RAID separată de 4 discuri SAS
La conversia bazei de date, discul este folosit 100%, nu există suficientă viteză pentru citire / scriere, astfel încât sarcina este de a accelera munca discurilor într-un fel, nu sunt special în acest sens, așa că am cerut sfaturi despre cum să procedați cel mai bine