Crearea unui cluster Windows. Creați un cont de serviciu cluster. Cerințe pentru discul de stocare partajat

Deja în faza de planificare a viitorului infrastructura virtuală Ar trebui să vă gândiți să asigurați o disponibilitate ridicată a mașinilor dvs. virtuale. Dacă în situatie normala Indisponibilitatea temporară a unuia dintre servere poate fi totuși acceptabilă, dar dacă gazda Hyper-V se oprește, o parte semnificativă a infrastructurii va fi inaccesibilă. În legătură cu aceasta, complexitatea administrării crește brusc - opriți sau reporniți gazda în timp de lucru Este aproape imposibil și, în cazul unei defecțiuni hardware sau software, vom ajunge la o urgență la nivel de întreprindere.

Toate acestea pot diminua serios entuziasmul pentru beneficiile virtualizării, dar există o cale de ieșire și constă în crearea unui cluster de înaltă disponibilitate. Am menționat deja că termenul „tolerant la erori” nu este în întregime corect și, prin urmare, astăzi este folosită din ce în ce mai mult o altă caracteristică, care reflectă mai exact starea de fapt - „foarte disponibilă”.

Pentru a crea un sistem complet tolerant la erori, este necesar să se elimine orice puncte de defecțiune, care în majoritatea cazurilor necesită investiții financiare serioase. În același timp, majoritatea situațiilor permit prezența unor puncte de defecțiune dacă eliminarea consecințelor eșecului lor va costa mai puțin decât investiția în infrastructură. De exemplu, puteți abandona stocarea costisitoare tolerantă la erori în favoarea a două servere ieftine cu un număr suficient de coșuri, dintre care unul configurat ca rezervă la rece, dacă primul server eșuează, pur și simplu rearanjam discurile și îl pornim pe al doilea.

În acest material vom lua în considerare cea mai simplă configurație a unui cluster de failover, constând din două noduri (noduri) SRV12R2-NODE1 și SRV12R2-NODE2, fiecare dintre acestea rulând Windows Server 2012 R2. O condiție prealabilă pentru aceste servere este utilizarea procesoarelor de la același producător, doar Intel sau doar AMD, altfel migrarea mașinilor virtuale între noduri va fi imposibilă. Fiecare nod trebuie să fie conectat la două rețele: o rețea LAN de întreprindere și o rețea de stocare SAN.

Al doilea condiție prealabilă Pentru a crea un cluster, trebuie să aveți un Active Directory implementat; în diagrama noastră, acesta este reprezentat de controlerul de domeniu SRV12R2-DC1.

Stocarea este realizată folosind tehnologia iSCSI și poate fi implementată pe orice platformă adecvată, inclusiv în acest caz, acesta este un alt server pe Windows Server 2012 R2 - SRV12R2-STOR. Serverul de stocare poate fi conectat la rețeaua întreprinderii și poate fi membru al unui domeniu, dar aceasta nu este o cerință. Lățimea de bandă Rețeaua de stocare trebuie să fie de cel puțin 1 Gbit/s.

Vom presupune că sistemul de operare este deja instalat pe ambele noduri, acestea sunt introduse în domeniu și conexiunile la rețea sunt configurate. Să deschidem Asistentul pentru adăugare de roluri și funcțiiși adăugați un rol Hyper-V.

Următorul pas este adăugarea componentei Clustering de failover.

Pe pagina de configurare a comutatoarelor virtuale, selectați adaptorul de rețea care este conectat la rețeaua întreprinderii.

Migrarea mașinilor virtuale lasa-l oprit.

Lăsăm neschimbați parametrii rămași. Instalarea rolului Hyper-V va necesita o repornire, după care configuram al doilea nod în același mod.

Apoi să trecem la serverul de stocare; am descris cum să configurați stocarea iSCSI bazată pe Windows Server 2012 în, dar acest lucru nu este important, puteți utiliza orice server țintă iSCSI. Pentru operatie normala va trebui să creăm cel puțin două clustere discuri virtuale: discul martor cvorum și discul de stocare al mașinii virtuale. Discul martor este o resursă de serviciu a clusterului; în cadrul acestui articol nu vom atinge rolul și mecanismul său de funcționare; pentru aceasta este suficient să alocați dimensiune minimă, în cazul nostru 1 GB.

Creați o nouă țintă iSCSI și permiteți accesul la ea de către doi inițiatori, care vor fi nodurile clusterului.

Și potriviți discurile virtuale create în acest scop.

După ce am configurat stocarea, ne vom întoarce la unul dintre noduri și vom conecta discuri din stocare. Rețineți că dacă serverul de stocare este și el conectat retea locala, apoi atunci când vă conectați la o țintă iSCSI, specificați pentru acces retea de stocare.

Inițializam și formatăm discurile conectate.

Apoi mergem la al doilea nod și conectăm și discurile; nu este nevoie să le formatăm, pur și simplu le atribuim aceleași litere și etichete de volum. Acest lucru nu este necesar, dar este recomandabil să o faceți de dragul uniformității setărilor când roți identice Toate nodurile au aceleași denumiri; devine mult mai dificil să fii confuz și să faci o greșeală.

Apoi vom deschide Manager Hyper-Vși să trecem la configurarea comutatoarelor virtuale. Numele lor pe ambele noduri ar trebui să fie coincid complet.

Acum suntem gata să creăm un cluster. Să lansăm echipamentul Manager de cluster de failoverși selectați o acțiune Verificați configurația.

În setările expertului, adăugați nodurile pe care le-am configurat și selectați pentru a rula toate testele.

Verificările durează mult timp; dacă apar erori, acestea trebuie corectate și verificarea repetată.

Dacă nu sunt găsite erori semnificative, expertul se va finaliza și vă va solicita să creați un cluster pe nodurile selectate.

Totuși, dacă verificarea produce avertismente, vă sfătuim să studiați raportul și să aflați ce este afectat acest avertismentși ce trebuie făcut pentru a o elimina. În cazul nostru, vrăjitorul ne-a avertizat despre lipsa redundanței în conexiunile de rețea ale clusterului; în mod implicit, clusterul nu folosește rețele iSCSI, ceea ce este ușor de remediat ulterior.

Când este creat un cluster, este creat un obiect virtual pentru acesta, care are un nume și o adresă de rețea. Le vom indica în deschidere Expert pentru crearea clusterelor.

Nu vor mai fi întrebări și vrăjitorul ne va spune că clusterul a fost creat, dând în același timp un avertisment despre absența unui disc martor.

Închideți vrăjitorul și extindeți arborele din stânga la nivel Stocare - Discuri, în acțiunile disponibile din dreapta, selectați Adăugați unitateași indicați unitățile conectate în fereastra care se deschide, în cazul nostru sunt două.

Apoi faceți clic dreapta pe obiectul cluster din arborele din stânga și selectați Pași suplimentari - Configurați setările pentru cvorumul clusterului.

În continuare, selectăm secvențial: Selectați Quorum Witness - Configurați Witness Diskși indicați discul creat în aceste scopuri.

Acum să setăm discul de stocare, totul este mult mai simplu cu el, doar faceți clic dreapta pe disc și specificați: Adăugați în cluster spațiu de stocare partajat.

Pentru ca discul să fie utilizat de mai mulți membri ai clusterului simultan, a CSVFS- un sistem de fișiere în cluster implementat peste NTFS, care a apărut pentru prima dată în Windows Server 2008 R2 și permite utilizarea unor funcții precum migrarea dinamică (Live), de ex. transmitere mașină virtualăîntre nodurile clusterului fără a opri funcționarea acestuia.

Spațiul de stocare partajat devine disponibil pe toate nodurile de cluster din locație C:\ClusterStorage\VolumeN. Vă rugăm să rețineți că acestea nu sunt doar foldere de pe unitatea de sistem, ci puncte de montare pentru volume partajate în cluster.

După ce am terminat cu discurile, să trecem la setările de rețea, pentru aceasta mergem la secțiunea Rețele. Pentru o rețea care este conectată la rețeaua întreprinderii, indicați și Permiteți clienților să se conecteze prin această rețea. Pentru o rețea de stocare, vom pleca Permite clusterului să folosească această rețea, asigurând astfel redundanța necesară a conexiunilor la rețea.

Aceasta completează configurarea clusterului. Pentru a lucra cu mașini virtuale în cluster, ar trebui să utilizați Manager de cluster de failover, dar nu Manager Hyper-V, care este conceput pentru a gestiona mașinile virtuale situate local.

Pentru a crea o mașină virtuală, accesați secțiunea Roluri din meniul cu clic dreapta selectați Mașini virtuale - Creați o mașină virtuală, același lucru se poate face prin panou Acțiuni pe dreapta.

Mai întâi, selectați gazda pe care va fi creată mașina virtuală. Fiecare mașină virtuală rulează pe un anumit nod de cluster, migrând către alte noduri atunci când nodul său se oprește sau eșuează.

După selectarea unui nod, se va deschide expertul standard de creare a mașinii virtuale; lucrul cu acesta nu este dificil, așa că ne vom opri doar asupra punctelor semnificative. Ca locație a mașinii virtuale Neapărat specificați unul dintre volumele partajate de cluster C:\ClusterStorage\VolumeN.

Și acesta ar trebui să fie localizat aici virtual hard disc, puteți utiliza și virtualul existent hard disk-uri, după ce le-a copiat anterior într-un spațiu de stocare partajat.

După crearea mașinii virtuale, mergeți la ea Opțiuni iar la un moment dat Procesoare - Compatibilitate bifeaza casuta Transfer către calculator fizic cu o versiune diferită de procesor, aceasta va permite migrarea între noduri cu diferite modele de procesoare un singur producator. Migrarea de la Intel la AMD sau invers imposibil.

Apoi du-te la Adaptor de rețea - Accelerare hardwareși asigurați-vă că opțiunile selectate sunt acceptate de plăcile de rețea ale tuturor nodurilor cluster sau dezactivați-le.

Nu uitați să configurați acțiuni automate Când porniți și închideți un nod și cu un număr mare de mașini virtuale, nu uitați să setați o întârziere de pornire pentru a evita încărcarea excesivă a sistemului.

După ce am terminat cu Parametrii mergi la Proprietăți mașină virtuală și indicați nodurile preferate ale proprietarilor acestui rol în ordine descrescătoare și cu prioritate, mașinile cu prioritate mai mare migrează mai întâi.

Pe marcaj Manipularea eșecului setați numărul de defecțiuni acceptabile pentru o mașină virtuală pe unitatea de timp, amintiți-vă că o defecțiune este considerată nu numai o defecțiune a nodului, ci și pierderea bătăilor inimii mașinii virtuale, de exemplu, înghețarea acesteia. În timpul configurării și testării, este logic să specificați valori mai mari.

De asemenea, configurați Restabilirea plasării, această opțiune vă permite să transferați mașinile virtuale înapoi către proprietarul cel mai preferat atunci când acesta este restabilit la funcționarea normală. Pentru a evita încărcăturile excesive, utilizați opțiunea de recuperare întârziată.

Aceasta completează configurarea mașinii virtuale, putem lansa și lucra cu ea.

Acum este momentul să testați migrarea, pentru a face acest lucru, faceți clic dreapta pe mașină și selectați Mutare - Migrare live - Selectați nodul. Mașina virtuală ar trebui să se deplaseze la nodul selectat fără a se închide.

Cum are loc migrarea într-un mediu de lucru? Să presupunem că trebuie să închidem sau să repornim primul nod pe care rulează în prezent mașina virtuală. După ce a primit o comandă de închidere, nodul inițiază transferul mașinilor virtuale:

Oprirea este suspendată până când toate mașinile virtuale au fost transferate.

Când nodul este restaurat, clusterul, dacă este activat failover-ul, va iniția proces invers, transferând mașina virtuală înapoi proprietarului preferat.

Ce se întâmplă dacă nodul care găzduiește mașinile virtuale se blochează sau repornește? De asemenea, toate mașinile virtuale se vor bloca, dar vor fi repornite imediat pe nodurile de lucru, conform listei de proprietari preferați.

După cum am spus deja, termenul „de siguranță”, care a prins rădăcini în literatura tehnică internă, este incorect și ar fi mai corect să îl traducem prin „cu gestionarea erorilor” sau să folosim conceptul de „înalt disponibilitate”, care reflectă cel mai bine starea de lucruri.

Clusterul Hyper-V nu oferă toleranță la erori mașinilor virtuale; defecțiunea unui nod are ca rezultat defecțiunea tuturor mașinilor găzduite pe acesta, dar vă permite să oferiți o disponibilitate ridicată serviciilor dvs., restabilind automat funcționarea acestora și asigurând un nivel minim. timp posibil doar eu. De asemenea, vă permite să simplificați semnificativ administrarea infrastructurii virtuale, permițându-vă să mutați mașinile virtuale între noduri fără a le întrerupe activitatea.

  • Etichete:

Vă rugăm să activați JavaScript pentru a vizualiza

Acest articol vă va arăta cum să construiți un cluster de failover Server 2012 cu două noduri. În primul rând, voi enumera cerințele preliminare și voi oferi o prezentare generală a mediului hardware, a rețelei și a setărilor de stocare. Apoi, va detalia cum să extindeți Server 2012 cu capabilități de clustering de failover și să utilizați Failover Cluster Manager pentru a configura un cluster cu două noduri.

Există atât de multe funcții noi în Windows Server 2012 încât este greu să le urmăriți pe toate. Unele dintre cele mai importante blocuri de construcție ale noii infrastructuri IT implică îmbunătățiri în clusteringul de failover. Clusteringul de failover a apărut ca o tehnologie de protejare a aplicațiilor critice necesare pentru activitățile de producție, cum ar fi Microsoft SQL Server și Microsoft Exchange. Dar clusteringul de failover a evoluat de atunci într-o platformă de înaltă disponibilitate pentru o serie de servicii și aplicații Windows. Clusteringul de failover face parte din fundația Dynamic Datacenter și a tehnologiilor precum migrarea live. Cu Server 2012 și noi îmbunătățiri Protocolul serverului Message Block (SMB) 3.0 extinde domeniul de aplicare a clusterării de failover pentru a oferi resurse de fișiere partajate disponibile în mod continuu. O prezentare generală a funcționalității clusteringului de failover în Server 2012 este oferită în articolul „Noi caracteristici ale clusterării de failover în Windows Server 2012” publicat în același număr al revistei.

Cerințe preliminare pentru failover-ul în cluster

Pentru a construi un cluster de failover Server 2012 cu două noduri, aveți nevoie de două computere care rulează edițiile Server 2012 Datacenter sau Standard. Acestea pot fi computere fizice sau mașini virtuale. Clusterele cu noduri virtuale pot fi create folosind Microsoft Hyper-V sau VMware vSphere. Acest articol folosește două servere fizice, dar pașii pentru configurarea unui cluster pentru nodurile fizice și virtuale sunt aceiași. Caracteristica cheie este că nodurile trebuie să fie configurate identic, astfel încât nodul de rezervă să poată rula încărcături de lucru în cazul unui failover sau al migrării live. Componentele utilizate în clusterul de failover Server 2012 de testare sunt prezentate în figură.

Un cluster de failover Server 2012 necesită stocare partajată, cum ar fi iSCSI, SCSI atașat în serie sau SAN Fibre Channel. Exemplul nostru folosește un SAN iSCSI. Ar trebui să-ți amintești următoarele caracteristici depozite de acest tip.

  • Fiecare server trebuie să aibă macar trei adaptoare de rețea: unul pentru conectarea stocării iSCSI, unul pentru comunicarea cu nodul cluster și unul pentru comunicarea cu o rețea externă. Dacă intenționați să utilizați un cluster pentru migrarea live, atunci este util să aveți un al patrulea adaptor de rețea. Cu toate acestea, migrarea în direct poate fi efectuată și printr-un extern conexiune retea- va rula mai lent. Dacă serverele sunt folosite pentru virtualizarea bazată pe Hyper-V și consolidarea serverelor, atunci sunt necesare adaptoare de rețea suplimentare pentru a transfera trafic de rețea mașini virtuale.
  • ÎN rețele rapide munca este întotdeauna mai bună, astfel încât viteza conexiunii iSCSI ar trebui să fie de cel puțin 1 GHz.
  • Ținta iSCSI trebuie să respecte specificația iSCSI-3, oferind în mod specific redundanță persistentă. Aceasta este o cerință obligatorie a migrației în direct. Aproape toți furnizorii de stocare au hardware care este compatibil cu iSCSI 3. Dacă doriți să configurați un cluster într-un mediu de laborator la un cost redus, asigurați-vă că software-ul țintă iSCSI îndeplinește cerințele iSCSI 3 și de redundanță persistentă. Versiunile mai vechi de Openfiler nu acceptă acest standard, dar versiune noua Openfiler cu Advanced iSCSI Target Plugin (http://www.openfiler.com/products/advanced-iscsi-plugin). În plus, o versiune gratuită a StarWind iSCSI SAN Ediție gratuită StarWind Software (http://www.starwindsoftware.com/starwind-free) este pe deplin compatibil cu Hyper-V și migrarea live. Unele versiuni ale Microsoft Windows Server pot funcționa și ca o țintă iSCSI care este compatibilă cu standardele iSCSI 3. Server 2012 include o țintă iSCSI. Windows Server de stocare 2008 R2 acceptă software-ul țintă iSCSI. De asemenea, puteți descărca Microsoft iSCSI Software Target 3.3 (http://www.microsoft.com/en-us/download/details.aspx?id=19867), care funcționează cu Windows Server 2008 R2.

Pentru mai multe informații despre configurarea stocării iSCSI pentru un cluster de failover, consultați bara laterală „Exemplu de configurare a stocării ISCSI”. Mai multe detalii despre cerințele pentru clusteringul de failover sunt descrise în articolul „Cerințe hardware și opțiuni de stocare pentru failover Clustering” (http://technet.microsoft.com/en-us/library/jj612869.aspx).

Adăugarea de funcții de clustering de failover

Primul pas pentru crearea unui cluster de failover Server 2012 cu două noduri este să adăugați componenta cluster de failover folosind Server Manager. Server Manager se deschide automat când vă conectați la Server 2012. Pentru a adăuga o caracteristică de cluster de failover, selectați Local Server și derulați în jos la secțiunea ROLURI ȘI CARACTERISTICI. Din lista derulantă SARCINI, selectați Adăugare roluri și caracteristici, după cum arată Figura 1. Aceasta va lansa Expertul Adăugare roluri și caracteristici.

Prima pagină care se deschide după lansarea expertului este pagina de întâmpinare Înainte de a începe. Faceți clic pe Următorul pentru a accesa pagina de selecție a tipului de instalare, care vă întreabă dacă doriți să instalați caracteristica local sau pe serviciul Desktop la distanță. Pentru acest exemplu, selectați opțiunea de instalare bazată pe roluri sau pe funcții și faceți clic pe Următorul.

Pe pagina Selectați serverul de destinație, selectați serverul pe care doriți să instalați caracteristicile clusterului de failover. În cazul meu este server local denumit WS2012-N1. Cu serverul local selectat, faceți clic pe Următorul pentru a accesa pagina Selectați rolurile serverului. ÎN în acest exemplu Rolul de server nu este instalat, deci faceți clic pe Următorul. Sau puteți face clic pe linkul Funcții din meniul din stânga.

Pe pagina Selectare caracteristici, derulați în jos lista de caracteristici până la Clustering de failover. Faceți clic în caseta din fața Failover Clustering și veți vedea o casetă de dialog care listează diferitele componente care vor fi instalate ca parte a acelei componente. După cum arată Figura 2, în mod implicit, expertul va instala instrumentele de gestionare a clusterului de failover și modulul de cluster de failover pentru Windows PowerShell. Faceți clic pe butonul Adăugați caracteristici pentru a reveni la pagina de selecție a caracteristicilor. Faceți clic pe Următorul.

Pagina Confirmați selecțiile de instalare va afișa caracteristica clusterului de failover împreună cu instrumente de gestionare și un modul PowerShell. Puteți reveni și face orice modificări din această pagină. Când faceți clic pe butonul Instalare, va începe instalarea efectivă a componentelor. Odată ce instalarea este finalizată, asistentul se va finaliza și caracteristica Failover Cluster va apărea în secțiunea ROLURI ȘI CARACTERISTICI din Server Manager. Acest proces trebuie finalizat pe ambele noduri.

Testarea unui cluster de failover

Următorul pas după adăugarea caracteristicii cluster de failover este revizuirea setărilor mediului în care este creat clusterul. Aici puteți utiliza Expertul Validare setări în Managerul clusterului de failover. Acest expert verifică setările hardware și software ale tuturor nodurilor clusterului și raportează orice probleme care ar putea interfera cu clusterul.

Pentru a deschide Failover Cluster Manager, selectați opțiunea Failover Cluster Manager din meniul Tools din Server Manager. În zona Management, faceți clic pe linkul Validate Configuration, așa cum arată Figura 3, pentru a lansa Validate Configuration Wizard.


Ecranul 3: Lansarea expertului Verificare configurare

Mai întâi, apare pagina de întâmpinare a vrăjitorului. Faceți clic pe Următorul pentru a accesa selecția serverului sau pagina Cluster. Pe această pagină, introduceți numele nodurilor clusterului pe care doriți să-l verificați. Am specificat WS2012-N1 și WS2012-N2. Faceți clic pe Următorul pentru a afișa pagina Opțiuni de testare, unde puteți selecta anumite suite de teste sau puteți rula toate testele. Cel puțin pentru prima dată, recomand să rulați toate testele. Faceți clic pe Următorul pentru a accesa o pagină de confirmare care arată testele în curs de desfășurare. Faceți clic pe Următorul pentru a începe procesul de testare a clusterului. În timpul testării, versiunea sistemului de operare, setările de rețea și de stocare ale tuturor nodurilor de cluster sunt verificate. Un rezumat al rezultatelor este afișat după finalizarea testului.

Dacă testele de validare au succes, puteți crea un cluster. Figura 4 prezintă ecranul rezumat pentru un cluster verificat cu succes. Dacă în timpul verificării se constată erori, raportul va fi marcat cu un triunghi galben (avertismente) sau cu un „X” roșu în cazul unor erori grave. Avertismentele trebuie citite, dar pot fi ignorate. Erorile grave trebuie corectate înainte de a crea un cluster.

Ca urmare, va fi lansat vrăjitorul de creare a clusterului, care începe de la pagina de întâmpinare. Faceți clic pe Next pentru a accesa pagina Server Selection, pe care o arată Figura 6. În această pagină, introduceți numele tuturor nodurilor din cluster, apoi faceți clic pe Next.

Pe pagina Punct de acces pentru Administrarea clusterului, trebuie să specificați numele și adresa IP a clusterului, care trebuie să fie unice în rețea. După cum puteți vedea în ecranul 7, numele meu cluster este WS2012-CL01 și adresa IP este 192.168.100.200. La folosind Server 2012 Adresa IP a clusterului poate fi atribuită prin DHCP, dar prefer o adresă IP atribuită static pentru serverele mele.

După ce ați introdus numele și adresa IP, faceți clic pe Următorul pentru a vedea o pagină de confirmare (Figura 8). Pe această pagină puteți verifica setările făcute la crearea clusterului. Puteți reveni și face modificări dacă este necesar.

După ce faceți clic pe butonul Următorul de pe pagina de confirmare, se formează un cluster pe toate nodurile selectate. Pagina de progres arată pașii asistentului în procesul de creare a unui nou cluster. După finalizare, expertul va afișa o pagină de rezumat cu setările pentru noul cluster.

New Cluster Wizard selectează automat stocarea cvorumului, dar adesea selectează un disc de cvorum diferit de cel pe care l-ar dori administratorul. Pentru a verifica ce disc este folosit pentru cvorum, deschideți Failover Cluster Manager și extindeți clusterul. Apoi deschideți nodul Stocare și faceți clic pe nodul Discuri. Discurile disponibile în cluster vor fi afișate în panoul Discuri. Discul selectat de expert pentru cvorumul cluster va fi listat în secțiunea Disk Witness in Quorum.

În acest exemplu, pentru cvorum a fost folosit Cluster Disk 4. Dimensiunea sa este de 520 MB, ceva mai mult valoarea minima pentru un cvorum de 512 MB. Dacă doriți să utilizați un disc diferit pentru cvorumul clusterului, puteți modifica setările clusterului făcând clic dreapta pe numele clusterului în Managerul clusterului de failover, selectând Mai multe acțiuni și apoi selectând Configurați setările cvorumului clusterului. Aceasta va afișa Expertul de configurare a cvorumului, care vă permite să modificați setările de cvorum ale clusterului.

Configurarea volumelor partajate în cluster și a rolurilor de mașină virtuală

Ambele noduri din clusterul meu au rolul Hyper-V, deoarece clusterul este proiectat pentru mașini virtuale foarte disponibile care oferă migrare live. Pentru a facilita migrarea live, trebuie să configurați Cluster Shared Volumes (CSV). Spre deosebire de Server 2008 R2, Cluster Shared Volumes sunt activate implicit în Server 2012. Cu toate acestea, trebuie în continuare să specificați ce spațiu de stocare să utilizați pentru Cluster Shared Volumes. Pentru a activa CSV pe un disc disponibil, extindeți nodul Stocare și selectați nodul Discuri. Apoi, selectați discul de cluster pe care doriți să-l utilizați ca CSV și faceți clic pe linkul Adăugare la volume partajate de cluster din panoul Acțiuni din Managerul clusterului de failover (Figura 9). Câmpul Alocat pentru acest disc de cluster se schimbă de la Stocare disponibilă la Volum partajat de cluster, așa cum arată Figura 9.

În acest moment, Failover Cluster Manager configurează stocarea pe disc de cluster pentru CSV, adăugând în mod specific un punct de montare pe discul de sistem. În acest exemplu, Cluster Shared Volumes sunt activate atât pe Cluster Disk 1, cât și pe Cluster Disk 3, cu următoarele puncte de montare adăugate:

* C:ClusterStorageVolume1 * C:ClusterStorageVolume2

În această etapă, a fost construit un cluster Server 2012 cu două noduri și au fost activate Cluster Shared Volumes. Apoi puteți instala aplicații în cluster sau puteți adăuga roluri la cluster. În acest caz, clusterul a fost creat pentru virtualizare, așa că adăugăm rolul mașinii virtuale la cluster.

Pentru a adăuga un rol nou, selectați numele clusterului în panoul de navigare Manager de clustere de failover și faceți clic pe linkul Configurați roluri din panoul Acțiuni pentru a lansa Expertul de înaltă disponibilitate. Faceți clic pe Următorul pe pagina de bun venit pentru a accesa pagina de selecție a rolului. Derulați în jos lista de roluri până când vedeți rolul mașinii virtuale, așa cum arată Figura 10. Selectați rolul și faceți clic pe Următorul.

Pagina de selecție a mașinii virtuale va lista toate mașinile virtuale de pe toate nodurile din cluster, așa cum arată Figura 11. Derulați prin listă și selectați mașinile virtuale pe care doriți să le oferiți disponibilitate ridicată. Faceți clic pe Următorul. După ce ați confirmat selecția, faceți clic pe Următorul pentru a adăuga rolurile mașinii virtuale la Managerul clusterului de failover.

Exemplu de configurare a stocării iSCSI

Un cluster de failover Windows Server 2012 necesită stocare partajată, care poate fi iSCSI, Serial Attached SCSI sau Fibre Channel SAN. Acest cluster de failover utilizează un canal SAN.

Mai întâi, au fost create trei LUN-uri pe SAN iSCSI. A fost creat un LUN pentru discul cvorum al clusterului (520 MB). Celălalt LUN este pentru 10 mașini virtuale și are o dimensiune de 375 GB. Al treilea LUN este dedicat unei mici mașini virtuale de testare. Toate cele trei LUN-uri sunt în format NTFS.

După ce au fost create LUN-urile, iSCSI Initiator a fost configurat pe ambele noduri Server 2012. Pentru a adăuga ținte iSCSI, iSCSI Initiator a fost selectat din meniul Tools din Server Manager. În fila Discovery, am făcut clic pe butonul Discover Portal. Ca urmare, a apărut caseta de dialog Discover Portal, unde au fost introduse adresa IP (192.168.0.1) și portul iSCSI (3260) al rețelei SAN.

Apoi am mers la fila Ținte și am făcut clic pe butonul Conectare. În caseta de dialog Conectare la țintă, am introdus numele iSCSI SAN țintă. A fost obținut din proprietățile SAN. Numele depinde de furnizorul SAN, de numele domeniului și de numele LUN-urilor create. Pe lângă numele țintei, am setat modul Adăugați această conexiune la lista Țintelor favorite.

Odată ce configurarea iSCSI este completă, aceste LUN-uri apar în fila Ținte a inițiatorului iSCSI. Pentru a monta automat LUN-urile când pornește Server 2012, m-am asigurat că acestea sunt listate în fila Ținte favorite, așa cum se arată în ecranul A.

Ecranul A: Configurarea iSCSI Initiator

În cele din urmă, nume de litere au fost atribuite LUN-urilor folosind snap-in Managementul discurilor console management Microsoft(MMC). Am selectat Q pentru discul de cvorum și W pentru discul folosit pentru mașinile virtuale și Cluster Shared Volumes (CSV). La numire denumiri de litere trebuie mai întâi să le atribuiți aceluiași nod. Apoi, trebuie să luați discurile offline și să faceți sarcini similare pe cel de-al doilea nod. Rezultatele atribuirii literelor de unitate pentru un singur nod sunt afișate în ecranul B. Când creați un cluster, unitățile vor fi afișate ca spațiu de stocare disponibil.



Tehnologiile informaționale se dezvoltă rapid; dacă anterior virtualizarea și clusterele erau domeniul de competență al organizațiilor mari, astăzi aceste tehnologii devin disponibile chiar și mici afaceri. Virtualizarea vă permite să economisiți semnificativ resursele hardware, dar în același timp impune cerințe mult mai serioase pentru toleranța la erori, așa că ar trebui să țineți cont chiar și în etapa de planificare masurile necesare pentru a o asigura. Una dintre aceste măsuri este crearea unui cluster de failover.

Să începem cu faptul că termenul tolerant la greșeli neaplicabil în totalitate soluțiilor cluster, a apărut ca urmare a unei traduceri incorecte a termenului cluster de failover. Traducerea corectă este cu failover, deși astăzi se folosește din ce în ce mai mult un alt termen - Valabilitate ridicată, care, în opinia noastră, reflectă cel mai exact esența problemei.

Pentru a înțelege de ce clusterul nu este tolerant la erori, să aruncăm o privire mai atentă asupra designului și schemei sale de funcționare. Să clarificăm imediat că clusterele sunt folosite nu numai pentru a asigura toleranța la erori; schemele de clustere sunt, de asemenea, folosite pentru a echilibra sarcinile sau pentru a crește putere de calcul. Cu toate acestea, în cadrul acestui material vom vorbi în mod specific despre clustere cu înaltă disponibilitate.

Schema clasică de cluster conține cel puțin două noduri și stocare partajată, interconectate prin mai multe conexiuni de rețea.

În primul rând, aceasta este rețeaua de servicii cluster pentru transmisia semnalului „puls” (bătăi ale inimii), prin care clusterul monitorizează starea nodurilor sale (indicate cu roșu în diagramă), o rețea de stocare (SAN, albastru), în soluții ieftine aceasta este cel mai adesea iSCSI printr-o rețea Ethernet separată, dar poate fi și FibreChanell sau alte tehnologii. Pentru a servi clienții, clusterul este conectat la o rețea locală existentă.

Conform schemei de operare, nodurile pot funcționa în modul activ pasiv sau activ-activ. În primul caz, toate cererile clientului sunt deservite de unul dintre noduri, al doilea nod intră în funcțiune numai dacă primul eșuează. A doua opțiune implică procesarea solicitărilor clientului de către ambele noduri, în timp ce este, de asemenea, posibilă efectuarea de echilibrare a sarcinii și creșterea resurselor de calcul prin adăugarea de noi noduri de cluster. Dacă unul dintre noduri eșuează, cererile clientului sunt procesate de nodurile rămase.

Un punct important este că fiecare cerere de client este deservită doar de unul dintre nodurile clusterului și, dacă eșuează, clienților conectați li se va refuza serviciul, dar pot trece imediat la nodurile disponibile rămase. De aceea, o astfel de schemă nu este tolerantă la erori; o defecțiune a nodului provoacă o refuzare a serviciului, dar clientul se poate conecta întotdeauna la un alt nod de lucru, care implementează schema de disponibilitate ridicată a serviciului.

Cititorul atent ar trebui să acorde atenție existenței unui punct de defecțiune în diagrama de mai sus - stocare. Într-adevăr, pentru a obține o disponibilitate ridicată, stocarea trebuie, de asemenea, să fie tolerantă la erori sau foarte disponibilă. Acest lucru poate fi implementat fie prin achiziționarea de modele hardware sau software speciale, inclusiv cele bazate pe software open source.

Dacă iSCSI este utilizat ca stocare, atunci rețeaua de servicii cluster și rețeaua de stocare pot fi combinate. Dar, în același timp, mai avem un punct de eșec - rețeaua, așa că în sistemele critice ar trebui să folosim cel puțin două rețele pentru a accesa SAN. Pe lângă creșterea fiabilității, această abordare vă permite să creșteți debitul, ceea ce este, de asemenea, important.

Este imposibil să nu menționăm soluții software care vă permit să creați un cluster de failover pe doar două noduri, folosindu-l ca SAN stocare virtuală. De exemplu, StarWind Virtual SAN, care creează stocare virtuală iSCSI pe baza discuri locale fiecare dintre noduri. Acest lucru vă permite să reduceți costul creării și găzduirii stocării tolerante la erori, dar în același timp crește cerințele de performanță a rețelei între nodurile cluster, deoarece atunci când scrieți pe disc, toate modificările sunt sincronizate imediat între noduri.

După ce creați un cluster, acesta va apărea în mediul de rețea ca o altă gazdă cu propriul nume și adresă IP. După care va trebui să implementăm roluri foarte disponibile pe acesta. Poate fi servere de fișiere, SQL sau Exchange, precum și alte aplicații care acceptă clustering. Fiecare rol de cluster de failover apare, de asemenea, în rețea ca o gazdă separată pe care o accesează clienții. În același timp, clientul nu are idee care nod își execută cererea; în caz de eșec, de exemplu, din cauza eșecului unuia dintre noduri, va trebui doar să repete cererea către serviciu.

În prezent, clusterele sunt din ce în ce mai folosite pentru sistemele de virtualizare; în acest caz, mașinile virtuale sunt distribuite manual de către administrator între noduri, ținând cont de resursele lor de calcul. Pentru fiecare mașină virtuală, nodurile disponibile sunt indicate în ordinea descrescătoare a priorității. Acest lucru vă permite să evitați mașinile virtuale care necesită mult resurse care rulează pe noduri slabe. Dacă unul dintre nodurile clusterului se oprește corect, toate mașinile virtuale care rulează pe el sunt transferate către alte noduri fără a se opri sau întrerupe folosind mecanisme de migrare live.

Dacă un nod eșuează, toate mașinile virtuale care rulează pe el vor fi repornite pe alte noduri, conform priorității stabilite.

Pentru a evita încărcarea excesivă a rețelei de stocare și stocare, puteți seta o întârziere de recuperare în setările mașinilor virtuale, astfel încât mașinile virtuale critice să poată fi repornite imediat, cele neesențiale - după ceva timp.

În materialele noastre următoare ne vom uita la implementarea practică a unui cluster de failover bazat pe Hyper-V.

  • Etichete:

Vă rugăm să activați JavaScript pentru a vizualiza

Salutare tuturor, astăzi vă voi spune cum să configurați un cluster de failover Hyper-V în Windows Server 2012 R2. Permiteți-mi să vă reamintesc că am luat deja în considerare același lucru pentru Hyper-V în Windows Server 2012 R2.

Deja în etapa de planificare a viitoarei infrastructuri virtuale, ar trebui să vă gândiți să asigurați o disponibilitate ridicată a mașinilor dumneavoastră virtuale. Dacă într-o situație normală indisponibilitatea temporară a unuia dintre servere poate fi totuși acceptabilă, atunci dacă gazda Hyper-V se oprește, o parte semnificativă a infrastructurii va fi inaccesibilă. În legătură cu aceasta, complexitatea administrării crește brusc - este aproape imposibil să opriți sau să reporniți gazda în timpul orelor de lucru, iar în cazul unei defecțiuni hardware sau software, vom ajunge la o urgență la nivel de întreprindere.

Toate acestea pot diminua serios entuziasmul pentru beneficiile virtualizării, dar există o cale de ieșire și constă în crearea unui cluster de înaltă disponibilitate. Am menționat deja că termenul „tolerant la erori” nu este în întregime corect și, prin urmare, astăzi este folosită din ce în ce mai mult o altă caracteristică, care reflectă mai exact starea de fapt - „foarte disponibilă”.

Pentru a crea un sistem complet tolerant la erori, este necesar să se elimine orice puncte de defecțiune, care în majoritatea cazurilor necesită investiții financiare serioase. În același timp, majoritatea situațiilor permit prezența unor puncte de defecțiune dacă eliminarea consecințelor eșecului lor va costa mai puțin decât investiția în infrastructură. De exemplu, puteți abandona stocarea costisitoare tolerantă la erori în favoarea a două servere ieftine cu un număr suficient de coșuri, dintre care unul este configurat ca rezervă la rece; dacă primul server eșuează, pur și simplu rearanjam discurile și îl pornim pe al doilea. .

În acest material vom lua în considerare cea mai simplă configurație a unui cluster de failover, constând din două noduri (noduri) SRV12R2-NODE1 și SRV12R2-NODE2, fiecare dintre acestea rulând Windows Server 2012 R2. O condiție prealabilă pentru aceste servere este utilizarea procesoarelor de la același producător, doar Intel sau doar AMD, altfel migrarea mașinilor virtuale între noduri va fi imposibilă. Fiecare nod trebuie să fie conectat la două rețele: o rețea LAN de întreprindere și o rețea de stocare SAN.

A doua condiție prealabilă pentru crearea unui cluster este prezența unui Active Directory implementat; în diagrama noastră este reprezentată de controlerul de domeniu SRV12R2-DC1.

Stocarea se realizeaza folosind tehnologia iSCSI si poate fi implementata pe orice platforma potrivita, in acest caz este un alt server pe Windows Server 2012 R2 - SRV12R2-STOR. Serverul de stocare poate fi conectat la rețeaua întreprinderii și poate fi membru al unui domeniu, dar aceasta nu este o cerință. Debitul rețelei de stocare trebuie să fie de cel puțin 1 Gbit/s.

Următorul pas este adăugarea componentei Clustering de failover.

Pe pagina de configurare a comutatoarelor virtuale, selectați adaptorul de rețea care este conectat la rețeaua întreprinderii.

Migrarea mașinilor virtuale lasa-l oprit.

Lăsăm neschimbați parametrii rămași. Instalarea rolului Hyper-V va necesita o repornire, după care configuram al doilea nod în același mod.

Apoi, să trecem la serverul de stocare; am descris în acest articol cum să configurați stocarea iSCSI bazată pe Windows Server 2012, dar acest lucru nu este important, puteți utiliza orice server țintă iSCSI. Pentru funcționarea normală a clusterului, va trebui să creăm cel puțin două discuri virtuale: un disc martor de cvorum și un disc pentru stocarea mașinilor virtuale. Discul martor este o resursă de serviciu a clusterului; în acest articol nu vom atinge rolul și mecanismul de funcționare al acestuia; este suficient să îi aloci o dimensiune minimă, în cazul nostru 1GB.

Creați o nouă țintă iSCSI și permiteți accesul la ea de către doi inițiatori, care vor fi nodurile clusterului.

Și potriviți discurile virtuale create în acest scop.

După ce am configurat stocarea, ne vom întoarce la unul dintre noduri și vom conecta discuri din stocare. Rețineți că, dacă serverul de stocare este conectat și la rețeaua locală, atunci când vă conectați la ținta iSCSI, specificați pentru acces retea de stocare.

Inițializam și formatăm discurile conectate.

Apoi mergem la al doilea nod și conectăm și discurile; nu este nevoie să le formatăm, pur și simplu le atribuim aceleași litere și etichete de volum. Acest lucru nu este necesar, dar este recomandabil să faceți acest lucru de dragul uniformității setărilor, atunci când discurile identice pe toate nodurile au aceleași denumiri, devine mult mai dificil să vă confundați și să faceți o greșeală.

Apoi vom deschide Manager Hyper-Vși să trecem la configurarea comutatoarelor virtuale. Numele lor pe ambele noduri ar trebui să fie coincid complet.

Acum suntem gata să creăm un cluster. Să lansăm echipamentul Manager de cluster de failoverși selectați o acțiune Verificați configurația.

În setările expertului, adăugați nodurile pe care le-am configurat și selectați pentru a rula toate testele.

Verificările durează mult timp; dacă apar erori, acestea trebuie corectate și verificarea repetată.

Dacă nu sunt găsite erori semnificative, expertul se va finaliza și vă va solicita să creați un cluster pe nodurile selectate.

Cu toate acestea, dacă scanarea produce avertismente, vă sfătuim să studiați raportul și să aflați ce afectează avertismentul și ce trebuie făcut pentru a-l elimina. În cazul nostru, vrăjitorul ne-a avertizat despre lipsa redundanței în conexiunile de rețea ale clusterului; în mod implicit, clusterul nu folosește rețele iSCSI, ceea ce este ușor de remediat ulterior.

Când este creat un cluster, este creat un obiect virtual pentru acesta, care are un nume și o adresă de rețea. Le vom indica în deschidere Expert pentru crearea clusterelor.

Nu vor mai fi întrebări și vrăjitorul ne va spune că clusterul a fost creat, dând în același timp un avertisment despre absența unui disc martor.

Închideți vrăjitorul și extindeți arborele din stânga la nivel Stocare - Discuri, în acțiunile disponibile din dreapta, selectați Adăugați unitateași indicați unitățile conectate în fereastra care se deschide, în cazul nostru sunt două.

Apoi faceți clic dreapta pe obiectul cluster din arborele din stânga și selectați Pași suplimentari - Configurați setările pentru cvorumul clusterului.

Acum să setăm discul de stocare, totul este mult mai simplu cu el, doar faceți clic dreapta pe disc și specificați: Adăugați în cluster spațiu de stocare partajat.

Pentru ca discul să fie utilizat de mai mulți membri ai clusterului simultan, a CSVFS- un sistem de fișiere în cluster implementat peste NTFS, care a apărut pentru prima dată în Windows Server 2008 R2 și permite utilizarea unor funcții precum migrarea dinamică (Live), de ex. transferul unei mașini virtuale între nodurile clusterului fără a opri funcționarea acesteia.

Spațiul de stocare partajat devine disponibil pe toate nodurile de cluster din locație C:\ClusterStorage\VolumeN. Vă rugăm să rețineți că acestea nu sunt doar foldere de pe unitatea de sistem, ci puncte de montare pentru volume partajate în cluster.

După ce am terminat cu discurile, să trecem la setările de rețea, pentru aceasta mergem la secțiunea Rețele. Pentru o rețea care este conectată la rețeaua întreprinderii, indicați și Permiteți clienților să se conecteze prin această rețea. Pentru o rețea de stocare, vom pleca Permite clusterului să folosească această rețea, asigurând astfel redundanța necesară a conexiunilor la rețea.

Aceasta completează configurarea clusterului. Pentru a lucra cu mașini virtuale în cluster, ar trebui să utilizați Manager de cluster de failover, dar nu Manager Hyper-V, care este conceput pentru a gestiona mașinile virtuale situate local.

Pentru a crea o mașină virtuală, accesați secțiunea Roluri din meniul cu clic dreapta selectați Mașini virtuale - Creați o mașină virtuală, același lucru se poate face prin panou Acțiuni pe dreapta.

Mai întâi, selectați gazda pe care va fi creată mașina virtuală. Fiecare mașină virtuală rulează pe un anumit nod de cluster, migrând către alte noduri atunci când nodul său se oprește sau eșuează.

După selectarea unui nod, se va deschide expertul standard de creare a mașinii virtuale; lucrul cu acesta nu este dificil, așa că ne vom opri doar asupra punctelor semnificative. Ca locație a mașinii virtuale Neapărat specificați unul dintre volumele partajate de cluster C:\ClusterStorage\VolumeN.

Hard disk-ul virtual ar trebui să fie, de asemenea, amplasat aici; puteți utiliza și hard disk-urile virtuale existente, copiendu-le mai întâi în spațiul de stocare partajat.

După crearea mașinii virtuale, mergeți la ea Opțiuni iar la un moment dat Procesoare - Compatibilitate bifeaza casuta Transferați pe un computer fizic cu o versiune diferită de procesor, aceasta va permite migrarea între noduri cu diferite modele de procesoare un singur producator. Migrarea de la Intel la AMD sau invers imposibil.

Apoi du-te la Adaptor de rețea - Accelerare hardwareși asigurați-vă că opțiunile selectate sunt acceptate de plăcile de rețea ale tuturor nodurilor cluster sau dezactivați-le.

Nu uitați să configurați acțiuni automate la pornirea și închiderea unui nod; dacă aveți un număr mare de mașini virtuale, nu uitați să setați o întârziere de pornire pentru a evita încărcarea excesivă a sistemului.

După ce am terminat cu Parametrii mergi la Proprietăți mașină virtuală și indicați nodurile preferate ale proprietarilor acestui rol în ordine descrescătoare și cu prioritate, mașinile cu prioritate mai mare migrează mai întâi.

Pe marcaj Manipularea eșecului setați numărul de defecțiuni acceptabile pentru o mașină virtuală pe unitatea de timp, amintiți-vă că o defecțiune este considerată nu numai o defecțiune a nodului, ci și pierderea bătăilor inimii mașinii virtuale, de exemplu, înghețarea acesteia. În timpul configurării și testării, este logic să specificați valori mai mari.

De asemenea, configurați Restabilirea plasării, această opțiune vă permite să transferați mașinile virtuale înapoi către proprietarul cel mai preferat atunci când acesta este restabilit la funcționarea normală. Pentru a evita încărcăturile excesive, utilizați opțiunea de recuperare întârziată.

Aceasta completează configurarea mașinii virtuale, putem lansa și lucra cu ea.

Acum este momentul să testați migrarea, pentru a face acest lucru, faceți clic dreapta pe mașină și selectați Mutare - Migrare live - Selectați nodul. Mașina virtuală ar trebui să se deplaseze la nodul selectat fără a se închide.

Cum are loc migrarea într-un mediu de lucru? Să presupunem că trebuie să închidem sau să repornim primul nod pe care rulează în prezent mașina virtuală. După ce a primit o comandă de închidere, nodul inițiază transferul mașinilor virtuale:

Oprirea este suspendată până când toate mașinile virtuale au fost transferate.

Când nodul este restabilit la serviciu, clusterul, dacă failover-ul este activat, inițiază procesul invers, transferând mașina virtuală înapoi proprietarului său preferat.

Ce se întâmplă dacă nodul care găzduiește mașinile virtuale se blochează sau repornește? De asemenea, toate mașinile virtuale se vor bloca, dar vor fi repornite imediat pe nodurile de lucru, conform listei de proprietari preferați.

După cum am spus deja, termenul „de siguranță”, care a prins rădăcini în literatura tehnică internă, este incorect și ar fi mai corect să îl traducem prin „cu gestionarea erorilor” sau să folosim conceptul de „înalt disponibilitate”, care reflectă cel mai bine starea de lucruri.

Un cluster Hyper-V nu oferă toleranță la erori mașinilor virtuale; o defecțiune a nodului are ca rezultat defecțiunea tuturor mașinilor găzduite pe el, dar vă permite să asigurați o disponibilitate ridicată a serviciilor dumneavoastră, recuperându-le automat și asigurând timpul de nefuncționare minim posibil. De asemenea, vă permite să simplificați semnificativ administrarea infrastructurii virtuale, permițându-vă să mutați mașinile virtuale între noduri fără a le întrerupe activitatea.

Andrei Biriukov

Implementarea unui cluster bazat pe Windows Server 2003

Clusterele de failover sunt larg răspândite în rețelele companiilor mijlocii și mari. Dar pentru mulți administratori, implementarea și întreținerea sistemelor cluster ridică încă multe întrebări. Să luăm în considerare implementarea unui cluster de failover bazat pe Windows Server 2003.

Noțiuni de bază

Una dintre condițiile necesare pentru funcționarea stabilă a rețelei unei organizații mari este toleranța la erori. Chiar și un eșec de moment poate duce la consecințe foarte neplăcute.

Deci, de exemplu, în timpul repornirii unui server de e-mail la înălțimea zilei de lucru, angajații companiei vor primi mesaje de eroare și, de regulă, vor apela serviciul suport tehnic companiilor, adăugând mai multă muncă administratorilor de sistem.

Acest lucru este mai ales neplăcut atunci când conducerea raportează indisponibilitatea e-mailului sau a oricărui alt serviciu. Puteți evita astfel de probleme utilizând clustere de failover.

Un cluster de servere este un grup de noduri independente care interacționează ca un singur sistem. Ei folosesc o bază de date de cluster comună, care permite recuperarea dacă vreun nod eșuează.

Aceste soluții pot fi fie hardware, fie software. Alegerea depinde de dimensiunea organizației dvs., de aplicațiile critice pentru afaceri și, bineînțeles, de bugetul alocat pentru infrastructura IT.

În articolul meu voi lua în considerare implementare software bazat pe cluster cu două noduri Servicii Microsoft Serviciul de Clustering. Această soluție este cea mai potrivită pentru organizațiile mijlocii cu un buget IT mic.

În primul rând, voi pune problema căreia îi va fi dedicat acest articol.

Avem două servere cu hardware identic. Cerința de identitate nu este obligatorie, dar este de dorit ca puterea serverelor să fie similară.

Este necesar să le combinați într-un cluster de failover. Ca exemplu de configurare a unei resurse de failover, voi configura serviciul File Share.

Vom vorbi mai multe despre tipurile de resurse cluster puțin mai târziu.

Despre ediții și licențe

Înainte de a începe să descriem procesul de instalare și configurare a unui cluster, trebuie să decidem asupra edițiilor sistemului de operare care vor fi utilizate și, de asemenea, să luăm în considerare problemele de licențiere.

Când construiți un cluster, amintiți-vă că este cel mai comun Ediția Windows Server 2003 Standard nu acceptă clustering.

Prin urmare, atunci când construiți un sistem tolerant la erori, ar trebui să utilizați Windows Server 2003 Enterprise Edition.

Apropo, Ediția Enterprise ar trebui să fie folosit și la construirea clusterelor pentru Microsoft Exchange și Microsoft SQL Server 2000. În caz contrar, nu veți putea grupa corespondența și bazele de date.

În ceea ce privește problemele de licențiere, este necesar să achiziționați o licență de sistem de operare pentru server pentru fiecare nod de cluster. Plus licențe de acces client (CAL) în aceeași cantitate ca pentru un server.

Să explic cu un exemplu. Dacă organizația dvs. are 250 de utilizatori și implementați un cluster cu două noduri, atunci trebuie să achiziționați două licențe de server pentru Windows Server 2003 și licențe de acces client 250.

Prin urmare, numărul de noduri din cluster nu afectează numărul de licențe client.

Noi concepte

Pentru a înțelege mai bine conceptul de clustering, ne vom uita la câteva concepte de bază.

Un cluster de failover constă de obicei din patru noduri care partajează o resursă de disc pentru schimbul de date. Această resursă se mai numește și dispozitiv de cvorum.

În mod ideal, acest dispozitiv de cvorum ar trebui să fie un stocare separat de date hardware cu suport propriu de toleranță la erori (discuri RAID 1, RAID 5) conectat la toate nodurile de cluster.

Soluții similare sunt furnizate de IBM, EMC și alți producători.

Dar dacă capacitățile financiare ale companiei sunt limitate, pentru a crea un dispozitiv de cvorum, puteți utiliza un disc pe o magistrală SCSI partajată conectată la toate nodurile clusterului.

Clusterul conține două tipuri diferite de rețele: rețea privată, care este utilizat pentru a suporta conexiuni între nodurile clusterului și rețea uz comun(rețea locală) care este utilizată de clienții clusterului pentru a se conecta la serviciile din acel cluster. Ambele rețele pot partaja o singură placă de rețea și una conexiune fizică, dar e mai bine să le ții separate.

Deoarece conexiunea dintre nodurile clusterului este un potențial punct de eșec, ar trebui să includă întotdeauna redundanța.

Dacă sunt utilizate două interfețe de rețea, atunci dacă una dintre ele eșuează, administratorul poate trece la utilizarea celei de-a doua fără prea mult efort. În plus, utilizarea a două interfețe crește viteza schimbului de date și în cele din urmă crește viteza întregului cluster în ansamblu.

Următorul concept important gruparea sunt grupuri.

Grupurile sunt blocuri pentru tranziția la eșec. Fiecare grup conține una sau mai multe resurse. Dacă orice resursă dintr-un grup eșuează, întregul grup trece printr-o tranziție de oprire partajată în conformitate cu politica de tranziție de oprire definită pentru acel grup.

În orice moment, un grup poate aparține doar unui singur nod. Dacă orice resursă dintr-un grup eșuează, aceasta trebuie mutată într-un nod alternativ împreună cu toate celelalte resurse din acel grup.

Când cauza defecțiunii nodului sursă este rezolvată, întregul grup este transferat înapoi la nodul sursă în conformitate cu politica de failback pentru acel grup.

Resursele sunt totul pentru noi

Următorul concept este resurse - elemente logice sau fizice care pot fi conectate sau deconectate de la rețea.

Windows Server 2003 Enterprise Edition include mai multe tipuri diferite de resurse:

  • disc fizic;
  • DHCP;
  • CÂȘTIGE;
  • Spooler de imprimare;
  • Partajarea fișierelor;
  • Adresă de protocol Internet;
  • Cvorum local;
  • Set de noduri majoritare;
  • Numele retelei;
  • Aplicație generică;
  • Script generic;
  • Serviciul generic.

Câteva cuvinte despre fiecare tip de resursă.

Discul fizic este folosit pentru resursa de cvorum. Necesar pentru toate serverele din cluster.

DHCP și WINS sunt folosite ca o resursă de cluster pentru a oferi toleranță la erori pentru aceste servicii.

Print Spooler vă permite să grupați serviciile de imprimare.

Tipul de resursă File Share vă permite să gestionați sistemele de fișiere partajate în trei moduri diferite:

  • Partajare standard de fișiere când este vizibil doar folderul de nivel superior reprezentat de numele partajat.
  • Cu subdosare partajate când folderul de nivel superior și fiecare dintre subfolderele sale imediate sunt partajate cu nume diferite.
  • Rădăcină autonomă a sistemului de fișiere distribuit Dfs (Distributed File System). Dar nu puteți utiliza resursa File Share a unui server de cluster ca parte a unei rădăcini de failover Dfs.

Adresa protocolului Internet și Numele rețelei sunt folosite pentru a crea un server virtual care le permite clienților să folosească același nume pentru a accesa clusterul chiar și după failover.

Resursa Local Quorum este utilizată pentru a gestiona disc de sistem pe un nod de cluster local.

Majority Node Set este utilizat pentru a gestiona configurația datelor cluster, care pot fi localizate în memoria clusterului sau în afara acestui dispozitiv. Folosit pentru a reconcilia datele între dispozitive dispersate geografic.

Tipul de resursă Aplicație generică vă permite să gestionați într-un cluster aplicații regulate, nerecunoscându-le prezența în cluster.

Script generic – gestionarea scripturilor sistemului de operare ca resursă de cluster.

Serviciu generic – vă permite să gestionați Servicii Windows Server 2003 ca ​​resurse cluster.

Importanța planificării

Pentru funcționare stabilă Cu un cluster, trebuie să planificați din timp ce aplicații vor rula și trebuie să alegeți exact de ce aplicații vă puteți lipsi și care aplicații trebuie să fie acceptate în toate circumstanțele.

Mai întâi trebuie să determinați numărul de grupuri sau servere virtuale.

Aplicațiile și resursele situate în același grup vor fi transferate împreună pe un server atunci când sunt deconectate. Adică, trebuie să determinați ce aplicații depind unele de altele și trebuie să lucrați împreună.

Prin urmare, înainte de a începe implementarea unui cluster, trebuie să faceți o listă cu toate aplicațiile din mediul dvs., să definiți clar care dintre ele pot eșua și care necesită o tranziție de închidere.

Rețineți că o resursă nu poate cuprinde grupuri, așa că dacă mai multe aplicații depind de o resursă, acestea trebuie să fie conținute în același grup sau într-unul server virtual, atunci vor fi utilizate aceleași politici de tranziție pentru oprire și recuperare.

Permiteți-mi să vă dau un mic exemplu de construire a unui arbore de dependență pentru resursa File Share.

Evident, această resursă depinde de discul fizic, deoarece este resursa principală folosită de toate nodurile din cluster. În plus, pentru resursele partajate este important numele retelei Numele retelei. Dar, la rândul său, Numele rețelei nu poate fi folosit fără Adresă IP.

Astfel, obținem următoarele dependențe: resursa File Share depinde în mod explicit de discul fizic și numele rețelei și implicit de adresa IP.

În cazul în care uitați să specificați orice dependență, veți primi un mesaj de eroare în timpul procesului de instalare a resursei.

Încheind subiectul de planificare, aș dori să vă reamintesc că fiecare dintre nodurile clusterului trebuie să aibă suficientă putere și să nu fie supraîncărcat cu aplicații suplimentare, neclusterizate, deoarece dacă, după comutare, proprietarul resursei se dovedește a avea mai puține server puternic, acest lucru va afecta cu siguranță performanța aplicațiilor și, eventual, va duce la eșecuri.

Instalare

După ce am discutat despre caracteristicile implementării Microsoft Serviciul Cluster, să trecem direct la implementare.

În primul rând, instalăm Windows Server 2003 Enterprise Edition pe fiecare dintre noduri.

Procesul de instalare în sine este standard și nu are rost să îl descriem în articol. Singurul lucru care merită menționat este adresarea IP. Este necesar să setați imediat adrese fixe, astfel încât să nu apară probleme cu conexiunea mai târziu.

După instalarea cu succes, trebuie să dați nume fiecăruia dintre nodurile clusterului. Pentru simplitate, vom numi nodurile Node1 și Nod2.

În fereastra următoare, trebuie să specificați numele domeniului în care se află nodurile, precum și numele clusterului (vezi Figura 1).

Dacă verificarea tuturor punctelor are succes, atunci în următoarea fereastră trebuie să specificați adresa IP a clusterului.

Apoi trebuie să specificați contul sub care va fi lansat clusterul. Acesta poate fi un cont existent sau nou. Acest utilizator i se vor acorda drepturi administrator local pe toate nodurile clusterului.

În cele din urmă, trecem la ultima pagină, care afișează datele de confirmare. Aici puteți specifica un dispozitiv de cvorum, așa cum se arată în Fig. 3.

Făcând clic pe „Următorul” începe procesul de instalare a clusterului, care este în exterior similar cu analiza de configurare deja descrisă.

După instalarea cu succes, fereastra de administrare pentru noul cluster creat de noi ar trebui să se deschidă pentru lucrări ulterioare.

Lucrați la greșeli

Când instalați un cluster, puteți întâlni diverse probleme. Voi descrie soluția pentru unele dintre ele. De regulă, majoritatea problemelor sunt identificate în etapa de analiză a configurației clusterului. În fig. Figura 4 arată cum ar putea arăta.

După cum puteți vedea, în timpul analizei au fost descoperite două erori, sau mai degrabă probleme. Deoarece bara Task Completed este verde, puteți continua instalarea, dar este mai bine să rezolvați mai întâi problemele.

Deci, ce s-a găsit în timpul analizei sistemului:

  • Nu a fost găsit niciun dispozitiv de cvorum. După cum sa discutat mai devreme, este un disc SCSI partajat de toate nodurile din cluster. Dacă primiți un astfel de mesaj, verificați dacă serverele sunt conectate corect la magistrala SCSI. Verificați și disponibilitatea a acestui discîn secțiunea „Instrumente administrative -> Gestionare computere -> Gestionare disc”.
  • A fost găsit un singur adaptor de rețea pe server. Majoritatea serverelor industriale au două plăci de rețea, deci aceasta este o eroare destul de rară. Dar dacă apare, atunci trebuie să verificați funcționalitatea celui de-al doilea adaptor. Dacă doriți să utilizați o singură interfață, utilizați descrierea din secțiunea „Adăugarea nodurilor”.

O altă eroare care apare în timpul procesului de analiză este atribuirea dinamică a adreselor IP adaptoare de rețea. După cum am menționat deja, în timpul procesului de instalare trebuie să alocați adrese statice adaptoare de rețea.

Pentru a identifica erori mai complexe, puteți folosi butonul „Vizualizare jurnal” pentru a vizualiza un jurnal detaliat al evenimentelor.

Adăugarea de noduri

Acum trebuie să adăugați un nod la cluster. Dar mai întâi să facem câteva setari aditionale. În consola Cluster Administration, selectați „Cluster Configuration”, apoi „Networks” (vezi Fig. 5).

Fiecare nod de cluster are două interfețe de rețea, una conectată la rețeaua locală (LAN) și a doua utilizată pentru comunicarea între nodurile de cluster (Heartbeat).

Deschideți fila „Proprietăți” pentru fiecare dintre acestea, pe rând. interfețe de rețea.

Pentru LAN, trebuie să specificați „Numai acces client (doar public)” în proprietăți, iar pentru Heartbeat, selectați „Doar comunicații interne în cluster (rețea privată)”.

Astfel, acum interfața noastră LAN va fi folosită doar pentru interacțiunea externă, iar Heartbeat va fi folosit doar pentru schimbul de informații între nodurile clusterului. Acest lucru vă permite să creșteți performanța sistemului în ansamblu.

Nu uitați să delimitați și segmentele la nivel de rețea. Adică, segmentul care conține conexiuni Heartbeat trebuie conectat la un comutator sau hub separat (nu la același rețeaua fizică la fel ca LAN!) din motive de securitate și fiabilitate.

În acest caz, utilizarea unui hub poate fi chiar de preferată, deoarece nu conține un cache de adrese MAC, iar rețeaua Heartbeat în acest caz este folosită doar pentru a verifica disponibilitatea nodurilor și a selecta unul nou în caz de eșec.

Dacă doriți să utilizați o singură interfață, atunci specificați Acces intern și client în proprietățile LAN și Heartbeat. În acest caz, atât LAN, cât și Heartbeat vor conține o singură interfață fizică.

Deci, am optimizat setările interfețelor de rețea ale nodului cluster și trecem acum la următoarea etapă - adăugarea unui al doilea nod. Pentru a face acest lucru, pe al doilea server rulăm și „Instrumente administrative -> Administrator cluster”.

Abia acum selectați „Adăugați noduri la cluster” și indicați numele clusterului.

La pasul următor, introducem numele serverului care va fi folosit în cluster.

Analiza configurației este apoi începută. Dacă analiza este finalizată fără erori grave, în pasul următor indicăm contul care a fost folosit la crearea clusterului. Apoi, serviciile cluster sunt instalate pe al doilea server. Rezultatul obtinut este prezentat in Fig. 6.

Acest lucru, de fapt, încheie procesul de instalare a clusterului. Dacă trebuie să adăugați mai multe noduri, este suficient să efectuați operațiunile de mai sus pentru a adăuga un server.

Configurarea resurselor

Acum trebuie să conectăm resursele care vor fi utilizate în clusterul nostru.

După cum sa menționat la începutul articolului, vom configura resurse pentru serviciul File Share.

Pentru a face acest lucru, vom crea mai întâi un grup nou pe serverul virtual HOME.

Înainte de a crea un grup, trebuie să decideți locația acestuia. Desigur, puteți plasa resurse în grupul principal de Clustere, dar este mai bine să le grupați imediat în conformitate cu scopul lor. Mai mult, managementul politicilor de tranziție la închidere se realizează la nivel de grup.

Prin urmare, pentru a crea resursa noastră File Share, trebuie să faceți următoarele:

  • creați un grup care va conține resursele necesare;
  • creați o resursă de tip Physical Disk;
  • creați o resursă de tip Adresă IP;
  • creați o resursă de tip Network Name;
  • creați o resursă de tip File Share.

Să începem prin a crea un grup de cluster.

Pentru a face acest lucru, în consola „Cluster Administrator”, faceți clic pe folderul „Active Groups” pentru serverul pe care va fi localizată resursa File Share și selectați „Group” din meniul „New”. Va apărea fereastra New Group Wizard (vezi Fig. 7).

În fereastra următoare, trebuie să specificați proprietarii preferați ai resursei Proprietari preferați. Puteți specifica mai multe noduri aici, în funcție de preferințele dvs.

De exemplu, este destul de logic să indicați cele mai puternice și mai puțin încărcate noduri de cluster la începutul listei.

În cazul nostru, trebuie să selectați un nod și să faceți clic pe „Adăugați”, apoi să adăugați în același mod Nodul 2. După ce faceți clic pe butonul „Finish”, grupul va fi creat.

Dar rețineți că este în prezent într-o stare offline, deoarece nu există resurse active asociate cu acesta.

Acum este timpul să creați o resursă de tip Physical Disk. Pentru a face acest lucru, faceți clic dreapta pe grupul nou creat și selectați „Resurse”.

Completați câmpurile Nume și Descriere și selectați opțiunea „Disc fizic” din lista derulantă „Tip de resurse”.

În pasul următor, specificați posibilii proprietari ai resursei Posibilii proprietari. Aici trebuie să indicați acele mașini care pot conține această resursă (Node1, Nod2).

În etapa următoare, specificați parametrii discului (Parametrii discului). Lista derulantă va afișa toate resursele de disc fizic pe care le poate gestiona serviciul cluster.

Vă rugăm să rețineți că acest serviciu poate gestiona doar discuri de bază, nu discuri dinamice, iar toate partițiile acestui disc utilizate de serviciul cluster trebuie să fie formatate ca NTFS.

După ce ați specificat unitatea, faceți clic pe butonul „Finish” pentru a crea această resursă.

Al treilea pe listă trebuie să creăm o resursă de tip Adresă IP.

Prin analogie cu secțiunea anterioară, selectați elementul „Resurse” din grupul nostru, apoi „Nou”. Indicăm tipul de resursă – Adresă IP, apoi – posibili proprietari.

În fereastra următoare, Dependențe, ar trebui să apară resursa de disc fizic pe care am creat-o deja. Dar nu este nevoie să-l selectați, deoarece în acest caz nu există nicio dependență.

Pe pagina următoare trebuie să specificați setările pentru adresa IP. Apoi faceți clic pe „Terminare”.

Să creăm o resursă de tip Network Name. Pentru a face acest lucru, trebuie să repetați toți pașii pe care i-am efectuat anterior pentru alte tipuri de resurse.

Dar, în secțiunea Dependențe, acum trebuie să specificați dependența de resursa Adresă IP.

Să trecem la etapa finală în crearea resursei cluster File Share.

Să repetăm ​​toți aceiași pași, dar când specificați Dependențe, trebuie să selectați toate cele trei elemente ale listei.

În secțiunea Avansat, puteți specifica dacă să ascundeți resursele-subdirectoare partajate.

Resursa partajată a fost creată.

Rețineți că, în mod implicit, resursa File Share va avea permisiuni numai pentru citire. Puteți modifica această setare în fereastra File Share Parameters.

Deci, am obținut o resursă tolerantă la erori în cluster și, prin urmare, am crescut disponibilitatea resurselor de fișiere folosind clustere Microsoft.

Clustere în realitate virtuală

Recent, mașinile virtuale au devenit din ce în ce mai răspândite.

Mașinile virtuale sunt, de asemenea, extrem de convenabile pentru dezvoltare și testare. diverse sisteme, antrenament și demonstrație.

Aceste proprietăți sunt utile în special atunci când se lucrează cu sisteme cluster, deoarece o implementare hardware cu drepturi depline necesită anumite costuri financiare, adesea considerabile. Și cu ajutorul unui cluster virtual, puteți testa sistemul sau vă puteți pregăti pentru un examen de certificare fără costuri suplimentare.

De exemplu, pentru a implementa un cluster cu două noduri bazat pe VMware, aveam nevoie doar stație de lucru cu 1 GB memorie cu acces aleator. Și fără unități SCSI externe, servere zgomotoase sau alte echipamente.

Deci, dacă sunteți interesat să implementați clustere bazate pe virtual Mașini VMware, atunci recomand să apelezi la articol.

Concluzie

Deci, am implementat un cluster cu două noduri de failover și am instalat resursa partajată File Share.

Cu toate acestea, una dintre cele mai frecvente utilizări ale Microsoft Cluster Services este organizarea clusterelor servere de mail MS Exchange.

În articolul următor voi arunca o privire detaliată asupra procesului de instalare și configurare cu toleranță la erori sistem postal Microsoft Exchange.

  1. Russell C. Microsoft Windows Server 2003. Manualul Administratorului.
  2. Berezhnoy A. Construim o infrastructură de rețea bazată pe VMware Server. //Administrator de sistem, Nr. 3, 2007 – p. 14-18.
  3. Articol despre implementarea unui cluster pe VMware - http://www.rootpermissions.net/Files/MS_Windows_2003_Cluster_on_VMware_GFX_3.rar.

In contact cu

  • Serghei Savenkov

    un fel de recenzie „scurtă”... de parcă s-ar grăbi undeva