0% ont trouvé ce document utile (0 vote)
22 vues49 pages

Storage Area Networks (2010)

Transféré par

Fabrice Dève
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PPT, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
22 vues49 pages

Storage Area Networks (2010)

Transféré par

Fabrice Dève
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PPT, PDF, TXT ou lisez en ligne sur Scribd

Réseaux de stockage,

Datacenter Ethernet et

Cloud Computing privé


Fabrice Dève
Direction des Services
Informatiques
Architecture Technique
ATTICA Groupe Crédit Agricole

- - page 1
Sommaire
Sommaire

1. Pourquoi sécuriser son système d’information ?


2. Focus sur l’architecture des réseaux de stockage
3. Les évolutions technologiques du SAN
4. Continuité d’activité informatique : éléments
d’architecture

- - page 2
Coûts d’indisponibilité d’un Système d’Information
(SI)

Notion clés de disponibilité des environnements informatiques et de continuité


de service

Le coût lié à l’indisponibilité du SI dépend de l’activité de l’entreprise et de la


durée d’indisponibilité :
Business Segment Average Hourly Impact
Brokerage operations Finance $6,450,000
Credit card/sales Finance $2,600,000
Pay-per-view Media $150,000
Coût_entreprise = [(T0+Td) x (Hr+Lr)] x N
T0 : temps d`indisponibilité
Home shopping Retail $113,000
Td : intervalle de temps entre la panne et le dernier Back Up
Catalogue sales Retail $90,000
Hr : coût horaire des employés impactés par l`arrêt de production
Airline reservations Transportation $90,000 Lr : perte de revenu par heure d`interruption
Phone Billing Communications $41,000 N : nombre d`occurrences
Tele-ticket sales Media $69,000
Package-shipping Transportation $28,000
ATM fees Finance $14,500
Source: FCIA

Continuité : certaines entreprises sont très sensibles à la perte de données


2 notions importantes sur les engagements de services de production :
–DIMA : Durée Maximale d’Indisponibilité Autorisée
–PDMA : Perte de Données Maximale Autorisée
La continuité repose avant tout sur les processus d’organisation autour d’une
crise
La disponibilité repose surtout sur les architectures et les techniques haute
disponibilité
Processus de gestion de la continuité d’activité. DIMA-

PDMA
Gestion de
la crise

Dernière Solution de Reprise


Sauvegarde

Cellule Activation Activation


Niveau d'activité

Opérations
de Crise Technique Fonctionnelle Continuité de l'activité métier

Applications
Moyens de Matériel Données
reprise Système
retenue Temps
0

Décision
Reprise
d'Activité
Sinistre informatique

Données T = Temps de Reprise Reprise progressive


perdues DIMA - RTO (ressaisie...)
PDMA - RPO

PDMA : Perte de Données Maximale Autorisée DIMA : Durée d’Indisponibilité Maximale Autorisée
RPO : Recovery Point Objective RTO : Recovery Time Objective
Site de production informatique : 4

composants

Réseaux d’accès IP

Couche Télécom
(WAN)

Couche Accès
(LAN L4-L7)

Couche Application
(LAN L3)

Couche
données/stockage
(SAN)
- - page 5
Stocker pour rationaliser les dépenses

informatiques
 Pour rationaliser les dépenses informatiques des entreprises :
 Entre +30% et +50% de données supplémentaires chaque année recensées
sur les serveurs des entreprises US et Européennes
 Budget informatique des entreprises stable
 Il faut rationaliser les ressources de stockage:
– centraliser le stockage pour mieux gérer les besoins,
– classer les données,
– les protéger au regard de leur criticité
– notion de cycle de vie de l’information
Réservation d’un espace Libération de l’espace
Génération de données de stockage sur disque de stockage sur disque

Écriture

Classification des données par Sécurisation des données selon


Serveur informatique
type d’application par ex. classification :
- critique : données métiers,… - Réplication + cont. cohérence
- importante : emails,... - Réplication
Baie de disques
- peu importante : publicité,... - Rien

Recherche des données Archivage sur bande


Vie des données Bande magnétique
non modifiées depuis 1 et conservation
Lecture : 80% du temps an ou plus

Écriture : 20% du temps Écriture


- - page 6
Sommaire
Sommaire

1. Pourquoi sécuriser son système d’information ?


2. Focus sur l’architecture des réseaux de stockage
3. Les évolutions technologiques du SAN
4. Continuité d’activité informatique : éléments
d’architecture

- - page 7
Les 3 architectures de stockage

DAS/SAS NAS SAN

Application Application Application


Écriture / Lecture
de fichiers
Écriture / Lecture
Écriture / Lecture
de fichiers
de fichiers Réseaux
de données Système de gestion
de fichiers
Système de gestion
de fichiers
Système de gestion
de fichiers Écriture / Lecture Réseaux
de blocs de données
Écriture / Lecture de stockage
de blocs de données
Écriture / Lecture
de blocs de données

Disque Disque Disque


de stockage de stockage de stockage

- - page 8
Comparaison des architectures de

stockage
Caractéristiques DAS – Direct Attached Storage NAS - Network Attached Storage SAN - Storage Area Networks

Le NAS est un système de stockage en


Le DAS ou (SAS pour Server Attached Le SAN est un mode de stockage en
réseau connecté au LAN de
Storage) est le système le plus ancien réseau offrant le transport des
l’entreprise. Accessible via le LAN ou
et le plus répandu. Les serveurs protocoles de stockage natifs depuis
le WAN, le NAS se base sur un
disposent d’accès directs et dédiés en les serveurs jusqu’aux systèmes de
Définition SCSI ou en FC vers le système de
système de gestion des fichiers en
stockage. Ce réseau est basé
réseau (NFS pour UNIX, et CIFS pour
stockage : disques, baies de disque, généralement sur la technologie
Windows) implémenté au niveau du
bandes… Le système de stockage est Fibre Channel implémentée sur des
serveur et au niveau du système de
lié localement à un seul serveur. réseaux fibre optique dédiés.
stockage.
Haute Faible Moyen Bon
Indisponibilité des ressources de Indisponibilité des ressources de Adapté aux configuration HA et aux
disponibilité / stockage => indisponibilité des stockage => indisponibilité des plans de secours grâce à la technologie
Plan de secours données. données. FC.
Faible Moyen
Bon
Sauvegarde en local. Sauvegarde centralisée.
Sauvegarde Réplication complexe à mettre en Réplication via les réseaux IP
Sauvegarde centralisée et flexible
Réplication via le réseau FO/FC
place. LAN/WAN.
Bon
Bon
Partage des Faible Partage de ressource de stockage
Dépend du système de gestion de
données Peu flexible indépendant du système de gestion
fichier mais largement compatible
des fichiers
Faible Bon
Moyen
Limitée et non transparente. Augmentation de capacité,
Capacité Augmentation de capacité possible à
Interruption du service et remplacement ou reconfiguration des
d’évolution des coûts raisonnables.
reconfiguration. systèmes de stockage pouvant être
Suspension du service .
Évolution difficile et coûteuse. transparents.
Faible
Bon Moyen
Gestion / Nécessité de mise en place de
Facile à mettre en œuvre et à Administration centralisée, mais
exploitation plusieurs outils pour la gestion des
maintenir. nécessite des profils.
différents systèmes
- - page 9
Éléments constitutifs d’un SAN

Envoi des données


 Serveurs informatiques
 héberge les applications et les bases de données SCSI
informatiques
 Plusieurs types d’environnement de serveurs :
Mainframe (zOS), UNIX, Windows/Linux Requête de données
 Utilisation de SCSI (Small Computer System Serveur Baie de
Interface) pour le transit des données entre informatique stockage
serveur et disque

 Host Bus
HBA (Host Bus Adapter) : SCSI -> FC Adapter
SCSI FC
 Baies de stockage
 Disques SATA, SCSI/FC et SSD (Tiering)
– SSD : 256Go D> 25m
– FC : 450Go
– SATA : 1To
 Partitionnement logiques des unités de stockage
physique : meta, LUN Mémoire tampon
 Plusieurs dizaines de ports FC ou FICON

FC SSD
 Temps d’accès rapide :
– Mémoire tampon : 100ns
– Disque : quelques 10ms-0.1ms
 Utilisation du RAID : capacité, temps de réponse, Disques (RAID)

SATA
fiabilité Baie de
 Protocole de réplication de données inter baie : stockage
synchrone et asynchrone Disques secours

- - page 10
Éléments constitutifs d’un SAN

 Bibliothèques d’archivage SCSI/FC


 Robots de sauvegarde
 Bandes magnétiques (jusqu’à 2To/bande)
 Capacité : 1000+ bandes Bibliothèque d’archivage
 Temps accès important (mn) SCSI/FC
 Problématique de conservation de la
donnée intègre
 Disponibilité faible (mécanique) : 1 panne
/ semaine en moyenne

 Switch Fibre Channel


 Relie plusieurs périphériques aux
serveurs
 Garantit une bande passante identique
pour chaque brin FC 1Gbs FC 2 Gbs
 Permet plusieurs communications en FC
parallèle sur chaque brin
 Ex : commutateur Fiber Channel ou
Directeurs ESCON/FICON de 8 à 512 ports

- - page 11
Fonctionnement des serveurs en «Boot on
SAN»

 Principe :
 Les serveurs ne possèdent aucun disque en propre
– L’OS, les applications et les données se trouvent sur les baies de disques derrière le SAN

 Les disques sont localisés dans la baie de stockage


– Les disques physiques sont découpés en blocs logiques appelés « Meta » : 2Go, 10Go, 20Go, 40Go
– Les métas sont répartis sur plusieurs disques physiques pour améliorer les temps d’accès aux données
– On alloue aux serveurs une/des LUNs (Logical Unit Number) composé(s) de Metas
– Des ports FC dit « storage ports » connectent la baie au SAN
– On masque les LUN du port de stockage n’appartenant pas au serveur pour éviter toute écriture (Windows) :
masking

 La connectivité serveur-disque est externe : transit par le SAN


– On définit un « chemin » logique entre HBA et port de stockage de la baie (mapping de leur WWN) : Zoning
– Il est courant dans le SAN de les ressources de stockage par 2 chemins (multi path) : fonction gérée au
niveau du HBA

Mémoire tampon
Host Bus

Meta
FC SSD
Adapter Storage ports
SCSI FC FC
SAN
Disques (RAID) LUN
SATA
Baie de
stockage Disques secours
Fonctionnement des serveurs en « Boot on

SAN »

 Bénéfices :
 Le Boot on SAN permet une gestion centralisée du stockage en
proposant des services de stockage différenciés
– Des classes de performances au niveau stockage (LUN) : utilisation du tiering
disques Rapide (SSD), moyen (FC) « lent » (SATA) avec déplacement des données à
chaud à partir de définition de « policies »
– Permet de gérer des classes de réplication de données au niveau des applications

LUN masqués LUN


Host Bus Storage
Adapter ports
SCSI FC FC
WWN1 ZoningSAN WWN2

« Storage devices » cachés par le zoning


Les protocoles du SAN
SCSI : Small Computer System Interface

 Protocole standard d ’échange d ’information des serveurs


 permet le transfert de données en blocs : I/O
– Accès aux données
– Lecture des données
– Ecriture des données

 Interface
 électrique
 bus parallèle (8 ou 16 bits)

 Performances limitées :
 distance limite : 25 m
 débit : de 5 Mo/s (SCSI-1) à 640 Mo/s (Ultra SCSI 640) et +

 Connexions locales : nécessité d ’encapsulation pour une


transmission distante

- - page 15
Les protocoles du SAN
Le Fibre Channel

 Protocole réseau de transmission dans le SAN le plus


répandu
 Il permet :
 une grande fiabilité
 des extensions faciles
 une faible latence
 un throughput important
 un contrôle d ’erreurs sur tout le lien
 Un TEB faible (< 10-12 idem SDH) grâce à un transport sur fibre
optique

 L’utilisation du Fibre Channel avec le SCSI comme protocole


pour la couche supérieure permet par rapport au SCSI
traditionnel:
 Des débits plus importants (1Gbs, 2Gbs, 4Gbs et 10Gbs)
 Plus de connexions entre les systèmes
 Des distances plus importantes entre les équipements

- - page 16
Les protocoles du SAN
Le Fibre Channel

 trames de 36 à 2148 octets


 Utilisation de World Wide Name (équivalent aux adresses
MAC en Ethernet) unique
 Remarque : la trame Gigabit Ethernet ainsi que les Switch
Ethernet sont issus des travaux de normalisation FC et des
Switch FC

- - page 17
Les protocoles du SAN
Le Fibre Channel : buffer credit

 Protocoles de transmission de données avec contrôle et


reprise sur erreur : notion de « Buffer_Credit »
 Les ports indiquent le nombre de trames maximum qu’ils peuvent
recevoir sans envoyer d’acquittement
 Ce mécanisme permet de ne pas perdre de trame en cas de
congestion
 Le port voisin enregistre cette valeur : le « BB_credit »
 Permet d’augmenter le « throughput réseau »
 Sur chaque port, un compteur BB_Credit_CNT est incrémenté
de 1 pour chaque trame transmise, décrémenté pour un
R_RDY reçu,
 Si BB_Credit_CNT= BB_credit alors le port concerné ne peut pas
transmettre de nouvelles trames avant d ’avoir reçus un R_RDY
Peut Peut
recevoir recevoir
4 trames A B 8 trames

BB_credit = 8 BB_credit = 4
- - page 18
Sécurisation des données
3 risques à couvrir

 Les mécanismes RAID sont généralement utilisés pour


sécuriser localement les données  protection contre
une panne disque

 La réplication de données est généralement utilisée


pour sécuriser les données à distance  protection
contre un sinistre

 La sauvegarde est utilisée pour sécuriser les données


dans le temps redémarrer de manière cohérente
l’activité informatique, se prémunir d’erreurs humaines,
de corruption des données (virus)
 Externalisation de K7 (robot) et transport vers un site
distant
 Utilisation de K7 virtuelles (Virtual Tape Library)
transmises sur lien Télécom sur un site distant- -:page 19
La technique RAID
Redundant Array of Independant Disks

RAID 0
 RAID O : agrégation de volumes par
bandes A1 A2
 Répartition des données sur plusieurs Donnée de 4Mo répartie en A3 A4
disques par bande de tailles égales. 8 bandes (A1,A2,…,A8) de A5 A6
 Capacité accrue (nxc), temps de réponse
performant(lecture/écriture de 1/n de
512ko A7 A8

données), pas de fiabilité


RAID 1
 RAID 1 : mirorring de disque
 Réplication des données d’un disque sur A1 A1
Disque 1 Disque 2
les (n-1) autres disques de la grappe Donnée de 4Mo répartie en A2 A2
 Capacité égale à celle du plus petit A3 A3
disque de la grappe (Min(c)), temps de
8 bandes (A1,A2,…,A8) de A4 A4
réponse normal, fiabilité accrue puisque 512ko dupliquées A5 A5
supporte la défaillance de (n-1) disques A6 A6
 Coût pouvant être élevé si n >3 A7 A7
A8 A8

 RAID 5 : volumes agrégés par bandes à Disque 1 Disque 2


parité répartie RAID 5
 Combine le RAID 0 avec un calcul de
parité incluse à chaque écriture et Donnée de 4Mo répartie
A1 A2 A1 XOR A2
répartie circulairement sur les n disques.
Cela nécessite au minimum 3 disques A3 A3 XOR A4 A4 en 12 bandes de 512ko
 Capacité accrue (n-1)xc, temps de A5 XOR A6 A5 A6
avec 1/3 de calcul de
réponse plus long en écriture (calcul de la A7 A8 A7 XOR A8

parité), supporte la défaillance d’1 disque parité


 Coût peu important. Très utilisé dans les
architectures de stockage

Disque 1 Disque 2 Disque 3 - - page 20


Réplication de données
L’impact de la distance sur les technologies de réplication

- - page 21
Divers modes de réplication des

données

- - page 22
Cinématique du stockage des données

dans le SAN 1

Console / PC Bloc de données de 8kO


LAN
FC
FC
Switch Fiber Channel Ethernet
SCSI SCSI
2
Serveur informatique Fiber Channel Fiber Channel
Fiber Channel
/ Main Frame
Fiber Channel
SAN
Baie de disques 3
FC FC

Transaction FC
REQ Write, disque 1, data 8kO
SEND
Bande magnétique R_RDY
4 5 6 Write ACK

Transaction SCSI
 Un utilisateur travaille depuis son poste sur une application
1 fonctionnant depuis le serveur informatique SEND2kO SEND data 8kO
 Des données sont générées par l’application SEND2kO
2  activation d’un protocole de copie : ex. SCSI SEND2kO
 Les données sont acheminées dans un réseau SAN SEND2kO
3  réseau hautement redondé et reroutage sur panne ou coupure
 taux d ’erreur binaire très faible et latence faible
 repose sur des protocoles orientés connexion avec reprise sur
erreurs ACK data 8kO
 Les données sont stockées sur disque

4 pour les données sensibles, il y a réplication sur une 2ième
baie de disque
SHUTDOWN circuit

5 Sauvegarde des données cyclique (semaine,mois)

6
t t t
- - page 23
Sommaire
Sommaire

1. Pourquoi sécuriser son système d’information ?


2. Focus sur l’architecture des réseaux de stockage
3. Les évolutions technologiques du SAN
4. Continuité d’activité informatique : éléments
d’architecture

- - page 24
Les évolutions technologiques du

SAN
 Evolution du SAN Fibre Channel :
 Virtualisation des SAN
 Consolidation des SAN
 Répartition géographique des SAN

 Evolution du SAN sur IP et sur


Ethernet
 Le SAN IP pour les PME/PMI
 Convergence des réseaux LAN et SAN :
Datacenter Ethernet

 Vers le Cloud Computing interne


 Mobilité/Agilité des serveurs et des données
dans le datacenter : IaaS, PaaS, SaaS
Virtualisation du Stockage
Utilisation des VSANs

Application / Ilots SAN (par type OS) Switch VSAN


“capable”
Z/OS (FICON)
FICON VSAN
Mainframe
Applications FICON
Channel
Z-oS
Mainframe VSAN VSAN
FICON Storage Structure de
stockage
Unix commune
VSAN parmi les
FC VSANs

Applications UNIX
Fibre VSAN VSAN
Channel
Mainframe Linux/NT
FC Storage
VSAN
Agrégation de liens physiques

FC
Applications • Compartimentage “logiques” des environnements
Linux/Windows Fibre
Channel
informatiques hétérogènes
Open
FC Systems • De même, possibilité de compartimenter les
Storage environnements de test de recette et de production
• Aggregation de N liens physiques d’interconnexion en 1
• SAN dédié à chaque environnement informatique lien logique :
• bande passante globale non optimisée •Cf aggregation de lien Ethernet (802.3ad)
• Gestion du SAN complexe (nombre de Switch) •Rééquilibrage de la charge en cas de
- -perte d’un lien
page 26
Virtualisation du Stockage
Consolidation des SAN et gestion de la congestion

1er cas : gestion de la congestion de


bout en bout
FCC régule le trafic pour anticiper Lien congestionné
l’apparition de congestion dans due à une surcharge
de données vers la
le réseau SAN : destination

 Analogue à la prévention de
congestion dans le LAN Ethernet Les messages FCC sont
envoyés périodiquement vers
avec les trames 802.3x (pause l’hôte source de surcharge
frame) pour lui indiqué une
congestion

 Le switch envoie des messages de


congestion vers la source causant
la congestion

 Les sources de congestion


réagissent en diminuant le nombre
Le trafic en Bleu traffic is
de R_RDY (buffer credits) est ralenti en réduisant le
Le trafic en Rouge n’est
pas affecté par les
nombre de réponses messages FCC
R_RDY

- - page 27
Virtualisation du Stockage
Consolidation des SAN et gestion de la congestion

 Bande
2nd cas : gestion de la congestion dans VSAN_1
le SAN par mise en oeuvre de QoS au
sein de chaque noeud
QOS QOS
 La QoS devient nécessaire dès que
l’on mutualise différents
environnements sur une même
infrastructure de réseau
 Comme sur les réseaux IP (LAN, VPN)
 Par exemple priorisation de flux de QOS QOS
réplication entre baies de disques (faible
volumes de données mais sensible à la
latence) devant un flux de sauvegarde
sur bande magnétique (volumes de
données importantes pas sensible à laRéplication synchrone
VSAN_2
latence)
PQ
 Niveaux de QoS ajustables : Transmit
WRR 2 Queue
 QoS par VSAN
Classify
 QoS par couple source/destination( paire WRR 3
WWN)
 QoS par port source physique WRR 4

Fibre Channel
Port Ingress - - page 28
Extension géographique du SAN
Choix de la technologie opérateur

 Utiliser des ressources distantes pour Clustering


augmenter la disponibilité des Réseau de
applications transport

 Interconnexion des sites sur réseau


opérateurs :
 IP (MPLS) Réplication / Mirroring
 Ethernet (MPLS)
 SDH Réseau de
 WDM transport

 Interconnexion directe des éléments de


l’architecture informatique ou au travers Back Up sur bande
de Switch FC (SAN)
 Mise en œuvre de mécanismes
d’encryption, compression, déduplication Réseau de
pour assurer la confidentialités des transport
données et l’utilisation optimale de bande
passante  installation de passerelles
SAN-WAN
- - page 29
Extension géographique du SAN
Performances FC sur les longues distances

 Le protocole Fiber Channel FC FC FC FC FC


implémente des mécanismes de BB-
Credit (Buffer to Buffer Credit) REQ
permettant de maintenir un débit REQ ACK
important sur de longues distances : DATA
 pour une transmission FC 1Gbs, 1 BB- ACK
Credit pour 2km de transmission I/O End

 Règle de calcul du débit FC (pour FC


1Gbs)

 T_1G_100%= 2 BB/km
 T_2G_100%= 1 BB/km
 T_4G_100%= 0,5 BB/km
 Etc…

- - page 30
Les évolutions du SAN : stockage sur IP

 Le stockage sur IP a pour ambition de :


 De consolider les ressources SAN
 Mutualiser les réseaux LAN et SAN (ou a minima
l’administration des 2 infrastructures réseaux)
 D’interconnecter ces réseaux sur WAN IP

 Cela permettra de rendre accessible le stockage de


données aux PME/PMI :
 Commutateur IP+iSCSI
 Stockage sur disque dur
 Connectivité LAN
 Administration IP
 Coût modeste
 Les flux de stockage peuvent être transportés dans une
offre de VNP IP

 Cisco et IBM ont noué un partenariat début 2003


visant à développer l’iSCSI
 Cisco MDS95xx
 IBM MainFrame TotalStorage 200i

 Le stockage sur IP se substitue au stockage classique


au prix d’une haute disponibilité dans le LAN et une
gestion stricte de la QoS:
 Redondance des équipements LAN
 Mise en œuvre d’une sécurisation rapide (RSTP, VRRP)
 Mise en place d’une QoS (DiffServ) et suivi des
performances
- - page 31
Les évolutions du SAN : stockage sur IP
Evolutions protocolaires

 Les protocoles de stockage classiques :  Les protocoles de stockage sur IP

 Fibre Channel : est un protocole standard  iSCSI (SCSI / IP) est un standard (ratifié par l’IETF
développé spécifiquement pour les besoins début 2003)
du stockage (1994). – Objectif : transport des CDBs (Command Data
– Objectif : interconnexion des systèmes Blocks ) et les données SCSI dans des
de stockage autour d’un réseau SAN connexions TCP/IP (Ethernet).
– Débit de 133 Mbit/s à 10 Gbit/s.

 FICON : (Fibre Channel Connectivity) est un  FCIP (FC / IP) est un protocole standardisé
protocole standard développé par IBM en (ratifié IETF début 2004)
1998.
– Objectif : transport des trames Fibre Channel
– Objectif : le rapprochement entre le FC et dans des connexions TCP/IP.
l’ESCON.
– Débit : jusqu’à 10 Gbit/s.

 Les interfaces de transport sont soit


Fiber Channel, soit FICON
 Les interfaces de transport sont Ethernet
(GbE 10GE)
 Le transport TCP affranchit la problématique
de Throughput sur les longues distances
(TCP Windows Transmit)

- - page 32
Stockage sur IP : FCIP et iSCSI
les usages

iS
S I CS
C I
iS Réseau IP

SAN (Fibre
SAN (Fibre FCIP Channel)
Channel)

• Transport de données pour la réplication synchrone ou asynchrone


• routage inter-SAN,
• Compression (5:1)
• Encryption (IPSEC)
• Accélérateur d’écriture des données pour du stockage sur bande à
distance

 iSCSI: Connexion Hôte vers appareil de stockage


sur IP
 FCIP: Connexion SAN-à-SAN sur IP - - page 33
Datacenter Ethernet
Constat

 On entre dans une phase d’importante de


regroupement des Datacenters
 Une migration massive des applications du socle MVS vers
le monde OPEN (Unix, Linux, Windows)  des centaines
voire des milliers de serveurs à connecter sur le réseau
LAN SAN
 Problème d’alimentation électrique et dissipation
thermique
 Des réseaux LAN et SAN utilisant des protocoles
différents, sur des infrastructures différentes, avec des
débits différents et une connectique différente
 Une administration LAN SAN distincte

 La convergence LAN/SAN doit s’envisager


 La convergence sur Ethernet apporte de nombreuses
simplifications au niveau LAN
 Elle répond conformément aux besoins du SAN en
s’affranchissant de la complexité de iSCSI
Data Center Ethernet
vers une convergence Ethernet LAN et FC

 Objectif : simplifier le transport des I/O sur une


infrastructure unique
 Transporter SCSI/FC sur un réseau Ethernet « LossLess » haut
débit
 S’affranchir de passerelle iSCSI/SCSI

- - page 35
Data Center Ethernet
vers une convergence Ethernet LAN et FC

 Comment ?
 Transporter
Fibre Channel
sur Ethernet
FCoE
 Nouveau format
Jumbo Ethernet
permettant
l’encapsulation
des trames FC
sans
segmentation
 Le débit de
base est le
10GE et demain
le 100GE
 La connectique
est la fibre
- - page 36
Data Center Ethernet
vers une convergence Ethernet LAN et FC

 Comment ?
 En éliminant les risques de congestion
– Congestion locale : Gestion 802.1p des classes de services avec gestion des « Pause
Frames » par classe de service

– Congestion persistante : mécanisme de « Backward Congestion Notification » entre


récepteur et émetteur
– Suppression du STP : pour éviter les pertes de trames liés à une reconfiguration lente du
STP, utilisation de mécanisme dy SPF (Shortest Path First), et permettre d’effectuer du
« MultiPathing » sur l’ensemble des liens Ethernet du LAN

- - page 37
Data Center Ethernet
vers une convergence Ethernet LAN et FC

 Diminuer les interfaces serveurs LAN/SAN


 Simplifier l’administration réseau par une unique
administration Ethernet

- - page 38
Cloud Computing
 Définition :
 Fournir des ressources de traitements informatiques et des
services :
 « à la demande »,
 dimensionnés au plus juste des besoins,
 pour de multiples clients,
 à partir de configurations standardisées, automatisées,
 en s’affranchissant des infrastructures physiques sous jacentes
Bénéfices du Cloud Computer pour les
Datacenters
Cloud Computing interne/privé

 Meilleure utilisation des capacités de stockage de calcul 


virtualisation/consolidation des serveurs et des switchs edge
 Des ratios de 5:1 à 20:1 selon les serveurs lames déployées

 Réduire les cycles d’intégration des nouvelles applications  fournir les


socles techniques en minutes au lieu de semaines
 Standardisation des architectures applicatives : N-tier applicatif : présentation, application,
accès aux données
 Déploiement des serveurs à partir de « repository » technique
 Déploiement des applications à partir de référentiels d’application

 Adapter les capacités de traitement des SI en fonction de la demande


(campagne commerciales, évènementiel)  en minutes au lieu de
semaines
 Utilisation de « Server Load Balancer » sur des fermes de serveurs virtuels « autoscalable »

 Permet de gérer les sinistres informatiques de manière unique 


déplacement à chaud ou programmé des serveurs et des données à
distance, avec une interruption minime
 Migrer du cluster vers de la mobilité de serveurs : notion de « survivabilité »
 Unification du LAN et du SAN : Datacenter Ethernet
 « signalisation » dynamique et configuration des serveurs virtualisés : VN-Link
– Identification (802.1x like) et auto-configuration (QoS,ACL, DAI, DHCP snooping, STP root guard, band
guard, storm control…) des ports LAN et SAN d’un serveur virtualisé qui se « déplace » dans le réseau
(VMotion, Live Partition Mobility)
Architecture Cloud Computing
interne/privé
L’approche VMWare-Cisco-EMC
Sommaire
Sommaire

1. Pourquoi sécuriser son système d’information ?


2. Focus sur l’architecture des réseaux de stockage
3. Les évolutions technologiques du SAN
4. Continuité d’activité informatique : le cas ATTICA

- - page 42
ATTICA « Datacenter » dédié à l’activité
banque-assurance

 Le métier :
 Gestion de la production informatique pour l’ensemble de la filière assurance du Crédit
Agricole et LCL
 Les 3 métiers de l’assurance : personnes, dommages et emprunteurs
 9000 agences bancaires en France et une ouverture vers l’international à terme
 Une activité stratégique pour la filière bancaire

 Les infrastructures informatiques sous jacentes


 Environnements de développement/R7, de pré production, de production, de secours local, de
secours choc extrême
 450 Serveurs informatiques virtuels (Unix, Windows, Linux, zOS)
 2 salles informatiques « miroirs » en cas de besoin de secours local
 1 site distant (700km) de redémarrage en cas de « choc extrême »
 2 baies de disques hébergeant l’intégralité des données serveurs (OS, applications, données
des applications) : 200To
 2 robots pour l’archivage des données et l’externalisation des données : 1000 K7 de 750Go
 1 réseau IP-VPN 2x40Mbs

 Un secteur en forte croissance…


 16%/an de croissance de chiffre d’affaire, le double au niveau des infrastructures techniques
 Serveurs informatiques : +35%/an
 Données : +45% par an
 Télécom : doublement tous les 18 mois

 Nécessitant la mise en œuvre et le maintien d’un Plan de Continuité d’Activité (PCA)


 Environ 7000 €/mn d’indisponibilité sur l’environnement informatique ATTICA
 Définition d’engagement de disponibilité et de continuité de service par application
informatique : DIMA J+3, PDMA 24h
 2 scénarii « catastrophes » couverts
– Secours Local : incident circonscrit à une salle informatique
– Choc Extrême : incident impactant les infrastructures des 2 salles informatiques
- - page 43
Dispositif de continuité d’activité
 Redéploiement des infrastructures serveurs :
 Virtualisation des serveurs systématiques,
 Consolidation sur serveurs lames,
 Dispatching des flux par SLB sur des fermes de serveurs
applicatifs
 Normalisation des «tiers applicatifs » : socle J2EE, MVC sur
container normalisé

 Stockage des données : Boot on SAN systématique

 Sauvegarde PRA: mise en œuvre d’un lien de


réplication asynchrone des données sur le site de choc
extrême. Mise en œuvre de VTL (Virtual Tape Library)
pour effectuer des archivage des données (antériorité
1 an)

 Reroutage Télécom : opéré, au travers d’une offre


« site de reprise à froid »
- - page 44
Classification des données

Class Usage Taux de


e duplicati
on
(RAID
3:1)
N1 Environnement de test technique 1,33

N2 Env. qualification : test de Back 2,66


Snapshot
Up/Restore
R1 Sync R2
N3 Env. développement 2,66

R1 Sync R2 R3
Async
N4 Env. production 8
Snapshot Snapshot Snapshot

- - page 45
Fonctionnement des serveurs en « Boot on
SAN »
Réponse aux sinistres locaux

 Bénéfices :
 Le Boot on SAN permet de faciliter la continuité d’activité en cas de
sinistre
 Exemple de cluster OS actif-passif (AIX power HA) :
– 2 serveurs de même puissance CPU et RAM sur 2 salles distantes (quelques 100m  1000km
– 2 adresses IP physiques et une VIPA gérée par le maitre
– Un cluster System de fichiers (GPFS) étendu sur les 2 serveurs
– Un ensemble de script supervisant les processus systèmes des serveurs et orchestrant la bascule en cas de
défaut
– Au niveau stockage chaque2serveur voit ses Luns dont les données sont synchronisées au niveau des baies de
disque N W
W W
N3
W GbE (heartbeat)
g Zo
n n
ni in
g
Zo
W
N1 LUN W
N4
LUN
W SAN
W

Réplication des blocs de données


Mobilité des serveurs et PRA

 VMotion et Long Distance VMotion


Le SAN virtualisé et consolidé

4Gbs FC
Trunk 10Gbs FC VSAN Accès MainFrame
VSAN Accès OPEN
VSAN Accès Baie Mainframe
GTR WAN : 13h  taille buffer Baie ?

VSAN Accès Baie OPEN


20Gbs FC
10Gbs FC VSAN Mirrorring Mainframe
R1 MF R2 MF
VSAN Mirroring OPEN

VSAN Asynchrone OPEN

R1 OPEN Trunk 20Gbs FC VSAN Asynchrone Mainframe


VSAN Asynchrone Secours
Nx4Gbs FC Trunk R2 OPEN

2Gbs Ethernet
FCIP
Compression
Encryption IPSEC

- - page 48
Architecture Informatique multi-sites

Site principal 2 Site redéploiement


Site principal 1 Site choc extrême
utilisateurs

Cache

PE PE
CE

Accès dormant
IP-VPN
(Mbs)

Serveurs
Serveurs N-PE
UNIX/NT N-PE Serveurs
UNIX/NT
Mainframes UNIX/NT
Mainframes
Mainframes
L2 VPN MPLS
(VPWS Gbs)
DWDM
SAN SAN
Network SAN
FC GbE GbE
FC CE Switch
Ethernet GbE
Réplication
synchrone Réplication asynchrone
des données (FC) des données (FCIP)

Stockage& Stockage&
Robotique Robotique - - page 49
Stockage&
Robotique
Architecture Informatique multi-sites
Réponse au choc extrême

Site redéploiement
utilisateurs
serveurs de fichier
Write accelerator Site choc extrême Reprise de de

J+3
Cache applicatifs l’activité par
activation de
l’accès IP-VPN et
LAN

Restauration des
serveurs de
SAN production via
PE PE LAN Boot on SAN
CE
A J : Sites principaux KO

IP-VPN Serveurs
de restauration
(Mbs) remontés en Boot
onSAN
Accès actif
N-PE
N-PE Mainframe
reconnecté sur
SAN et restauré en
L2 VPN MPLS boot on SAN
(VPWS Gbs)
SAN
CE Switch GbE
Ethenret GbE

Stockage&

J+1
Robotique Utilisation des
données
répliquées asynch

- - page 50

Vous aimerez peut-être aussi