You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Copy file name to clipboardExpand all lines: pages/public_cloud/compute/deployment_modes_comparison_resilience_details/guide.en-gb.md
+16-4Lines changed: 16 additions & 4 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -50,6 +50,8 @@ A 1-AZ region is **a single availability zone made up of one or several data cen
50
50
51
51
Services and data are protected against localised incidents thanks to effective internal redundancy, but a major or total breakdown of a data centre could compromise the availability of services. Note that each OVHcloud data centre has redundant power and network supply to avoid those breakdowns.
-**Erasure Coding:** Implements mechanisms such as replication or erasure coding (depending on the service) to ensure continuity in case of hardware failures. Data is distributed across multiple servers and storage units within the availability zone to mitigate the impact of localized issues.
@@ -69,7 +71,7 @@ Services and data are protected against localised incidents thanks to effective
|**Redundancy Type**| Redundancy on the infrastructure side (power, network, and cooling), with local data replication within the zone for resilience. |
74
+
|**Redundancy Type**| Redundancy on the infrastructure side (power, network, and cooling). </br> Local data replication within the zone for resilience. |
73
75
|**Fault Tolerance**| Protects against disk and server failures, but not against total data centre failure. |
74
76
|**Data protection**| Data replicated within the AZ to guarantee local resilience. |
75
77
|**Limits**| No inter-regional or inter-zone protection; dependent on a single AZ. |
@@ -105,8 +107,14 @@ Architecture:
105
107
106
108
#### Infrastructure and Redundancy
107
109
110
+
> [!warning]
111
+
>
112
+
> Deploying instances in a 3AZ configuration requires manual intervention to configure each instance. Ensure that each instance is correctly configured in the respective availability zones to guarantee optimal distribution and redundancy.
113
+
108
114
3-AZ Regions consist of **three independent availability zones**, each with isolated power, cooling, and network systems, providing true fault isolation. This setup ensures service availability even in the event of an entire availability zone failure. The architecture enables the replication of data and services across zones, ensuring that if one zone goes down, the others can continue to serve traffic and maintain application performance.
-**High Availability:** Data remains available for both read and write operations, even in the event of a zone failure. This architecture is ideal for applications requiring fault tolerance, as the data is replicated across all three availability zones. Even in the event of a disruption in one zone, service continuity is maintained.
|**Type of redundancy**|3N with inter-zone replication* and inter-zone data replication for resilience |
134
+
|**Type of redundancy**|Infrastructure redundancy (power, network and cooling) and inter-zone replication*on 3 separate sites using the 3AZ model, guaranteeing increased availability and fault tolerance. </br> Inter-zone data replication for resilience |
127
135
|**Fault tolerance**| Guarantees resilience against the loss of an entire zone, with automatic failover. |
128
136
|**Data protection**| Data replicated synchronously between zones to guarantee continuous availability. |
129
137
|**Limits**| Does not protect against complete regional failure; requires multi-regional architecture for maximum resilience. |
130
138
131
-
***3N with inter-zone replication :**
139
+
***inter-zone replication :**
132
140
133
141
In this architecture, resources are tripled (3N) and distributed between three distinct availability zones (AZ). Data is replicated synchronously between zones, guaranteeing total resilience against the loss of an entire zone thanks to automatic failover. However, this architecture does not protect against a complete regional failure.
134
142
@@ -168,6 +176,8 @@ Local Zones bring OVHcloud services closer to some end users, reducing latency a
168
176
169
177
Each Local Zone operates as a single availability zone with a limited set of services, making it ideal for scenarios where latency is a priority, but multi-AZ redundancy is not essential.
-**Reduced latency:** Local Zones ensure fast response times to users close to them, ideal for real-time applications such as online gaming or video conferencing.
@@ -184,11 +194,13 @@ Each Local Zone operates as a single availability zone with a limited set of ser
|**Type of redundancy**| Redundancy on the infrastructure side (power, network, and cooling), with local data replication within the zone for resilience. |
197
+
|**Type of redundancy**| Redundancy on the infrastructure side (power, network, and cooling). </br> Local data replication within the zone for resilience. |
188
198
|**Fault tolerance**| Guarantees continuity of operations in the event of a disk or server failure within the zone, but does not protect against a total failure of the availability zone. |
189
199
|**Data protection**| Data replicated in the zone to guarantee local availability. |
190
200
|**Limits**| No protection against global or regional failures, dependent on a single Local Zone. |
191
201
202
+
<!-- schema -->
203
+
192
204
#### Scaling
193
205
194
206
In Local Zones, scaling is designed to meet the demands of low-latency applications while being restricted to a single availability zone. Here’s how scaling is structured:
Copy file name to clipboardExpand all lines: pages/public_cloud/compute/deployment_modes_comparison_resilience_details/guide.fr-fr.md
+19-5Lines changed: 19 additions & 5 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -50,6 +50,8 @@ Une région 1-AZ consiste en **une zone de disponibilité unique composée de un
50
50
51
51
Les services et les données sont protégés contre les incidents localisés grâce à une redondance interne efficace, mais une panne majeure ou totale d'un centre de données pourrait compromettre la disponibilité des services. Notez que chaque centre de données OVHcloud dispose d'une alimentation électrique et d'un réseau redondants pour éviter ces pannes.
-**Erasure Coding :** met en œuvre des mécanismes tels que la réplication ou l'*erasure coding* (en fonction du service) pour assurer la continuité en cas de défaillance matérielle. Les données sont réparties sur plusieurs serveurs et unités de stockage au sein de la zone de disponibilité afin d'atténuer l'impact de problèmes localisés.
@@ -69,7 +71,7 @@ Les services et les données sont protégés contre les incidents localisés gr
|**Type de redondance**| Redondance au niveau de l'infrastructure (alimentation, réseau et refroidissement) et réplication locale des données à l'intérieur de la zone pour assurer la résilience. |
74
+
|**Type de redondance**| Redondance au niveau de l'infrastructure (alimentation, réseau et refroidissement). </br> Réplication locale des données à l'intérieur de la zone pour assurer la résilience. |
73
75
|**Tolérance aux pannes**| Protège contre les pannes de disques et de serveurs, mais pas contre une panne totale d'un centre de données. |
74
76
|**Protection des données**| Données répliquées à l'intérieur de l'AZ pour garantir la résilience locale. |
75
77
|**Limites**| Pas de protection inter-régions ou inter-Zones ; dépend d'une seule AZ. |
@@ -101,12 +103,18 @@ Architecture:
101
103
102
104
///
103
105
104
-
### Région 3-AZ
106
+
### Région 3-
105
107
106
108
#### Infrastructure et redondance
107
109
110
+
> [!warning]
111
+
>
112
+
> Le déploiement d'instances dans une configuration 3AZ nécessite une intervention manuelle pour la configuration de chaque instance. Assurez-vous de configurer correctement chaque instance dans les zones de disponibilité respectives pour garantir une répartition et une redondance optimales.
113
+
108
114
La Région 3-AZ consiste en **trois zones de disponibilité indépendantes**, chacune avec des systèmes d'alimentation, de refroidissement et de réseau isolés, ce qui permet une véritable isolation des pannes. Cette configuration garantit la disponibilité des services même en cas de défaillance de l'ensemble de la zone de disponibilité. L'architecture permet la réplication des données et des services entre les zones, ce qui garantit que si une zone tombe en panne, les autres peuvent continuer à desservir le trafic et à maintenir la performance de l'application.
-**Haute disponibilité :** Les données restent disponibles pour les opérations de lecture et d'écriture, même en cas de défaillance d'une zone. Cette architecture est idéale pour les applications nécessitant une tolérance aux pannes, car les données sont répliquées dans les trois zones de disponibilité. Même en cas d'interruption dans une zone, la continuité du service est maintenue.
@@ -123,12 +131,14 @@ La Région 3-AZ consiste en **trois zones de disponibilité indépendantes**, ch
|**Type de redondance**|3N avec réplication inter-zone*et réplication des données inter-zone pour la résilience|
134
+
|**Type de redondance**|Redondance au niveau de l'infrastructure (alimentation, réseau et refroidissement) et réplication inter-zones* sur 3 sites distincts selon le modèle 3AZ, garantissant une disponibilité accrue et une tolérance aux pannes. </br> Réplication des données inter-zone pour la résilience.|
127
135
|**Tolérance aux pannes**| Garantit la résilience contre la perte d'une zone entière, avec basculement automatique. |
128
136
|**Protection des données**| Données répliquées de manière synchrone entre les zones pour garantir leur disponibilité continue. |
129
137
|**Limites**| Ne protège pas contre une panne complète de la région ; nécessite une architecture multirégionale pour une résilience maximale. |
130
138
131
-
***3N avec réplication inter-zones** :
139
+
<!-- schema -->
140
+
141
+
***réplication inter-zones** :
132
142
133
143
Dans cette architecture, les ressources sont triplées (3N) et réparties entre trois zones de disponibilité (AZ) distinctes. Les données sont répliquées de manière synchrone entre les zones, garantissant une résilience totale contre la perte d'une zone entière grâce au basculement automatique. Cependant, cette architecture ne protège pas contre une panne régionale complète.
134
144
@@ -168,6 +178,8 @@ Les Local Zones rapprochent les services OVHcloud de certains utilisateurs finau
168
178
169
179
Chaque Local Zone fonctionne comme une zone de disponibilité unique avec un ensemble limité de services., ce qui la rend idéale pour les scénarios où la latence est une priorité, mais où une redondance multi-AZ n'est pas essentielle.
-**Réduction de la latence :** Les Local Zones garantissent des temps de réponse rapides aux utilisateurs qui en sont proches, ce qui est idéal pour les applications en temps réel telles que les jeux en ligne ou les vidéoconférences.
@@ -184,11 +196,13 @@ Chaque Local Zone fonctionne comme une zone de disponibilité unique avec un ens
|**Type de redondance**| Redondance au niveau de l'infrastructure (alimentation, réseau et refroidissement) et réplication locale des données à l'intérieur de la zone pour assurer la résilience. |
199
+
|**Type de redondance**| Redondance au niveau de l'infrastructure (alimentation, réseau et refroidissement). </br> Réplication locale des données à l'intérieur de la zone pour assurer la résilience. |
188
200
|**Tolérance aux pannes**| Garantit la continuité des opérations en cas de panne de disque ou de serveur au sein de la zone, mais ne protège pas contre une panne totale de la zone de disponibilité. |
189
201
|**Protection des données**| Données répliquées dans la zone pour garantir leur disponibilité locale. |
190
202
|**Limites**| Pas de protection contre les pannes globales ou régionales, dépend d’une seule Local Zone. |
191
203
204
+
<!-- schema -->
205
+
192
206
#### Mise à l'échelle
193
207
194
208
Dans les Local Zones, la mise à l'échelle est conçue pour répondre aux exigences des applications à faible latence tout en étant limitée à une seule zone de disponibilité. Voici comment la mise à l'échelle est structurée :
0 commit comments