You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Copy file name to clipboardExpand all lines: content/fr/docs/concepts/architecture/nodes.md
+1-1Lines changed: 1 addition & 1 deletion
Original file line number
Diff line number
Diff line change
@@ -157,7 +157,7 @@ Dans la plupart des cas, le contrôleur de noeud limite le taux d’expulsion à
157
157
158
158
Le comportement d'éviction de noeud change lorsqu'un noeud d'une zone de disponibilité donnée devient défaillant.
159
159
Le contrôleur de nœud vérifie quel pourcentage de nœuds de la zone est défaillant (la condition NodeReady est ConditionUnknown ou ConditionFalse) en même temps.
160
-
Si la fraction de nœuds défaillant est au moins `--unhealthy-zone-threshold` (valeur par défaut de 0,55), le taux d'expulsion est réduit: si le cluster est petit (c'est-à-dire inférieur ou égal à `--large-cluster-size-threshold` noeuds - valeur par défaut 50) puis les expulsions sont arrêtées, sinon le taux d'expulsion est réduit à `--secondary-node-eviction-rate` (valeur par défaut de 0,01) par seconde.
160
+
Si la fraction de nœuds défaillant est au moins `--unhealthy-zone-threshold` (valeur par défaut de 0,55), le taux d'expulsion est réduit: si le cluster est petit (c'est-à-dire inférieur ou égal à `--large-cluster-size-threshold` noeuds - valeur par défaut 50) puis les expulsions sont arrêtées, sinon le taux d'expulsion est réduit à `--secondary-node-eviction-rate` (valeur par défaut de 0,01) par seconde.
161
161
162
162
Ces stratégies sont implémentées par zone de disponibilité car une zone de disponibilité peut être partitionnée à partir du master, tandis que les autres restent connectées.
163
163
Si votre cluster ne s'étend pas sur plusieurs zones de disponibilité de fournisseur de cloud, il n'existe qu'une seule zone de disponibilité (la totalité du cluster).
Copy file name to clipboardExpand all lines: content/fr/docs/concepts/services-networking/ingress.md
+3-3Lines changed: 3 additions & 3 deletions
Original file line number
Diff line number
Diff line change
@@ -91,7 +91,7 @@ spec:
91
91
number: 80
92
92
```
93
93
94
-
Comme pour toutes les autres ressources Kubernetes, un Ingress (une entrée) a besoin des champs `apiVersion`,` kind` et `metadata`.
94
+
Comme pour toutes les autres ressources Kubernetes, un Ingress (une entrée) a besoin des champs `apiVersion`, `kind` et `metadata`.
95
95
Pour des informations générales sur l'utilisation des fichiers de configuration, voir [déployer des applications](/docs/tasks/run-application/run-stateless-application-deployment/), [configurer des conteneurs](/docs/tasks/configure-pod-container/configure-pod-configmap/), [gestion des ressources](/docs/concepts/cluster-administration/manage-deployment/).
96
96
Ingress utilise fréquemment des annotations pour configurer certaines options en fonction du contrôleur Ingress, dont un exemple
97
97
est l'annotation [rewrite-target](https://github.com/kubernetes/ingress-nginx/blob/master/docs/examples/rewrite/README.md).
@@ -223,7 +223,7 @@ Events:
223
223
Normal ADD 22s loadbalancer-controller default/test
224
224
```
225
225
226
-
Le contrôleur d’Ingress fournit une implémentation spécifique aux load-balancers qui satisfait l'Ingress, tant que les services (`s1`,` s2`) existent.
226
+
Le contrôleur d’Ingress fournit une implémentation spécifique aux load-balancers qui satisfait l'Ingress, tant que les services (`s1`, `s2`) existent.
227
227
Lorsque cela est fait, vous pouvez voir l’adresse du load-balancer sur le champ d'adresse.
228
228
229
229
{{< note >}}
@@ -272,7 +272,7 @@ spec:
272
272
number: 80
273
273
```
274
274
275
-
Si vous créez une ressource Ingress sans aucun hôte défini dans les règles, tout trafic Web à destination de l'adresse IP de votre contrôleur d'Ingress peut être mis en correspondance sans qu'un hôte virtuel basé sur le nom ne soit requis. Par exemple, la ressource Ingress suivante acheminera le trafic demandé pour `first.bar.com` au `service1` `second.foo.com` au `service2`, et à tout trafic à l'adresse IP sans nom d'hôte défini dans la demande (c'est-à-dire sans en-tête de requête présenté) au `service3`.
275
+
Si vous créez une ressource Ingress sans aucun hôte défini dans les règles, tout trafic Web à destination de l'adresse IP de votre contrôleur d'Ingress peut être mis en correspondance sans qu'un hôte virtuel basé sur le nom ne soit requis. Par exemple, la ressource Ingress suivante acheminera le trafic demandé pour `first.bar.com` au `service1`, `second.foo.com` au `service2`, et à tout trafic à l'adresse IP sans nom d'hôte défini dans la demande (c'est-à-dire sans en-tête de requête présenté) au `service3`.
En mode `ipvs`, kube-proxy surveille les Services et Endpoints Kubernetes. kube-proxy appelle l'interface` netlink` pour créer les règles IPVS en conséquence et synchronise périodiquement les règles IPVS avec les Services et Endpoints Kubernetes.
212
+
En mode `ipvs`, kube-proxy surveille les Services et Endpoints Kubernetes. kube-proxy appelle l'interface `netlink` pour créer les règles IPVS en conséquence et synchronise périodiquement les règles IPVS avec les Services et Endpoints Kubernetes.
213
213
Cette boucle de contrôle garantit que l'état IPVS correspond à l'état souhaité.
214
214
Lors de l'accès à un service, IPVS dirige le trafic vers l'un des pods backend.
215
215
@@ -364,11 +364,11 @@ Les valeurs de `Type` et leurs comportements sont:
364
364
Le choix de cette valeur rend le service uniquement accessible à partir du cluster.
365
365
Il s'agit du `ServiceType` par défaut.
366
366
* [`NodePort`](#type-nodeport): Expose le service sur l'IP de chaque nœud sur un port statique (le `NodePort`).
367
-
Un service `ClusterIP`, vers lequel le service` NodePort` est automatiquement créé.
367
+
Un service `ClusterIP`, vers lequel le service `NodePort` est automatiquement créé.
368
368
Vous pourrez contacter le service `NodePort`, depuis l'extérieur du cluster, en demandant `<NodeIP>: <NodePort>`.
369
369
* [`LoadBalancer`](#loadbalancer): Expose le service en externe à l'aide de l'équilibreur de charge d'un fournisseur de cloud.
370
370
Les services `NodePort` et `ClusterIP`, vers lesquels les itinéraires de l'équilibreur de charge externe, sont automatiquement créés.
371
-
* [`ExternalName`](#externalname): Mappe le service au contenu du champ `externalName` (par exemple` foo.bar.example.com`), en renvoyant un enregistrement `CNAME` avec sa valeur.
371
+
* [`ExternalName`](#externalname): Mappe le service au contenu du champ `externalName` (par exemple `foo.bar.example.com`), en renvoyant un enregistrement `CNAME` avec sa valeur.
372
372
Aucun proxy d'aucune sorte n'est mis en place.
373
373
{{< note >}}
374
374
Vous avez besoin de CoreDNS version 1.7 ou supérieure pour utiliser le type `ExternalName`.
Copy file name to clipboardExpand all lines: content/fr/docs/setup/custom-cloud/kops.md
+2-2Lines changed: 2 additions & 2 deletions
Original file line number
Diff line number
Diff line change
@@ -132,7 +132,7 @@ mais aussi `dev.example.com` ou même `example.com`. kops fonctionne avec n'impo
132
132
Supposons que vous utilisiez `dev.example.com` comme zone hébergée. Vous créeriez cette zone hébergée en utilisant la [méthode normal](http://docs.aws.amazon.com/Route53/latest/DeveloperGuide/CreatingNewSubdomain.html), ou avec une ligne de commande telle que `aws route53 create-hosted-zone --name dev.example.com --caller-reference 1`.
133
133
134
134
Vous devrez ensuite configurer vos enregistrements NS dans le domaine parent afin que vous puissiez résoudre dans ce domaine.
135
-
Vous créeriez donc des enregistrements NS dans le domaine `example.com` pour`dev`.
135
+
Vous créeriez donc des enregistrements NS dans le domaine `example.com` pour`dev`.
136
136
S'il s'agit d'un nom de domaine racine, vous devrez configurer les enregistrements NS chez votre hébergeur de nom de domaine (là où vous avez acheté votre nom de domaine `example.com`).
137
137
138
138
Cette étape est délicate, soyez vigilants (c’est la première cause de problèmes !). Vous pouvez vérifier que
@@ -195,7 +195,7 @@ Il applique les modifications que vous avez apportées à la configuration sur v
195
195
196
196
Par exemple, après un `kops edit ig nodes`, puis un `kops update cluster --yes` pour appliquer votre configuration, parfois, vous devrez également exécuter un `kops rolling-update cluster` pour déployer la configuration immédiatement.
197
197
198
-
Sans l'argument `--yes`,`kops update cluster` vous montrera un aperçu de ce qu’il va faire. C'est pratique
198
+
Sans l'argument `--yes`,`kops update cluster` vous montrera un aperçu de ce qu’il va faire. C'est pratique
199
199
pour les clusters de production !
200
200
201
201
### Explorer d'autres composants additionnels (add-ons)
Faites un enregistrement du retour de la commande `kubeadm join` que`kubeadm init` génère. Vous avez
246
+
Faites un enregistrement du retour de la commande `kubeadm join` que`kubeadm init` génère. Vous avez
247
247
besoin de cette commande pour [joindre des noeuds à votre cluster](#join-nodes).
248
248
249
249
Le jeton est utilisé pour l'authentification mutuelle entre le master et les nœuds qui veulent le rejoindre.
@@ -284,7 +284,7 @@ car cela pourrait entraîner des problèmes.
284
284
Si vous constatez une collision entre le réseau de pod de votre plug-in de réseau et certains
285
285
de vos réseaux hôtes,
286
286
vous devriez penser à un remplacement de CIDR approprié et l'utiliser lors de `kubeadm init` avec
287
-
`--pod-network-cidr` et en remplacement du YAML de votre plugin réseau.
287
+
`--pod-network-cidr` et en remplacement du YAML de votre plugin réseau.
288
288
Vous pouvez installer un add-on réseau de pod avec la commande suivante:
289
289
290
290
```bash
@@ -304,8 +304,8 @@ Pour plus d'informations sur l'utilisation de Calico, voir
304
304
[Installation de Calico pour les netpols ( network policies ) et le réseau](https://docs.projectcalico.org/latest/getting-started/kubernetes/installation/calico), ainsi que d'autres resources liées à ce sujet.
305
305
306
306
Pour que Calico fonctionne correctement, vous devez passer `--pod-network-cidr = 192.168.0.0 / 16`
307
-
à`kubeadm init` ou mettre à jour le fichier `calico.yml` pour qu'il corresponde à votre réseau de Pod.
308
-
Notez que Calico fonctionne uniquement sur `amd64`,`arm64`, `ppc64le` et`s390x`.
307
+
à`kubeadm init` ou mettre à jour le fichier `calico.yml` pour qu'il corresponde à votre réseau de Pod.
308
+
Notez que Calico fonctionne uniquement sur `amd64`,`arm64`, `ppc64le` et`s390x`.
@@ -317,7 +317,7 @@ Canal utilise Calico pour les netpols et Flannel pour la mise en réseau. Report
317
317
documentation Calico pour obtenir le [guide de démarrage officiel](https://docs.projectcalico.org/latest/getting-started/kubernetes/installation/flannel).
318
318
319
319
Pour que Canal fonctionne correctement, `--pod-network-cidr = 10.244.0.0 / 16` doit être passé à
320
-
`kubeadm init`. Notez que Canal ne fonctionne que sur `amd64`.
320
+
`kubeadm init`. Notez que Canal ne fonctionne que sur `amd64`.
Paramétrez `/proc/sys/net/bridge/bridge-nf-call-iptables` à «1» en exécutant`sysctl net.bridge.bridge-nf-call-iptables = 1`
407
+
Paramétrez `/proc/sys/net/bridge/bridge-nf-call-iptables` à «1» en exécutant`sysctl net.bridge.bridge-nf-call-iptables = 1`
408
408
Cette commande indiquera de passer le trafic IPv4 bridged à iptables. Ceci est nécessaire pour que certains plugins CNI fonctionnent, pour plus d'informations
0 commit comments