Bonjour,
Nous avons un cluster Proxmox avec des machines en IP FO et voulons que les IP se déplacent automatiquement vers la nouvelle machine en cas de migration de la VM vers un nouveau nœud (que ce soit une migration manuelle ou en HA). Actuellement nous avons un script qui tourne sur tout les nœuds, qui détecte si une machine arrive et déclenche le déplacement d'IP via un appel aux API.
C'est une solution un peu bancale, mais elle fonctionne.
Avez-vous d'autres solutions à proposer ?
Merci d'avance !
Migration IP Failover Proxmox
Sujets apparentés
- Port 25 bloqué pour spam à répétition
10364
28.02.2018 13:39
- Spam et IP bloquée
8401
12.12.2016 11:53
- Rkhunter : parametre web_CMD invalide
8157
23.07.2017 15:43
- Mise à jour PHP sur Release 3 ovh
8080
11.03.2017 17:43
- Mise en place de VM avec IP publique sur Proxmox 6 [RESOLU]
8063
30.04.2020 17:12
- Connection smtp qui ne marche plus : connect error 10060
8009
12.04.2019 10:10
- Partition sur le disque de l'OS ESXI
7937
09.05.2017 14:33
- Envoi demail bloqué chez Gmail (550-5.7.26 DMARC)
7698
23.12.2019 08:40
- Meilleure solution pour disposer de plusieurs IP ?
7422
29.07.2018 09:40
- Comment me connecter par SSH en tant que root à mon serveur ?
6905
09.09.2019 14:34
Bonjour,
La solution la plus propre sera de mettre tous les serveurs dans un vrack et de faire pointer l'ip failover vers ce même vrack.
Ensuite tu actives ta vm sur l'un ou l'autre de tes proxmox et l'ip sera automatiquement redirigé comme avec un switch sur des serveurs physiques.
Comme ca tu n'as pas besoin de script, éventuellement pour forcer la bascule au niveau arp, tu peux lancer des requetes lorsque le serveur devient up, ainsi deviendra porteur de ton ip failover.
Bonne journée
https://www.captainadmin.com
Voici un exemple pour ta configuration:
auto eth0
iface eth0 inet static
address XXX.XXX.214.49
netmask 255.255.255.240
up route add @réseau_proxmox.254 dev eth0
up route add default gw @réseau_proxmox.254 metric 100
post-down route del @réseau_proxmox.254 dev eth0
post-down route del default gw @réseau_proxmox.254
@réseau_proxmox correspond au 3 premier digit de l'ip de ton serveur proxmox.
Ensuite il faut pas oublié de brancher ta vm sur le bridge vmbr qui convient, généralement si tu utilises le vrack il faut brancher un nouveau bridge sur eth3.
Bon courage
https://www.captainadmin.com
Bonjour, je rejoins un peu cette discussion, j'ai un soucis du même ordre et malgré toutes les doc je n'arrive pas encore a m'en sortir vraiment.
J'ai une config similaire a la vôtre (eth0 avec un bridge vmbr0) construit au setup de proxmox
J'ai aussi fait comme vous pour l'eth1 sans IP , et un bridge vmbr3 comme celui de votre config
J'ai associé le bloc d'IP au vrack (pas les ip fail-over qu'on associe au serveur dédié mais un bloc d'ip associé au vrack)
Dans ma machine virtuellle , comme gateway j'ai aussi mis @ipgateway de la machine proxmox, j'ai juste mis en plus post-up route add @ipgateway dev vmbr3 et post-up route add default gw @ipgateway
je ping l'ip publique de proxmox, je ping a l'extérieur mais ...malgré avoir renseigné un dns dans resolv.conf impossible d'avoir une résolution de nom
de l'extérieur pas de communication avec ma machine virtuelle
une idée ou une doc plus précise ?
Merci déjà pour la réponse.
Je ping le gw de mon bloc d'ip publique (même si je ne sais pas quelle interface répond ??)
Je ping l'ip publique de l'hôte proxmox
Je ping a l'extérieur différentes machines (par ex. 8.8.8.8)
Mais j'arrive pas a avoir une réponse avec un dig par exemple alors que le dns est correctement configuré
Je n'ai pas du tout l'impression d'avoir une connectivité avec l'extérieur
Voila,
en retirant les post-up .. tout fonctionne
pourtant énormément de doc explique d'ajouter ces commandes.
Bonsoir
je reviens encore avec ce sujet qui n'en finit pas ...
Pour mes machines linux, tout fonctionne sans soucis coté réseau, y compris en partant d'un template, je peux déployer les machines et la connectivité est bonne.
Je viens d'installer un serveur windows 2012R2 ..le type de carte est intel E1000, j'applique les même config qu'en linux et ..aucune connectivité ip sur le réseau.
une idée ???
merci
Bonjour,
J'aivais la même question que SmartP au début. Après quelques recherches et contact avec le support, j'ai cru faire autrement, mais après relecture je fait comme smartP. Comme j'avais pas compris tout de suite que je faisait pareil, je vais l'expliquer avec d'autres mots, ça pourra peut être aider les prochains lecteurs :
1. Faire pointer le bloc d'ip failover sur le Vrack
2. Brancher son proxmox sur le Vrack (comme indiqué ci-desdus) --> dans mon cas mes proxmox étaient en cluster via le vrack déjà donc rien a faire de plus
3. configurer une interface réseau pour ma VM ou mon conteneur LXC sur vmbr1 (dans mon cas) --> l'interface bridge sur le Vrack
4. configurer l'interface de ma VM / CT avec une ip du bloc (pas la première / adresse de réseau, pas les deux dernières gateway et broadcast) et prendre l'avant dernière ip du bloc comme passerelle/gateway.
**Un exemple pour illustrer :**
Avec le bloc théorique **1.1.28/30** j'ai :
Address: 1.1.1.28 00000001.00000001.00000001.000111 00
Netmask: 255.255.255.252 = 30 11111111.11111111.11111111.111111 00
Wildcard: 0.0.0.3 00000000.00000000.00000000.000000 11
=>
Network: 1.1.1.28/30 00000001.00000001.00000001.000111 00
HostMin: 1.1.1.29 00000001.00000001.00000001.000111 01
HostMax: 1.1.1.30 00000001.00000001.00000001.000111 10
Broadcast: 1.1.1.31 00000001.00000001.00000001.000111 11
Hosts/Net: 2 Class A
Je configure mon CT avec une interface eth0 en bridge sur vmbr1. Je lui donne l'IP **1.1.1.29/30** et la passerelle **1.1.1.30**
C'est tout !
ça fonctionne effectivement et quand je migre mon conteneur d'un hote proxmox à un autre, si l'interface vmbr1 est correctement configurée sur tous mes proxmox alors l'ip est migrée en live sans configuration supplémentaire.
Salut les ami-es.
Je suis pas convaincu d'avoir pigé comment je peux faire fonctionner cette méthode.
Quelqu'un peut-il ELI5 please ?
Par exemple sur ce simple schema :

Puis-je avoir l'interface enp1s0f1 qui dispose de deux bridges vmr1 et vmbr2 afin que PVE1 et PVE2 puissent communiquer et qu'un bloc d'ip soit sur vmbr2 ou ai-je besoin de mettre en place des vlan ?
Voici la conf de PVE1 pour se faire une idée.
# vrack public ovh
iface enp1s0f0 inet manual
auto vmbr0
iface vmbr0 inet static
address 42.176.x.x/32
gateway 42.176.x.254
bridge-ports enp1s0f0
bridge-stp off
bridge-fd 0
hwaddress MAC1
# vrack privé ovh
iface enp1s0f1 inet manual
auto vmbr1
iface vmbr1 inet static
address 10.0.0.1
netmask 255.255.255.0
broadcast 10.0.0.255
network 10.0.0.0
bridge_ports enp1s0f1
bridge_stp off
bridge_fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
hwddress MAC2
# vrack 2 privé ovh
auto vmbr2
iface vmbr2 inet static
address 51.122.x.x/29
broadcast 51.133.x.255
network 51.133.x.y
bridge_ports enp1s0f1
bridge_stp off
bridge_fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
hwddress MAC2
J'imagine que mettre des VLAN en place est plus "logique".
EDIT : typo network
Bonjour,
Le bridge vmbrX est attaché à une seule interface physique et inversement on relie une interface physique qu'a un seul bridge.
Dans ton cas, vmbr0 ne sert qu'a l'administration du serveur physique, c'est l'ip publique du proxmox donc ton accès web port 8006 et l'accès ssh normalement
Le bridge vmbr1 est relié à l'interface du vrack et te permet de connecter tes machines virtuelles aux ip du vrack.
Il n'est pas nécessaire de mettre une ip sur cette interface, il faut juste éventuellement y autoriser les vlan (vlan aware)
Ensuite si tu as besoin d'un réseau privé entre tes machines virtuelles, c'est sur celles-ci que tu devras ajouter le vlan.
Tes différents proxmox vont communiquer ensemble via les interfaces publiques vmbr0 et via éventuellement une ip privée que tu leur configures sur vmbr1
Si tu veux isoler la communication des proxmox entre eux, alors le mieux c'est de faire un vlan à part que tu branches sur vmbr1
Bon courage
Captainadmin
merci @JeanR pour ta réponse plus éclairante.

Il reste quelque chose que je pige pas.
voici ma conf après modif j'ai tenté de l'alleger et de mettre des vlan :
j'ai updaté le diagramme :
sur PVE1 :
# vrack public ovh
iface enp1s0f0 inet manual
auto vmbr0
iface vmbr0 inet static
address 42.176.x.x/32
gateway 42.176.x.254
bridge-ports enp1s0f0
bridge-stp off
bridge-fd 0
hwaddress MAC1
# vrack privé ovh
iface enp1s0f1 inet manual
auto vmbr1
iface vmbr1 inet static
bridge_ports enp1s0f1
bridge_stp off
bridge_fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
auto vmbr1.254
iface vmbr1.254 inet static
address 10.0.0.10/24
gateway 10.0.0.1
auto vmbr1.51
iface vmbr1.51 inet static
address 51.122.x.33/29
network 51.122.x.32
gateway 51.122.x.38
broadcast 51.122.x.39
sur PVE2 :
# vrack public ovh
iface enp1s0f0 inet manual
auto vmbr0
iface vmbr0 inet static
address 127.12.x.x/32
gateway 127.12.x.254
bridge-ports enp1s0f0
bridge-stp off
bridge-fd 0
# vrack privé ovh
iface enp1s0f1 inet manual
auto vmbr1
iface vmbr1 inet static
bridge_ports enp1s0f1
bridge_stp off
bridge_fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
auto vmbr1.254
iface vmbr1.254 inet static
address 10.0.0.1/24
gateway 10.0.0.10
auto vmbr1.51
iface vmbr1.51 inet static
address 51.122.x.34/29
network 51.122.x.32
gateway 51.122.x.38
broadcast 51.122.x.39
Mes deux pve communiquent sur 10.0.0.0 c'est cool.
Par contre je pige pas trop comment configurer le bloc sur chaque pve.
Je ne peux actuellement pas pinger l'ip publique du vrack privé sur vmbr1.51 de l’extérieur.
Par ailleurs je ne suis pas sur de comment je dois configurer ma vm.
Un p'tit coup de pousse serait ultra cool je pense pas être loin mais on est vendredi et j'suis naze. (excuse bidon le lundi j'suis pas nécessairement plus en forme.)
:)
Bon en vrai j'ai fini par faire plus simple :
sur chaque proxmox j'ai cette conf pour le vrack privé :
#vrack private
iface enp1s0f1 inet manual
auto vmbr2
iface vmbr2 inet static
bridge-ports enp1s0f1
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
auto vmbr2.10
iface vmbr2.10 inet static
address 10.10.0.40/24
et dans mes VM/containers je met le vmbr2 et j'ai juste à mettre ip et gateway du bloc qui vont bien.
Je peux live migrer en changeant de mac ou pas et j'ai pas besoin de script ou d'arping.
Pour l'interco ça marche car j'ai ajouté dans le vrack via l'interface ovh : Public Cloud > network > add private network le vlan 10 sur 10.10.0.0/16 (il setup le /16 automatiquement)
voila .
Encore merci @JeanR d'avoir remué mes méninges.
En effet, je configure comme ca sans plus de conf
Ce sont des instances qui portent les ip et qui se déplacent sur tes serveurs, pas besoin de gérer le routage ailleurs
Bonne journée