======Cluster Proxmox Hyperconvergé======
:!: Il existe une autre documentation beaucoup plus complexe et robuste [[:kb:linux:proxmox:hyperconverged-proxmox-2-liens|ici]]. Je vous déconseille de commencer par celle-ci.
:!: Cette documentation risque d'être obsolète a la sortie de **pve-network** qui intègre le module SDN. Elle sera réécrite quand le module sortira.
====Informations préliminaires====
La solution repose sur du VxLAN (assisté par du MP-BGP) et du CEPH.
Il faut bien comprendre que l'on va réaliser n'est pas natif a Proxmox et va demander de contourner certaines contraintes de l'interface en les configurant en CLI.
L'objectif va être de réaliser cette infrastructure :
{{ :kb:linux:proxmox:hyperconverged-proxmox-scheme.png?500 |}}
avec les spécificités suivante:
* Les IPs dans le réseau 10.50.0.0 sont routées statiquement.
* Les IPs du réseau 10.50.0.0 servent pour les liaisons CEPH, pour les echanges BGP EVPN, pour les liaisons VxLAN, ainsi que pour les laisons CoroSync.
====Procédure====
Pour commencer, nous avons besoin d'installer **ifupdown2** ((Attention, toutes les configurations réseau seront déchargées, donc vous allez perdre la main si vous êtes en SSH)) :
# apt install ifupdown2
et ensuite il nous faut installer FRR ;
# apt install frr
Il faut ensuite faire les configurations réseau((Les interfaces vxlan doivent obligatoirement commencer par le préfix "en" et termine par un numéro)) :
auto lo
iface lo inet loopback
auto enp3s0
iface enp3s0 inet static
address 10.50.0.221/32
mtu 9000
auto enp3s1
iface enp3s1 inet static
address 10.50.0.221/32
mtu 9000
auto vmbr1
iface vmbr1 inet manual
bridge-ports envxlan1
bridge-stp off
bridge-fd 0
auto envxlan1
iface envxlan1
vxlan-id 1
vxlan-learning no
auto lo
iface lo inet loopback
auto enp3s0
iface enp3s0 inet static
address 10.50.0.222/32
mtu 9000
auto enp3s1
iface enp3s1 inet static
address 10.50.0.222/32
mtu 9000
auto vmbr1
iface vmbr1 inet manual
bridge-ports envxlan1
bridge-stp off
bridge-fd 0
auto envxlan1
iface envxlan1
vxlan-id 1
vxlan-learning no
auto lo
iface lo inet loopback
auto enp3s0
iface enp3s0 inet static
address 10.50.0.223/32
mtu 9000
auto enp3s1
iface enp3s1 inet static
address 10.50.0.223/32
mtu 9000
auto vmbr1
iface vmbr1 inet manual
bridge-ports envxlan1
bridge-stp off
bridge-fd 0
auto envxlan1
iface envxlan1
vxlan-id 1
vxlan-learning no
puis on recharge sur chaque nœud la configuration réseau :
# ifreload -a
Maintenant, il va falloir faire des manipulations sur chaque nœud avec certaines adaptations. Voici :
Entrez en ligne de commande **frr** :
# vtysh
ensuite entrez en mode configuration :
pve1# conf t
On va définir les routes statiques afin d’épargner un peu la découverte ARP inutile :
pve1(config)# ip route 10.50.0.223/32 enp3s0
pve1(config)# ip route 10.50.0.222/32 enp3s1
ensuite on va dans la configuration **bgp**
pve1(config)# router bgp 65000
on applique les configurations usuel:
pve1(config-router)# bgp router-id 10.50.0.221
pve1(config-router)# no bgp default ipv4-unicast
pve1(config-router)# neighbor pg-evpn peer-group
pve1(config-router)# neighbor pg-evpn remote-as 65000
pve1(config-router)# neighbor pg-evpn timers 5 15
Puis la configuration EVPN :
pve1(config-router)# address-family l2vpn evpn
pve1(config-router-af)# neighbor pg-evpn activate
pve1(config-router-af)# advertise-all-vni
pve1(config-router-af)# advertise-default-gw
pve1(config-router-af)# exit
Ensuite on configure les neighbors :
pve1(config-router)# neighbor 10.50.0.222 peer-group pg-evpn
pve1(config-router)# neighbor 10.50.0.223 peer-group pg-evpn
Ensuite on clear les sessions BGP :
pve1(config-router-af)# end
pve1# clear bgp l2vpn evpn *
Après avoir attendu quelques secondes on peux vérifier si les sessions BGP sont actives :
pve1# sh bgp summary
L2VPN EVPN Summary:
BGP router identifier 10.50.0.221, local AS number 65000 vrf-id 0
BGP table version 0
RIB entries 5, using 920 bytes of memory
Peers 2, using 41 KiB of memory
Peer groups 1, using 64 bytes of memory
Neighbor V AS MsgRcvd MsgSent TblVer InQ OutQ Up/Down State/PfxRcd
10.50.0.222 4 65000 79 85 0 0 0 00:01:52 1
10.50.0.223 4 65000 13 13 0 0 0 00:00:46 1
Total number of neighbors 2
Une fois validé, on enregistre et on quitte :
pve1# write memory
pve1# exit
Entrez en ligne de commande **frr** :
# vtysh
ensuite entrez en mode configuration :
pve2# conf t
On va définir les routes statiques afin d'épargner un peu la découverte ARP inutile :
pve2(config)# ip route 10.50.0.221/32 enp3s0
pve2(config)# ip route 10.50.0.223/32 enp3s1
ensuite on va dans la configuration **bgp**
pve2(config)# router bgp 65000
on applique les configurations usuel:
pve2(config-router)# bgp router-id 10.50.0.222
pve2(config-router)# no bgp default ipv4-unicast
pve2(config-router)# neighbor pg-evpn peer-group
pve2(config-router)# neighbor pg-evpn remote-as 65000
pve2(config-router)# neighbor pg-evpn timers 5 15
Puis la configuration EVPN :
pve2(config-router)# address-family l2vpn evpn
pve2(config-router-af)# neighbor pg-evpn activate
pve2(config-router-af)# advertise-all-vni
pve2(config-router-af)# advertise-default-gw
pve2(config-router-af)# exit
Ensuite on configure les neighbors :
pve2(config-router)# neighbor 10.50.0.221 peer-group pg-evpn
pve2(config-router)# neighbor 10.50.0.223 peer-group pg-evpn
Ensuite on clear les sessions BGP :
pve2(config-router-af)# end
pve2# clear bgp l2vpn evpn *
Après avoir attendu quelques secondes on peux vérifier si les sessions BGP sont actives :
pve2# sh bgp summary
L2VPN EVPN Summary:
BGP router identifier 10.50.0.222, local AS number 65000 vrf-id 0
BGP table version 0
RIB entries 5, using 920 bytes of memory
Peers 2, using 41 KiB of memory
Peer groups 1, using 64 bytes of memory
Neighbor V AS MsgRcvd MsgSent TblVer InQ OutQ Up/Down State/PfxRcd
10.50.0.221 4 65000 79 81 0 0 0 00:01:52 1
10.50.0.223 4 65000 13 18 0 0 0 00:00:44 1
Total number of neighbors 2
Une fois validé, on enregistre et on quitte :
pve2# write memory
pve2# exit
Entrez en ligne de commande **frr** :
# vtysh
ensuite entrez en mode configuration :
pve3# conf t
On va définir les routes statiques afin d'épargner un peu la découverte ARP inutile :
pve3(config)# ip route 10.50.0.221/32 enp3s0
pve3(config)# ip route 10.50.0.222/32 enp3s1
ensuite on va dans la configuration **bgp**
pve3(config)# router bgp 65000
on applique les configurations usuel:
pve3(config-router)# bgp router-id 10.50.0.223
pve3(config-router)# no bgp default ipv4-unicast
pve3(config-router)# neighbor pg-evpn peer-group
pve3(config-router)# neighbor pg-evpn remote-as 65000
pve3(config-router)# neighbor pg-evpn timers 5 15
Puis la configuration EVPN :
pve3(config-router)# address-family l2vpn evpn
pve3(config-router-af)# neighbor pg-evpn activate
pve3(config-router-af)# advertise-all-vni
pve3(config-router-af)# advertise-default-gw
pve3(config-router-af)# exit
Ensuite on configure les neighbors :
pve3(config-router)# neighbor 10.50.0.221 peer-group pg-evpn
pve3(config-router)# neighbor 10.50.0.222 peer-group pg-evpn
Ensuite on clear les sessions BGP :
pve3(config-router-af)# end
pve3# clear bgp l2vpn evpn *
Après avoir attendu quelques secondes on peux vérifier si les sessions BGP sont actives :
pve3# sh bgp summary
L2VPN EVPN Summary:
BGP router identifier 10.50.0.223, local AS number 65000 vrf-id 0
BGP table version 0
RIB entries 5, using 800 bytes of memory
Peers 2, using 41 KiB of memory
Peer groups 1, using 64 bytes of memory
Neighbor V AS MsgRcvd MsgSent TblVer InQ OutQ Up/Down State/PfxRcd
10.50.0.221 4 65000 13 13 0 0 0 00:00:46 1
10.50.0.222 4 65000 14 14 0 0 0 00:00:44 1
Total number of neighbors 2
Une fois validé, on enregistre et on quitte :
pve3# write memory
pve3# exit
==== Configuration du Cluster ====
On va créer le cluster **en CLI**. Pour ça, connectez vous sur le premier noeud, et tapez la commande :
# pvecm create pve-switchless
une fois fait, il faudra vous connecter sur les deux autres noeuds et taper la commande suivante en vous laissant guider ((A lancer nœud par nœud, pas en même temps)):
# pvecm add 10.50.0.221
# pvecm add 10.50.0.221
Please enter superuser (root) password for '10.50.0.221': *************
Establishing API connection with host '10.50.0.221'
The authenticity of host '10.50.0.221' can't be established.
X509 SHA256 key fingerprint is 38:5F:E9:43:F7:58:18:40:70:93:57:0F:CE:DD:CB:F1:CB:88:DD:CF:85:5A:52:5C:FA:56:45:C3:38:B0:E6:D1.
Are you sure you want to continue connecting (yes/no)? yes
Login succeeded.
Request addition of this node
Join request OK, finishing setup locally
stopping pve-cluster service
backup old database to '/var/lib/pve-cluster/backup/config-1582313226.sql.gz'
waiting for quorum...OK
(re)generate node files
generate new node certificate
merge authorized SSH keys and known hosts
generated new node certificate, restart pveproxy and pvedaemon services
successfully added node 'pve2' to cluster.
Il faut ensuite installer Ceph sur chaque nœud **en CLI** :
# pveceph install
Puis sur l'un des noeud, initialiser le cluster :
# pveceph init --network 10.50.0.0/24
Il va falloir modifier le fichier **/etc/pve/ceph.conf** pour y ajouter ceci a la fin du fichier :
[mon.pve1]
host = pve1
mon_addr = 10.50.0.221
public_addr = 10.50.0.221
public_bind_addr = 10.50.0.221
[mon.pve2]
host = pve2
mon_addr = 10.50.0.222
public_addr = 10.50.0.222
public_bind_addr = 10.50.0.222
[mon.pve3]
host = pve3
mon_addr = 10.50.0.223
public_addr = 10.50.0.223
public_bind_addr = 10.50.0.223
puis initialiser sur chaque noeud, le monitor ceph en y adaptant l'IP ((A lancer nœud par nœud, pas en même temps)) :
# pveceph createmon --mon-address 10.50.0.221
Une fois fait, on peut repasser sur l'interface pour ajouter les managers manquant :
{{ :kb:linux:proxmox:hyperconverged-proxmox-create-manager.png?300 |}}
Puis les OSD sur chaque nœud :
{{ :kb:linux:proxmox:hyperconverged-proxmox-create-osd.gif |}}
Et pour finir le pool de données :
{{ :kb:linux:proxmox:hyperconverged-proxmox-create-pool.png?300 |}}
On peux aussi créer un pool CephFS si nécessaire en créant les MDS :
{{ :kb:linux:proxmox:hyperconverged-proxmox-create-mds.png?300 |}}
Puis le pool CephFS :
{{ :kb:linux:proxmox:hyperconverged-proxmox-create-cephfs.gif |}}