Outils pour utilisateurs

Outils du site


linux:proxmox9 (lu 7050 fois)

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
linux:proxmox9 [07-11-2025 17:25] edmc73linux:proxmox9 [05-12-2025 23:19] (Version actuelle) – [Migrer ces VM d'un proxmox à un autre] edmc73
Ligne 5: Ligne 5:
  
 https://pve.proxmox.com/wiki/Upgrade_from_8_to_9 https://pve.proxmox.com/wiki/Upgrade_from_8_to_9
 +
 +
 +===== Config ZFS =====
 +
 +Pour pouvoir faire des snapshot de vos VM
 +
 +--- https://forum.proxmox.com/threads/zfs-and-snapshots-again.132104/
 +
 +Il n'est pas nécessaire de créer un dataset supplémentaire, on peut utiliser le zp0 (ou le data) créé par défaut.  \\
 +Mais je laisse la commande pour info.
 +
 +
 +<code>
 +proxmox9:~# zfs list
 +NAME       USED  AVAIL  REFER  MOUNTPOINT
 +data      96.0G   288G    96K  none
 +data/zd0  95.9G   288G  95.9G  /var/lib/vz
 +</code>
 +
 +Dans proxmox, cliquez sur **datacenter** aller dans le menu **Storage** cliquer sur **Add** / **ZFS**
 +
 +Choisissez votre dataset, content = Disk Image, **bien cocher la case Thin provision** -> OK
 +
 +Ensuite, cliquez sur votre VM, cliquez sur **Hardware**, sélectionnez votre **Hard Disk**, cliquez sur le menu **Disk Action** puis **Move Storage**
 +
 +Choisissez votre dataset et voilà ! L'option "Créer des snapshosts" est maintenant disponible
 +
 +<code>
 +proxmox9:~# zfs list
 +NAME                 USED  AVAIL  REFER  MOUNTPOINT
 +data                 102G   281G    96K  none
 +data/vm-120-disk-0  6.32G   281G  6.32G  -
 +data/zd0            95.9G   281G  95.9G  /var/lib/vz
 +</code>
 +
 +
  
  
Ligne 99: Ligne 135:
      
   resize2fs /var/lib/vz/images/150/vm-150-disk-0.raw   resize2fs /var/lib/vz/images/150/vm-150-disk-0.raw
 +
 +===== Qemu / KVM =====
 +
 +Quelques commandes
 +
 +Pour avoir la config d'une VM (identique au fichier /etc/pve/qemu-server/<vmid>.conf  )
 +  qm config <vmid>
 +
 +Voir plus -> https://pve.proxmox.com/pve-docs/qm.1.html
 +
 +Dans le cas de TrueNAS qui sort l'erreur 
 +  Disks have duplicate serial numbers: None (sda, sdb)
 +
 +Il faut modifier le fichier ''/etc/pve/qemu-server/<vmid>.conf''
 +
 +repérer les lignes
 +  scsi0: thin_provision:vm-212-disk-0,discard=on,iothread=1,size=32G
 +  scsi1: thin_provision:vm-212-disk-1,iothread=1,size=5G
 +
 +Et ajouter ''serial=12345''
 +  scsi0: thin_provision:vm-212-disk-0,discard=on,iothread=1,size=32G,serial=12345
 +  scsi1: thin_provision:vm-212-disk-1,iothread=1,size=5G,serial=12346
 +
 +===== Créer un sous réseau local =====
 +
 +==== Créons un bridge qui définira notre réseau local ====
 +
 +Menu: proxmox9 / System / Network 
 +  * Create : Linux Bridge
 +
 +  Name: vmbr1
 +  IPv4/CIDR : 192.168.0.1/24
 +  Gateway (IPv4) : (vide)
 +  Bridge ports: (vide)
 +
 +  * Apply Configuration
 +
 +  cat /proc/sys/net/ipv4/ip_forward
 +  echo 1 > /proc/sys/net/ipv4/ip_forward
 +  iptables -t nat -A POSTROUTING -s 192.168.0.0/24 -o vmbr0 -j MASQUERADE
 +
 +Pour pérenniser cette config
 +  vi /etc/sysctl.d/99-sysctl.conf (ou créer un fichier vide avec ce qui suit)
 +  # Uncomment the next line to enable packet forwarding for IPv4
 +  net.ipv4.ip_forward=1
 +
 +Créer un service avec systemd pour les règles de NAT
 +
 +  vi /etc/systemd/system/proxmox-nat.service
 +<code>
 +[Unit]
 +Description=Proxmox NAT Rules
 +After=network.target
 +
 +[Service]
 +Type=oneshot
 +RemainAfterExit=yes
 +ExecStart=/sbin/iptables -t nat -A POSTROUTING -s 192.168.0.0/24 -o vmbr0 -j MASQUERADE
 +ExecStop=/sbin/iptables -t nat -D POSTROUTING -s 192.168.0.0/24 -o vmbr0 -j MASQUERADE
 +
 +[Install]
 +WantedBy=multi-user.target
 +</code>
 +Activez le service :
 +
 +  systemctl enable proxmox-nat.service
 +  systemctl start proxmox-nat.service
 +
 +
 +
 +
 +==== Commandes utiles sur proxmox ====
 +<code>
 +ip a
 +3: vmbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
 +    link/ether 00:00:xx:xx:xx:xx brd ff:ff:ff:ff:ff:ff
 +    inet xxx.xxx.xxx.xxx/24 scope global vmbr0
 +       valid_lft forever preferred_lft forever
 +    inet6 xxxx::xxx:xxxx:xxxx:xxxx/64 scope link proto kernel_ll 
 +       valid_lft forever preferred_lft forever
 +4: vmbr1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
 +    link/ether 56:0f:bd:5e:69:e8 brd ff:ff:ff:ff:ff:ff
 +    inet 192.168.0.1/24 scope global vmbr1
 +       valid_lft forever preferred_lft forever
 +    inet6 xxxx::xxxx:xxxx:xxxx:xxxx/64 scope link proto kernel_ll 
 +       valid_lft forever preferred_lft forever
 +
 +ip route
 +default via xxx.xxx.xxx.1 dev vmbr0 proto kernel onlink 
 +xxx.xxx.xxx.0/24 dev vmbr0 proto kernel scope link src xxx.xxx.xxx.xxx
 +192.168.0.0/24 dev vmbr1 proto kernel scope link src 192.168.0.1 
 +
 +ping -I vmbr0 google.fr
 +-> ça marche
 +
 +ping -I vmbr1 google.fr
 +-> ça marche pas (normal)
 +
 +ifup vmbr1
 +ip a show dev vmbr1
 +
 +</code>
 +
 +Si l'état de vmbr1 est UNKNOWN au lieu de UP, c'est normal si aucune VM n'est allumé et configuré sur vmbr1
 +
 +
 +==== Config réseau d'une VM ====
 +Au niveau hardware, le Network Device (net0) doit avoir le bridge configuré sur vmbr1
 +<code>
 +# The loopback network interface
 +auto lo
 +iface lo inet loopback
 +
 +# The primary network interface
 +allow-hotplug ens18
 +iface ens18 inet static
 +    address 192.168.0.10/24
 +    gateway 192.168.0.1
 +    # dns-* options are implemented by the resolvconf package, if installed
 +    dns-nameservers 213.186.33.99
 +    dns-search edmc.local
 +</code>
 +
 +<code>
 +ip route
 +default via 192.168.0.1 dev ens18 onlink 
 +192.168.0.0/24 dev ens18 proto kernel scope link src 192.168.0.2
 +</code>
 +
 +===== Firewall =====
 +
 +Il y a 3 étages de firewall, dans l'ordre :
 +  * Datacenter
 +  * Node
 +  * VM / LXC
 +
 +==== Datacenter ====
 +Avant d'activer le firewall dans l'interface web, ajoutez la règle suivante pour ne pas perdre l'accès à l'interface web
 +  * Direction: in
 +  * Action: ACCEPT
 +  * Interface: vmbr0
 +  * Protocol: tcp
 +  * Dest. Port.: 8006
 +  * Enable: x
 +
 +  * Direction: in
 +  * Action: ACCEPT
 +  * Interface: vmbr0
 +  * Macro: Ping
 +  * Enable: x
 +
 +Puis, menu Datacenter / Firewall / Options : Firewall -> Yes
 +
 +Ces règles sont global à tous les nœuds et VM/LXC
 +
 +==== Node ====
 +Sur le nœud, on peut ajouter par exemple l'accès à SSH
 +
 +==== VM/LXC ====
 +Ajoutez les règles d'accès standard: HTTP/HTTPS
 +
 +
 +
 +===== Migrer ces VM d'un proxmox à un autre =====
 +
 +Imaginons un proxmox8 et un nouveau proxmox9. On veut migrer les VM du 8 vers le 9 en essayant de minimiser le temps de coupure.
 +
 +On commence par copier un backup d'une VM avec un id 110
 +  proxmox8# scp /var/lib/vz/dump/vzdump-qemu-110-2025_12_05-04_00_07.* mon.proxmox9.com:/var/lib/vz/dump/.
 +
 +Ensuite, procédé à un rsync entre les disques des VM
 +  proxmox# rsync /var/lib/vz/images/110/ mon.proxmox9.com:/var/lib/vz/images/110/
 +
 +Si vous utilisez un pool ZFS pour stocker vos disques de VM, repérez le nom du pool de votre disque
 +
 +<code>
 +proxmox9:~# zfs list
 +NAME                 USED  AVAIL  REFER  MOUNTPOINT
 +data                 131G   253G    96K  none
 +data/vm-110-disk-0  34.8G   253G  34.8G  -
 +</code>
 +et copiez via les commandes zfs
 +
 +Faites d'abord un snapshot via l'interface proxmox ou via la commande
 +
 +<code>
 +# À exécuter sur le serveur source
 +# création du snapshot
 +zfs snapshot data/vm-110-disk-0@migration
 +
 +# envoi du snapshot
 +zfs send data/vm-110-disk-0@migration | ssh root@proxmox9 zfs recv -v data/vm-110-disk-new
 +</code>
 +
 +Pour migrer ultérieurement seulement les modifications (beaucoup plus rapide), créez un nouveau snapshot (@migration2) et référencez le précédent (@migration) :
 +
 +  # Envoyer uniquement les changements entre les deux snapshots
 +  zfs send -i data/vm-101-disk-0@migration data/vm-101-disk-0@migration2 | ssh root@proxmox9 zfs recv -v data/vm-110-disk-new
 +  
 +Une fois que le moment est bon, on va remplacé notre disque issue du backup par cette nouvelle copie et supprimer le snapshot
 +
 +<code>
 +proxmox9:~# zfs list
 +NAME                  USED  AVAIL  REFER  MOUNTPOINT
 +data                  131G   253G    96K  none
 +data/vm-110-disk-0   34.8G   253G  34.8G  -
 +data/vm-110-disk-new 34.8G   253G  34.8G  -
 +
 +zfs destroy data/vm-110-disk-0
 +zfs rename data/vm-110-disk-new data/vm-110-disk-0
 +zfs destroy data/vm-110-disk-0@migrate
 +</code>
 +
 +Vous pouvez maintenant lancer votre VM
linux/proxmox9.1762536314.txt.gz · Dernière modification : de edmc73