Outils pour utilisateurs

Outils du site


linux:proxmox (lu 83084 fois)

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
Prochaine révision Les deux révisions suivantes
linux:proxmox [16-11-2014 13:49]
edmc73
linux:proxmox [09-07-2019 15:59]
edmc73 [Templates supplémentaires]
Ligne 130: Ligne 130:
  
 Il n'y a plus qu'a les télécharger dans le répertoire template prévu par proxmox. Il n'y a plus qu'a les télécharger dans le répertoire template prévu par proxmox.
 +
 +==== Proxmox 5 ====
 +Plus de openVZ maintenant c'est du LXC
 +
 +Our image repositories contain a list of available images, and there is a cron job run each day to download that list. You can trigger that update manually with:
 +
 +  pveam update
 +After that you can view the list of available images using:
 +
 +  pveam available
 +You can restrict this large list by specifying the section you are interested in, for example basic system images:
 +
 +List available system images
 +
 +  # pveam available --section system
 +  system          archlinux-base_2015-24-29-1_x86_64.tar.gz
 +  system          centos-7-default_20160205_amd64.tar.xz
 +  system          debian-6.0-standard_6.0-7_amd64.tar.gz
 +  system          debian-7.0-standard_7.0-3_amd64.tar.gz
 +  system          debian-8.0-standard_8.0-1_amd64.tar.gz
 +  system          ubuntu-12.04-standard_12.04-1_amd64.tar.gz
 +  system          ubuntu-14.04-standard_14.04-1_amd64.tar.gz
 +  system          ubuntu-15.04-standard_15.04-1_amd64.tar.gz
 +  system          ubuntu-15.10-standard_15.10-1_amd64.tar.gz
 +
 +Before you can use such a template, you need to download them into one of your storages. You can simply use storage local for that purpose. For clustered installations, it is preferred to use a shared storage so that all nodes can access those images.
 +
 +  pveam download local debian-8.0-standard_8.0-1_amd64.tar.gz
 +
 +You are now ready to create containers using that image, and you can list all downloaded images on storage local with:
 +
 +  # pveam list local
 +  local:vztmpl/debian-8.0-standard_8.0-1_amd64.tar.gz  190.20MB
 +
 +The above command shows you the full Proxmox VE volume identifiers. They include the storage name, and most other Proxmox VE commands can use them. For example you can delete that image later with:
 +
 +  pveam remove local:vztmpl/debian-8.0-standard_8.0-1_amd64.tar.gz
 +
 +====== Proxmox 4 ======
 +
 +===== Bug =====
 +
 +solution => https://www.razva.ro/fixing-apparmordenied-namerunsystemdjournaldev-log/
 +
 +J'ai constaté ça dans **/var/log/syslog**
 +<code>
 +Mar  5 21:37:58 p2pfr kernel: [2587040.014930] audit: type=1400 audit(1488746278.820:13404): apparmor="DENIED" operation="sendmsg" profile="/usr/sbin/named" name="/run/systemd/journal/dev-log" pid=20470 comm="named" requested_mask="w" denied_mask="w" fsuid=109 ouid=0
 +Mar  5 21:38:33 p2pfr kernel: [2587074.565032] audit: type=1400 audit(1488746313.371:13411): apparmor="DENIED" operation="sendmsg" profile="/usr/sbin/named" name="/run/systemd/journal/dev-log" pid=20469 comm="named" requested_mask="w" denied_mask="w" fsuid=109 ouid=0
 +Mar  5 21:38:55 p2pfr kernel: [2587096.733778] audit: type=1400 audit(1488746335.538:13413): apparmor="DENIED" operation="sendmsg" profile="/usr/sbin/named" name="/run/systemd/journal/dev-log" pid=20473 comm="named" requested_mask="w" denied_mask="w" fsuid=109 ouid=0
 +Mar  5 21:39:00 p2pfr kernel: [2587101.993724] audit: type=1400 audit(1488746340.798:13414): apparmor="DENIED" operation="sendmsg" profile="/usr/sbin/named" name="/run/systemd/journal/dev-log" pid=20473 comm="named" requested_mask="w" denied_mask="w" fsuid=109 ouid=0
 +Mar  5 21:39:25 p2pfr kernel: [2587126.367660] audit: type=1400 audit(1488746365.173:13420): apparmor="DENIED" operation="sendmsg" profile="/usr/sbin/named" name="/run/systemd/journal/dev-log" pid=20467 comm="named" requested_mask="w" denied_mask="w" fsuid=109 ouid=0
 +Mar  5 21:39:25 p2pfr kernel: [2587126.624156] audit: type=1400 audit(1488746365.429:13421): apparmor="DENIED" operation="sendmsg" profile="/usr/sbin/named" name="/run/systemd/journal/dev-log" pid=20469 comm="named" requested_mask="w" denied_mask="w" fsuid=109 ouid=0
 +Mar  5 21:40:06 p2pfr kernel: [2587167.443497] audit: type=1400 audit(1488746406.248:13429): apparmor="DENIED" operation="sendmsg" profile="/usr/sbin/named" name="/run/systemd/journal/dev-log" pid=20471 comm="named" requested_mask="w" denied_mask="w" fsuid=109 ouid=0
 +Mar  5 21:40:11 p2pfr kernel: [2587172.965146] audit: type=1400 audit(1488746411.768:13431): apparmor="DENIED" operation="sendmsg" profile="/usr/sbin/named" name="/run/systemd/journal/dev-log" pid=20468 comm="named" requested_mask="w" denied_mask="w" fsuid=109 ouid=0
 +</code>
 +
 +Après une recherche, j'ai pu comprendre que proxmox utilise un soft qui s'appelle **AppArmor** qui est une espèce de soft qui controle ce que d'autres soft ont le droit de lire ou écrire sur le serveur.
 +
 +Si on analyse le log, on nous parle du profile **/usr/sbin/named** qui veut accéder à **/run/systemd/journal/dev-log** en écriture ( requested_mask=w )
 +
 +Il faut donc chercher sur proxmox la règle du même nom => **/etc/apparmor.d/usr.sbin.named** et là on ne trouve aucune trace de **/run/systemd/journal/dev-log**
 +
 +Donc pour faire les choses bien, on va ajouter notre règle dans le fichier prévu à cette effet dans **/etc/apparmor.d/local/usr.sbin.named** ce qui doit donner ça
 +<code>
 +# Site-specific additions and overrides for usr.sbin.named.
 +# For more details, please see /etc/apparmor.d/local/README.
 +/run/systemd/journal/dev-log rw,
 +</code>
 +Ensuite on lance la commande qui recharge seulement ça
 +  apparmor_parser -r /etc/apparmor.d/usr.sbin.named
 +
 +et voilà :)
 +
 +===== Bug2 =====
 +
 +Après installation de debian 9 et mise à jour en debian 9.1, impossible de redémarrer la VM.
 +
 +Solution => https://forum.proxmox.com/threads/lxc-start-fails-unsupported-debian-version-9-1.35860/
 +<code>
 +--- /usr/share/perl5/PVE/LXC/Setup/Debian.pm.orig    2017-07-22 08:57:59.495838723 -0700
 ++++ /usr/share/perl5/PVE/LXC/Setup/Debian.pm    2017-07-22 08:53:18.607049610 -0700
 +@@ -28,7 +28,7 @@
 +     $version = $1;
 + 
 +     die "unsupported debian version '$version'\n"
 +-    if !($version >= 4 && $version <= 9);
 ++    if !($version >= 4 && $version <= 9.1);
 + 
 +     my $self = { conf => $conf, rootdir => $rootdir, version => $version };
 +</code>
 +===== Commande =====
 +
 +Voir ou sont monté les VM
 +<code>
 +# losetup 
 +NAME       SIZELIMIT OFFSET AUTOCLEAR RO BACK-FILE
 +/dev/loop0              0          0 /var/lib/vz/images/101/vm-101-disk-1.raw
 +/dev/loop1              0          0 /var/lib/vz/images/150/vm-150-disk-1.raw
 +/dev/loop2              0          0 /var/lib/vz/images/201/vm-201-disk-1.raw
 +</code>
 +
 +Ensuite vous pouvez soit les monter pour accéder aux fichiers, soit faire un fsck 
 +  fsck /dev/loop0
 +
 +Un utilitaire pour gérer les containers LXC dans un terminal
 +<code>
 +USAGE: pct <COMMAND> [ARGS] [OPTIONS]
 +       pct clone <vmid> <newid> -experimental <boolean> [OPTIONS]
 +       pct create <vmid> <ostemplate> [OPTIONS]
 +       pct destroy <vmid>
 +       pct list 
 +       pct migrate <vmid> <target> [OPTIONS]
 +       pct resize <vmid> <disk> <size> [OPTIONS]
 +       pct restore <vmid> <ostemplate> [OPTIONS]
 +       pct template <vmid> -experimental <boolean> [OPTIONS]
 +
 +       pct config <vmid>
 +       pct set <vmid> [OPTIONS]
 +
 +       pct delsnapshot <vmid> <snapname> [OPTIONS]
 +       pct listsnapshot <vmid>
 +       pct rollback <vmid> <snapname>
 +       pct snapshot <vmid> <snapname> [OPTIONS]
 +
 +       pct resume <vmid>
 +       pct shutdown <vmid> [OPTIONS]
 +       pct start <vmid> [OPTIONS]
 +       pct stop <vmid> [OPTIONS]
 +       pct suspend <vmid>
 +
 +       pct console <vmid>
 +       pct cpusets 
 +       pct df <vmid>
 +       pct enter <vmid>
 +       pct exec <vmid> [<extra-args>]
 +       pct fsck <vmid> [OPTIONS]
 +       pct mount <vmid>
 +       pct pull <vmid> <path> <destination> [OPTIONS]
 +       pct push <vmid> <file> <destination> [OPTIONS]
 +       pct status <vmid> [OPTIONS]
 +       pct unlock <vmid>
 +       pct unmount <vmid>
 +
 +       pct help [<cmd>] [OPTIONS]
 +</code>
 +exemple: lister les VM
 +  pct list
 +entrer à l'intérieur d'une VM
 +  pct enter 101
 +
 +ouvrir la console d'une VM (pour sortir de la console, Ctrl+a q)
 +  pct console 101
 +
linux/proxmox.txt · Dernière modification: 19-06-2024 16:53 de edmc73