Note de ce sujet :
  • Moyenne : 0 (0 vote(s))
  • 1
  • 2
  • 3
  • 4
  • 5
Proxmox et gestion des sauvegardes
#26
Merci pour cette explication détaillée
Je comprends assez bien le principe des types de stockage
La difficulté que j’ai, est lors de la création d’une première ou d’une nouvelle VM sur un NUC avec 1 To de SSD (j’ai du mal à comprendre les appellations utilisées par Proxmox: pve pve-local etc..)

À l’installation de Proxmox celui-ci crée ses partitions
Si j’ai bien compris Proxmox est installé ou du moins gère le System sur pve-root

Ensuite si je crée la 1ere VM je ne sais pas bien comment gérer dans Proxmox le stockage
Je pense qu’il faut que j’attribue d’abord un disque virtuelle spécifique dans mon SSD physique
Puis c’est ensuite qu’il faut créer la VM (je faisais l’inverse au début)


Comment faire pour récupérer une sauvegarde d’une VM sur mon PC sur le réseau ??
Ou plutôt comment déclarer dans Proxmox le chemin d’accès ??
Comment créer un lien vers mon PC principal pour stocker les sauvegardes

Créer un disque virtuel ZFS sur le SSD physique ?? (cela as-t-il un intérêt ??)

Je suis conscient du nombre de questions posées merci pour votre aide.
Répondre
#27
Dans ton NUC regarde si tu peux pas ajouter un petit SSD mSATA ou autre.
L'interet de séparé l'installation Pve (Diminutif de Proxmox Virtual Environnement) des VM c'est de pouvoir reinstaller rapidement une machine sans perdre les VM.

Par défaut si tu ne change rien Pve va utiliser un systeme de fichier LVM, je t'aiderais pas bcp la dessus car je n'utilise jamais ce type systeme de fichier.

Je vais essayer de te trouver un tuto ou une video pour la gestion des Espace de Stockage.
L'anglais ca te dérange pas ?


Citation :Comment faire pour récupérer une sauvegarde d’une VM sur mon PC sur le réseau ??
Ou plutôt comment déclarer dans Proxmox le chemin d’accès ??
Comment créer un lien vers mon PC principal pour stocker les sauvegardes
Il faut ajouter un Storage dans Datacenter, si tu es sous windows il faudra choisir SMB/CIFS.

PS : Un conseil , gardez l'interface de Pve en Anglais c'est plus facile pour s'y retrouver quand on a des tuto sur le net.


Citation :Créer un disque virtuel ZFS sur le SSD physique ?? (cela as-t-il un intérêt ??)
Oui pour ca n'en aurais pas ? 
Si tu m'avais posé la question est-ce qu'il y a un interet de faire du ZFS avec un seul disque, oui la question a le merite d'etre posé, la réponse est simple cela permet d'utiliser les spécifictés de ZFS (Compression/Snapshot...)
KNX Partner Base / Avancé

Ma boite de MP est pleine, merci de créer un post si vous avez une question, cela profitera a tout le monde.
Répondre
#28
(06/05/2022, 10:21:52)filou59 a écrit : Je vais ouvrir mon NUC pour voir ce que je peux ajouter. J'ai un  Kingston SSDNow mS200 - Disque SSD - 60 Go  et 1 120Go (le 60 Go doit suffire).
C'est vrai que c'est intéressant de pouvoir réinstaller rapidement une machine sans perdre les VM.



Je vais essayer de te trouver un tuto ou une video pour la gestion des Espace de Stockage.
L'anglais ca te dérange pas ? A force mon anglais scolaire c'est grandement amélioré

Il faut ajouter un Storage dans Datacenter, si tu es sous windows il faudra choisir SMB/CIFS.

PS : Un conseil , gardez l'interface de Pve en Anglais c'est plus facile pour s'y retrouver quand on a des tuto sur le net.
J'ai déjà retenu ce conseil, c'est plus simple pour suivre des tutos

Citation :Créer un disque virtuel ZFS sur le SSD physique ?? (cela as-t-il un intérêt ??)
Oui pour ca n'en aurais pas ? 
Si tu m'avais posé la question est-ce qu'il y a un interet de faire du ZFS avec un seul disque, oui la question a le merite d'etre posé, la réponse est simple cela permet d'utiliser les spécifictés de ZFS (Compression/Snapshot...)
Je l'avais déjà fait mais je me posais la question car si j'ai bien compris c'est du raid et je ne voyais pas l'intétrêt si il n'y a qu'un disque.
Je n'avais pas pensé que cela permettait de de faire Compression/Snapshot..  

Je vais ouvrir mon NUC pour voir ce que je peux connecter.
Répondre
#29
En voici une sur la gestion du stockage: https://www.youtube.com/watch?v=zIoDXWKsorg
Répondre
#30
Super merci
Répondre
#31
(06/05/2022, 10:21:52)filou59 a écrit : Par défaut si tu ne change rien Pve va utiliser un systeme de fichier LVM, je t'aiderais pas bcp la dessus car je n'utilise jamais ce type systeme de fichier.
Peux-tu décrire ta façon de faire??
Dans mon cas, l'une des possibilités que j'ai, est d'utiliser un petit disque dur ssd de 60 Go ou de 120 Go (Quel choix? je pense que 60Go est suffisant).
Je suppose que tu installerai proxmox sur ce petit disque.
Sur mon NUC intel, j'ai également un disque SSD de 1 To.
Dois-je partitionner ce deuxième disque pour éventuellement avoir 2 disques en raid? Dois-je utiliser une autre solution? Le raid sur un même disque SSD a-t-il un intérêt?
J'ai également prévu comme je le faisais, auparavant de sauvegarder mes machines virtuelles sur un PC de mon réseau comme tu m'a déjà aidé à le faire.
Répondre
#32
(06/05/2022, 16:01:23)Kevlille a écrit : En voici une sur la gestion du stockage: https://www.youtube.com/watch?v=zIoDXWKsorg

j'ai un peu de mal avec la vidéo, sans sous titrage. Avec ce sujet j'ai un peu de mal à siuivre.
Du coup je suis revenu sur ce site proxmox stockage
Je vais y passer pas mal de temps, mais je commence à mieux comprendre mais j'ai encore pas mal de doutes, d'où ma question à Filou.
Répondre
#33
Lors de l'installation :
Au moment du choix du disque de destination :
Tu choisis dans Option
-RaidZ1
-Ton DDur de 60Go
Déselectionne bien les autres DDur.

Dans ton bios il faut que tu selectionnes ce DDur pour booter

Attention tu peux avoir un problème si un autre SDD est aussi partitionné en ZFS ? Là il faudra passer par la case effacer partition...

De base tu auras donc ton Pve installé sur ton 60Go
Ensuite il faut dire a Pve que tu as un autre DDur/SSD :
Dans ton Noeud Pve / Disks : Tu devras peu etre initialisé ton ddur que tu veux utilisé pour tes VM (Attention tout sera perdu) , je sais pas si toutes la manip peuvent se faire via l'interface, peu etre un peu de ligne de commande.

Disks\ZFS\Create ZFS
La tu dois sélectionner ton SSD : /dev/sdb par exemple, (Attention c'est le disque entier, pas une partition style /dev/sdb1)
Si tu nas pas access a ton Disqu entier c'est qu'il faut retirer les partition (l'initialiser)
KNX Partner Base / Avancé

Ma boite de MP est pleine, merci de créer un post si vous avez une question, cela profitera a tout le monde.
Répondre
#34
Merci pour ces réponses très précises
Je teste cela dès demain matin
Pas de problème si c’est en ligne de commande je commence à être presque à l’aise
Je t’enverrai la structure que j’aurais obtenu avant d’aller plus loirncore un grand merci
Répondre
#35
(07/05/2022, 12:28:45)filou59 a écrit : Lors de l'installation :
Au moment du choix du disque de destination :
Tu choisis dans Option
-RaidZ1
-Ton DDur de 60Go
Déselectionne bien les autres DDur.

A ce niveau quand je choisis next, Jai ce message bloquant
Warning: zfs (RAIDZ-1° NEEDS AT LEAST 3 DEVICES
please fix ZFS first  ??
Que dois-je faire??
Répondre
#36
C'est normal j'ai fait une erreur

C'est ZFS (Raid1) qu'il faut choisir il me semble.
KNX Partner Base / Avancé

Ma boite de MP est pleine, merci de créer un post si vous avez une question, cela profitera a tout le monde.
Répondre
#37
désolé mais pas mieux en RAID1
je ne sais pas ce que je louppe
dois-je passer par ext4 pour voir l'état de mes disks en console???
le 60Go et le 500Go sont bien visible au début de l'installation.
Répondre
#38
J'ai fait une installation en ext4 
voici l'état des disks dans Proxmox:


[Image: 22050801291825602917887368.gif]

complément: dans le disk, j'ai concervé les anciennes VM . Peut-êrtre pas le bon terme:

[Image: 22050802565525602917887465.gif]
Répondre
#39
Attend je dois refaire une install sur une de mes machine.

Tu utilises quel version de Pve pour l'installation ?
KNX Partner Base / Avancé

Ma boite de MP est pleine, merci de créer un post si vous avez une question, cela profitera a tout le monde.
Répondre
#40
Je suis à la dernière version soit "proxmox-ve_7.2-1.iso"

Je pense que ce qui plante c'est le fait qu'à un moment j'ai conserver les Old versions pour ne pas perdre mes MV, mais je ne sais pas comment les récupérer.
Répondre
#41
Effectivement quand ca veut pas ...  Confused

ZFS - Raid0 : Tu pourras utiliser ZFS avec un seul disque  Rolleyes

Il faut bien passer sur Do not use les autres HDD.

Comme ca : 
   
KNX Partner Base / Avancé

Ma boite de MP est pleine, merci de créer un post si vous avez une question, cela profitera a tout le monde.
Répondre
#42
l'installation a fonctionné ainsi par contre je traîne toujours le disque dur Samsung avec des données qui contiennent l'ensemble du travail réalisé pour développer home assistant que j'avais conservé (soit 6 VM différentes)



[Image: 22050912560625602917888239.gif]
et je n'arrive pas a supprimé ce disk et ses données.
Il y a-t-il une façon de les réutiliser dans une nouvelle VM, ou de les rendre accessibles à Proxmox.

Sinon comment je dois faire pour les supprimer car en essayant de supprimer soit la partition, soit le SSD que je traîne,
je n'arrive pas les supprimer et je suis et j'ai ce message d'erreur
[Image: 22050912560625602917888238.gif]
Lors d'une première installation j'avais choisit de conserver ces données, pensant pouvoir les utiliser.
Je manque des connaissances à ce sujet et malgré la lectures de nombreux tutos, je ne m'en sors pas.
L'utilisation de ce disque en plus du disque de 60Go contenant Proxmox, lors de l'installation de Proxmox, me permettrait-t-il de m'en d'débarrasser avec une réinitialisation totale???
Sur mon PC je bureau, j'ai une sauvegarde d'une installation assez avancée de HA, quelle serait la bonne méthode pour la récupérer dans une nouvelle MV??
De même je n'ai toujours pas bien compris comment installer proprement une nouvelle VM avec Proxmox, de façon à ce que celle-ci soit bien installée sur un disque différent de celui contenant proxmox, pour qu'en cas de plantage je ne perde pas ma VM et ses data, que de même les sauvegarde successives de HA ne viennent pas saturer rapidement le disque SSD avec Proxmox, ce qui a visiblement saturé le disque SSD et planté tout Proxmox.
Encore merci pour ta patience.
Répondre
#43
Que donne la commande:

dmesg | tail -n 30
Répondre
#44
Code :
root@pve:/# dmesg | tail -n 30
[    5.808654] input: HDA Intel PCH Front Headphone as /devices/pci0000:00/0000:00:1f.3/sound/card0/input11
[    5.808687] input: HDA Intel PCH HDMI/DP,pcm=3 as /devices/pci0000:00/0000:00:1f.3/sound/card0/input12
[    5.808711] input: HDA Intel PCH HDMI/DP,pcm=7 as /devices/pci0000:00/0000:00:1f.3/sound/card0/input13
[    5.808735] input: HDA Intel PCH HDMI/DP,pcm=8 as /devices/pci0000:00/0000:00:1f.3/sound/card0/input14
[    5.808760] input: HDA Intel PCH HDMI/DP,pcm=9 as /devices/pci0000:00/0000:00:1f.3/sound/card0/input15
[    5.808783] input: HDA Intel PCH HDMI/DP,pcm=10 as /devices/pci0000:00/0000:00:1f.3/sound/card0/input16
[    6.101209] audit: type=1400 audit(1652047777.034:2): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/usr/bin/lxc-start" pid=1047 comm="apparmor_parser"
[    6.119773] audit: type=1400 audit(1652047777.054:3): apparmor="STATUS" operation="profile_load" profile="unconfined" name="nvidia_modprobe" pid=1049 comm="apparmor_parser"
[    6.122329] audit: type=1400 audit(1652047777.058:4): apparmor="STATUS" operation="profile_load" profile="unconfined" name="nvidia_modprobe//kmod" pid=1049 comm="apparmor_parser"
[    6.134737] audit: type=1400 audit(1652047777.070:5): apparmor="STATUS" operation="profile_load" profile="unconfined" name="lsb_release" pid=1044 comm="apparmor_parser"
[    6.153384] audit: type=1400 audit(1652047777.086:6): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/usr/bin/man" pid=1048 comm="apparmor_parser"
[    6.154976] audit: type=1400 audit(1652047777.090:7): apparmor="STATUS" operation="profile_load" profile="unconfined" name="man_filter" pid=1048 comm="apparmor_parser"
[    6.155842] audit: type=1400 audit(1652047777.090:8): apparmor="STATUS" operation="profile_load" profile="unconfined" name="man_groff" pid=1048 comm="apparmor_parser"
[    6.174363] audit: type=1400 audit(1652047777.110:9): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/usr/sbin/chronyd" pid=1050 comm="apparmor_parser"
[    6.207658] audit: type=1400 audit(1652047777.142:10): apparmor="STATUS" operation="profile_load" profile="unconfined" name="tcpdump" pid=1045 comm="apparmor_parser"
[    6.311081] audit: type=1400 audit(1652047777.246:11): apparmor="STATUS" operation="profile_load" profile="unconfined" name="lxc-container-default" pid=1046 comm="apparmor_parser"
[    6.366021] softdog: initialized. soft_noboot=0 soft_margin=60 sec soft_panic=0 (nowayout=0)
[    6.366023] softdog:              soft_reboot_cmd=<not set> soft_active_on_boot=0
[    6.510068] vmbr0: port 1(eno1) entered blocking state
[    6.510852] vmbr0: port 1(eno1) entered disabled state
[    6.511631] device eno1 entered promiscuous mode
[    8.785967] bpfilter: Loaded bpfilter_umh pid 1504
[    8.786167] Started bpfilter
[    8.876139] e1000e 0000:00:1f.6 eno1: NIC Link is Up 10 Mbps Half Duplex, Flow Control: None
[    8.876692] e1000e 0000:00:1f.6 eno1: 10/100 speed: disabling TSO
[    8.878204] vmbr0: port 1(eno1) entered blocking state
[    8.878767] vmbr0: port 1(eno1) entered forwarding state
[    8.880341] IPv6: ADDRCONF(NETDEV_CHANGE): vmbr0: link becomes ready
[   19.651244] L1TF CPU bug present and SMT on, data leak possible. See CVE-2018-3646 and https://www.kernel.org/doc/html/latest/admin-guide/hw-vuln/l1tf.html for details.
[43096.392051] perf: interrupt took too long (2503 > 2500), lowering kernel.perf_event_max_sample_rate to 79750
root@pve:/#
Cela donne ceci:
Je serais absent jusqu'à samedi, désolé si je répond pas avant 
Cordialement
Répondre
#45
bizarre je ne vois rien concernant tes disques durs. Ton disque est peut-être corrompu

reteste avec cette commande: dmesg | grep -i dma

Sinon tu peux checker ton disque avec Smart:

smartctl -a /dev/nvme0n1
Répondre
#46
J’ai bien compris cela mais je ne sais pas comment régler mon problème avec le disque de 500 Go que je n’arrive pas à remettre à zéro ou à utiliser les données anciennes qu’il contient
J’aimerais surtout être sûr d’une méthode pour bien avoir Proxmox sur le SSD de 60Go et les VM et leur stockage sur le disque de 500Go
Répondre
#47
(09/05/2022, 11:41:20)Kevlille a écrit : bizarre je ne vois rien concernant tes disques durs. Ton disque est peut-être corrompu

reteste avec cette commande: dmesg | grep -i dma

Sinon tu peux checker ton disque avec Smart:

smartctl -a /dev/nvme0n1

Merci de ton aide je reteste dès mon retour
Je me demande si les fait d’avoir voulu conserver mes OLD—donn Ne gont pas que le disque de 500Go semble saturé 
Ce que j’ai envoyé correspond à la dernière installation de Proxmox avec uniquement le SSD de 60Go comme Filou me l’a conseillé
Répondre
#48
Sinon nvmeOn correspond au disque SSD sata e
Je ne suis pas sûr du terme
Répondre
#49
Ca donne ceci:

Code :
root@pve:~# dmesg | grep -i dma
[    0.012611] ACPI: DMAR 0x0000000079E5CDE0 0000A8 (v01 INTEL  NUC8i5BE 00000051      01000013)
[    0.012663] ACPI: Reserving DMAR table memory at [mem 0x79e5cde0-0x79e5ce87]
[    0.013584]   DMA      [mem 0x0000000000001000-0x0000000000ffffff]
[    0.013587]   DMA32    [mem 0x0000000001000000-0x00000000ffffffff]
[    0.013615] On node 0, zone DMA: 1 pages in unavailable ranges
[    0.013617] On node 0, zone DMA: 1 pages in unavailable ranges
[    0.013660] On node 0, zone DMA: 96 pages in unavailable ranges
[    0.021045] On node 0, zone DMA32: 4736 pages in unavailable ranges
[    0.197737] DMAR: Host address width 39
[    0.197739] DMAR: DRHD base: 0x000000fed90000 flags: 0x0
[    0.197747] DMAR: dmar0: reg_base_addr fed90000 ver 1:0 cap 1c0000c40660462 ecap 19e2ff0505e
[    0.197753] DMAR: DRHD base: 0x000000fed91000 flags: 0x1
[    0.197758] DMAR: dmar1: reg_base_addr fed91000 ver 1:0 cap d2008c40660462 ecap f050da
[    0.197763] DMAR: RMRR base: 0x00000079da4000 end: 0x00000079dc3fff
[    0.197766] DMAR: RMRR base: 0x0000007b800000 end: 0x0000007fffffff
[    0.197770] DMAR-IR: IOAPIC id 2 under DRHD base  0xfed91000 IOMMU 1
[    0.197773] DMAR-IR: HPET id 0 under DRHD base 0xfed91000
[    0.197776] DMAR-IR: Queued invalidation will be enabled to support x2apic and Intr-remapping.
[    0.200552] DMAR-IR: Enabled IRQ remapping in x2apic mode
[    0.215645] DMA: preallocated 2048 KiB GFP_KERNEL pool for atomic allocations
[    0.215645] DMA: preallocated 2048 KiB GFP_KERNEL|GFP_DMA pool for atomic allocations
[    0.215685] DMA: preallocated 2048 KiB GFP_KERNEL|GFP_DMA32 pool for atomic allocations
[    0.458449] iommu: DMA domain TLB invalidation policy: lazy mode
[    0.520277] DMAR: No ATSR found
[    0.520279] DMAR: No SATC found
[    0.520282] DMAR: IOMMU feature fl1gp_support inconsistent
[    0.520284] DMAR: IOMMU feature pgsel_inv inconsistent
[    0.520286] DMAR: IOMMU feature nwfs inconsistent
[    0.520288] DMAR: IOMMU feature pasid inconsistent
[    0.520290] DMAR: IOMMU feature eafs inconsistent
[    0.520292] DMAR: IOMMU feature prs inconsistent
[    0.520294] DMAR: IOMMU feature nest inconsistent
[    0.520295] DMAR: IOMMU feature mts inconsistent
[    0.520297] DMAR: IOMMU feature sc_support inconsistent
[    0.520299] DMAR: IOMMU feature dev_iotlb_support inconsistent
[    0.520301] DMAR: dmar0: Using Queued invalidation
[    0.520307] DMAR: dmar1: Using Queued invalidation
[    0.522889] DMAR: Intel(R) Virtualization Technology for Directed I/O
[    0.522894] PCI-DMA: Using software bounce buffering for IO (SWIOTLB)
[    1.492170] ata3: SATA max UDMA/133 abar m2048@0xa8b26000 port 0xa8b26200 irq 127
[    1.994838] ata3.00: ATA-8: KINGSTON SMS200S360G, 60AABBF0, max UDMA/133
[    2.058164] ata3.00: configured for UDMA/133
root@pve:~# ^C
root@pve:~#
Mais je suis incapable de comprendre ce que cela veut dire
Répondre
#50
L'autre commande smart:
Code :
root@pve:~# smartctl -a /dev/nvme0n1
smartctl 7.2 2020-12-30 r5155 [x86_64-linux-5.15.30-2-pve] (local build)
Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Number:                       Samsung SSD 970 EVO Plus 500GB
Serial Number:                      S4EVNX0NB48665L
Firmware Version:                   2B2QEXM7
PCI Vendor/Subsystem ID:            0x144d
IEEE OUI Identifier:                0x002538
Total NVM Capacity:                 500,107,862,016 [500 GB]
Unallocated NVM Capacity:           0
Controller ID:                      4
NVMe Version:                       1.3
Number of Namespaces:               1
Namespace 1 Size/Capacity:          500,107,862,016 [500 GB]
Namespace 1 Utilization:            105,948,000,256 [105 GB]
Namespace 1 Formatted LBA Size:     512
Namespace 1 IEEE EUI-64:            002538 5b01b0c2ac
Local Time is:                      Sat May 14 15:43:36 2022 CEST
Firmware Updates (0x16):            3 Slots, no Reset required
Optional Admin Commands (0x0017):   Security Format Frmw_DL Self_Test
Optional NVM Commands (0x005f):     Comp Wr_Unc DS_Mngmt Wr_Zero Sav/Sel_Feat Timestmp
Log Page Attributes (0x03):         S/H_per_NS Cmd_Eff_Lg
Maximum Data Transfer Size:         512 Pages
Warning  Comp. Temp. Threshold:     85 Celsius
Critical Comp. Temp. Threshold:     85 Celsius

Supported Power States
St Op     Max   Active     Idle   RL RT WL WT  Ent_Lat  Ex_Lat
0 +     7.80W       -        -    0  0  0  0        0       0
1 +     6.00W       -        -    1  1  1  1        0       0
2 +     3.40W       -        -    2  2  2  2        0       0
3 -   0.0700W       -        -    3  3  3  3      210    1200
4 -   0.0100W       -        -    4  4  4  4     2000    8000

Supported LBA Sizes (NSID 0x1)
Id Fmt  Data  Metadt  Rel_Perf
0 +     512       0         0

=== START OF SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

SMART/Health Information (NVMe Log 0x02)
Critical Warning:                   0x00
Temperature:                        32 Celsius
Available Spare:                    100%
Available Spare Threshold:          10%
Percentage Used:                    0%
Data Units Read:                    22,465,648 [11.5 TB]
Data Units Written:                 6,295,135 [3.22 TB]
Host Read Commands:                 287,436,570
Host Write Commands:                318,610,550
Controller Busy Time:               1,087
Power Cycles:                       66
Power On Hours:                     2,072
Unsafe Shutdowns:                   43
Media and Data Integrity Errors:    0
Error Information Log Entries:      15
Warning  Comp. Temperature Time:    0
Critical Comp. Temperature Time:    0
Temperature Sensor 1:               32 Celsius
Temperature Sensor 2:               28 Celsius

Error Information (NVMe Log 0x01, 16 of 64 entries)
Num   ErrCount  SQId   CmdId  Status  PELoc          LBA  NSID    VS
 0         15     0  0x1002  0x4004      -            0     0     -

root@pve:~#
Répondre


Atteindre :


Utilisateur(s) parcourant ce sujet : 1 visiteur(s)