kb:linux:proxmox:benchmark_des_systemes_de_stockage
Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
| kb:linux:proxmox:benchmark_des_systemes_de_stockage [2020/04/02 22:07] – beu | kb:linux:proxmox:benchmark_des_systemes_de_stockage [2020/04/04 14:32] (Version actuelle) – beu | ||
|---|---|---|---|
| Ligne 3: | Ligne 3: | ||
| ==== Introduction ==== | ==== Introduction ==== | ||
| - | L' | + | L' |
| - | J’essaie d’être le plus exhaustif en terme de configuration, | + | J’essaie d’être le plus exhaustif en terme de configuration, |
| Afin de réaliser ce benchmark, je vais utiliser la machine suivante : | Afin de réaliser ce benchmark, je vais utiliser la machine suivante : | ||
| Ligne 15: | Ligne 15: | ||
| | ::: | Samsung SSD 970 EVO Plus NMVe 250GB | | | ::: | Samsung SSD 970 EVO Plus NMVe 250GB | | ||
| - | Proxmox((a jour au 2020-04-01)), | + | Proxmox((a jour au 2020-04-01)), |
| Ce choix permet de limiter l' | Ce choix permet de limiter l' | ||
| Ligne 43: | Ligne 43: | ||
| ==== Les résultats ==== | ==== Les résultats ==== | ||
| - | J' | + | J' |
| Ah, et les valeurs sont en MB/s | Ah, et les valeurs sont en MB/s | ||
| Ligne 52: | Ligne 52: | ||
| {{ : | {{ : | ||
| {{ : | {{ : | ||
| - | {{ : | + | {{ : |
| Voici quelques remarques intéressantes : | Voici quelques remarques intéressantes : | ||
| - | * Les options **Discard**, | + | * Les options **Discard**, |
| * Le **VMDK** est extrêmement lent lors de l' | * Le **VMDK** est extrêmement lent lors de l' | ||
| - | * Il n'y a pas de différences | + | * Il n'y a pas de différence |
| - | * La libraire compression sur le **ZFS** n'a peu d’impact sur les performances. Mais si vous desactivez | + | * La libraire compression sur le **ZFS** n'a peu d’impact sur les performances. Mais si vous désactivez |
| - | * Le support de stockage **LVM** n'est pas affiché dans les précédents graphs car ne rentrant dans aucunes catégories. Pour faire simple, il n'a aucun avantage par rapport au Directory + RAW ou LVM-Thin. (1474MB/s Read, 2679MB/s Write) | + | * Le support de stockage **LVM** n'est pas affiché dans les précédents graphs car ne rentrant dans aucune catégorie. Pour faire simple, il n'a aucun avantage par rapport au Directory + RAW ou LVM-Thin. (1474MB/s Read, 2679MB/s Write) |
| - | Pour approfondir le sujet, voici le document contenant tout les résultats aux tests effectué. | + | Pour approfondir le sujet, voici {{ : |
| ====Conclusion==== | ====Conclusion==== | ||
| - | Qu' | + | Quel système de stockage je recommande ?\\ |
| Même si il y a beaucoup de d' | Même si il y a beaucoup de d' | ||
| * Controlleur SCSI VirtIO | * Controlleur SCSI VirtIO | ||
| - | * disques VirtIO | + | * disques VirtIO |
| * Pas de cache | * Pas de cache | ||
| * Discard si compatible avec l'OS guest (a partir de Linux 5.0) | * Discard si compatible avec l'OS guest (a partir de Linux 5.0) | ||
| Ligne 74: | Ligne 74: | ||
| Après pour le support, j'en recommande 2, dépendant des besoins/ | Après pour le support, j'en recommande 2, dépendant des besoins/ | ||
| - | * **Directory** avec images en **RAW**((qcow2 n'a plus vraiment d' | + | * **Directory** avec images en **Qcow2** car supporte l'ensemble |
| * **LVM-Thin** pour simplement le thin-provisionning, | * **LVM-Thin** pour simplement le thin-provisionning, | ||
kb/linux/proxmox/benchmark_des_systemes_de_stockage.1585865232.txt.gz · Dernière modification : de beu
