Outils pour utilisateurs

Outils du site


kb:linux:donnees:single_node_ceph

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
kb:linux:donnees:single_node_ceph [2018/01/09 20:42] beukb:linux:donnees:single_node_ceph [2018/01/10 15:03] (Version actuelle) beu
Ligne 35: Ligne 35:
 </code> </code>
  
-On ajoute ces deux lignes dans le fichier **ceph.conf**+On installe ceph sur le dit noeud
  
 <code> <code>
-osd pool default size = 2 +# ceph-deploy install --release luminous st01
-osd crush chooseleaf type = 0+
 </code> </code>
  
-Default pool size is how many replicas of our data we want (2). The chooseleaf setting is required to tell ceph we are only a single node and that it’s OK to store the same copy of data on the same physical node. Normally for safety, ceph distributes the copies and won’t leave all your eggs in the same basket (server).+Puis on le configure en monitor:
  
 <code> <code>
-ceph-deploy install --release luminous st01+ceph-deploy mon create-initial 
 +</code> 
 + 
 +ainsi que le manager : 
 + 
 +<code> 
 +# ceph-deploy mgr create st01 
 +</code> 
 + 
 +puis on y prépare les disques : 
 + 
 +<code> 
 +# ceph-deploy osd prepare --bluestore st01:/dev/sda 
 +</code> 
 + 
 +puis on les activent : 
 + 
 +<code> 
 +# ceph-deploy osd activate st01:/dev/sda1 
 +</code> 
 + 
 +Puis on créer un pool de stockage : 
 + 
 +<code> 
 +# ceph osd pool create NOMDUPOOL PGNUM 
 +</code> 
 + 
 +<code> 
 +# ceph osd pool set NOMDUPOOL size 2  
 +# ceph osd pool set NOMDUPOOL min_size 1 
 +</code> 
 + 
 +On va ensuite définir où la répartition doit s'appliquer donc pour cela il faut modifier la CRUSH MAP manuelement pour celà il faut extraire l'existante : 
 + 
 +<code> 
 +# ceph osd getcrushmap -o crush_map_compressed 
 +# crushtool -d crush_map_compressed -o crush_map_decompressed 
 +</code> 
 + 
 +Puis modifier la ligne :  
 + 
 +  step chooseleaf firstn 0 type host 
 + 
 +en  
 + 
 +  step chooseleaf firstn 0 type osd 
 +   
 +Puis il vous suffira de la re-injecter dans ceph:  
 + 
 +<code> 
 +# crushtool -c crush_map_decompressed -o new_crush_map_compressed 
 +# ceph osd setcrushmap -i new_crush_map_compressed
 </code> </code>
  
  
kb/linux/donnees/single_node_ceph.1515530563.txt.gz · Dernière modification : 2018/01/09 20:42 de beu