Outils pour utilisateurs

Outils du site


kb:linux:donnees:single_node_ceph

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
kb:linux:donnees:single_node_ceph [2018/01/09 20:13] beukb:linux:donnees:single_node_ceph [2018/01/10 15:03] (Version actuelle) beu
Ligne 2: Ligne 2:
  
 Nécessite une bonne configuration du nom d'host, et dans ce HOW-TO, ce sera **st01**. Nécessite une bonne configuration du nom d'host, et dans ce HOW-TO, ce sera **st01**.
 +
 +On va commencer par créer la clé SSH pour le compte root.
  
 <code> <code>
-wget -q -O- 'https://download.ceph.com/keys/release.asc' | apt-key add -+ssh-keygen && cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
 </code> </code>
 +
 +
 +Ajout du dépôt ceph
  
 <code> <code>
 +# wget -q -O- 'https://download.ceph.com/keys/release.asc' | apt-key add -
 # echo deb http://download.ceph.com/debian-luminous/ stretch main | tee /etc/apt/sources.list.d/ceph.list # echo deb http://download.ceph.com/debian-luminous/ stretch main | tee /etc/apt/sources.list.d/ceph.list
 </code> </code>
 +
 +Puis on installe l'outil **ceph-deploy**
  
 <code> <code>
 # apt update && apt install ceph-deploy # apt update && apt install ceph-deploy
 </code> </code>
 +
 +Et créer un dossier de cluster, qui stoquera les informations du cluster.
  
 <code> <code>
-ssh-keygen && cp ~./.ssh/id_rsa.pub ~./.ssh/authorized_keys+mkdir CLUSTER-DIR && cd CLUSTER-DIR
 </code> </code>
 +
 +On créer le cluster:
  
 <code> <code>
-mkdir CLUSTER-DIR && cd CLUSTER-DIR+ceph-deploy new st01:IP_ADDRESS
 </code> </code>
 +
 +On installe ceph sur le dit noeud
  
 <code> <code>
-# ceph-deploy new st01+# ceph-deploy install --release luminous st01
 </code> </code>
 +
 +Puis on le configure en monitor:
  
 <code> <code>
-osd pool default size = 2 +# ceph-deploy mon create-initial
-osd crush chooseleaf type = 0+
 </code> </code>
  
-Default pool size is how many replicas of our data we want (2). The chooseleaf setting is required to tell ceph we are only a single node and that it’OK to store the same copy of data on the same physical node. Normally for safety, ceph distributes the copies and won’t leave all your eggs in the same basket (server).+ainsi que le manager : 
 + 
 +<code> 
 +# ceph-deploy mgr create st01 
 +</code> 
 + 
 +puis on y prépare les disques : 
 + 
 +<code> 
 +# ceph-deploy osd prepare --bluestore st01:/dev/sda 
 +</code> 
 + 
 +puis on les activent : 
 + 
 +<code> 
 +# ceph-deploy osd activate st01:/dev/sda1 
 +</code> 
 + 
 +Puis on créer un pool de stockage : 
 + 
 +<code> 
 +# ceph osd pool create NOMDUPOOL PGNUM 
 +</code> 
 + 
 +<code> 
 +# ceph osd pool set NOMDUPOOL size 2  
 +ceph osd pool set NOMDUPOOL min_size 1 
 +</code> 
 + 
 +On va ensuite définir où la répartition doit s'appliquer donc pour cela il faut modifier la CRUSH MAP manuelement pour celà il faut extraire l'existante : 
 + 
 +<code> 
 +# ceph osd getcrushmap -o crush_map_compressed 
 +# crushtool -d crush_map_compressed -o crush_map_decompressed 
 +</code> 
 + 
 +Puis modifier la ligne :  
 + 
 +  step chooseleaf firstn 0 type host 
 + 
 +en  
 + 
 +  step chooseleaf firstn 0 type osd 
 +   
 +Puis il vous suffira de la re-injecter dans ceph
  
 <code> <code>
-ceph-deploy install --release luminous st01+# crushtool -c crush_map_decompressed -o new_crush_map_compressed 
 +# ceph osd setcrushmap -i new_crush_map_compressed
 </code> </code>
  
  
kb/linux/donnees/single_node_ceph.1515528814.txt.gz · Dernière modification : 2018/01/09 20:13 de beu