Outils pour utilisateurs

Outils du site


kb:linux:donnees:single_node_ceph

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Prochaine révision
Révision précédente
kb:linux:donnees:single_node_ceph [2018/01/09 19:28] – créée beukb:linux:donnees:single_node_ceph [2018/01/10 15:03] (Version actuelle) beu
Ligne 1: Ligne 1:
 ======Single Node CEPH====== ======Single Node CEPH======
 +
 +Nécessite une bonne configuration du nom d'host, et dans ce HOW-TO, ce sera **st01**.
 +
 +On va commencer par créer la clé SSH pour le compte root.
  
 <code> <code>
-wget -q -O- 'https://download.ceph.com/keys/release.asc' | apt-key add -+ssh-keygen && cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
 </code> </code>
 +
 +
 +Ajout du dépôt ceph
  
 <code> <code>
 +# wget -q -O- 'https://download.ceph.com/keys/release.asc' | apt-key add -
 # echo deb http://download.ceph.com/debian-luminous/ stretch main | tee /etc/apt/sources.list.d/ceph.list # echo deb http://download.ceph.com/debian-luminous/ stretch main | tee /etc/apt/sources.list.d/ceph.list
 </code> </code>
 +
 +Puis on installe l'outil **ceph-deploy**
 +
 +<code>
 +# apt update && apt install ceph-deploy
 +</code>
 +
 +Et créer un dossier de cluster, qui stoquera les informations du cluster.
 +
 +<code>
 +# mkdir CLUSTER-DIR && cd CLUSTER-DIR
 +</code>
 +
 +On créer le cluster:
 +
 +<code>
 +# ceph-deploy new st01:IP_ADDRESS
 +</code>
 +
 +On installe ceph sur le dit noeud
 +
 +<code>
 +# ceph-deploy install --release luminous st01
 +</code>
 +
 +Puis on le configure en monitor:
 +
 +<code>
 +# ceph-deploy mon create-initial
 +</code>
 +
 +ainsi que le manager :
 +
 +<code>
 +# ceph-deploy mgr create st01
 +</code>
 +
 +puis on y prépare les disques :
 +
 +<code>
 +# ceph-deploy osd prepare --bluestore st01:/dev/sda
 +</code>
 +
 +puis on les activent :
 +
 +<code>
 +# ceph-deploy osd activate st01:/dev/sda1
 +</code>
 +
 +Puis on créer un pool de stockage :
 +
 +<code>
 +# ceph osd pool create NOMDUPOOL PGNUM
 +</code>
 +
 +<code>
 +# ceph osd pool set NOMDUPOOL size 2 
 +# ceph osd pool set NOMDUPOOL min_size 1
 +</code>
 +
 +On va ensuite définir où la répartition doit s'appliquer donc pour cela il faut modifier la CRUSH MAP manuelement pour celà il faut extraire l'existante :
 +
 +<code>
 +# ceph osd getcrushmap -o crush_map_compressed
 +# crushtool -d crush_map_compressed -o crush_map_decompressed
 +</code>
 +
 +Puis modifier la ligne : 
 +
 +  step chooseleaf firstn 0 type host
 +
 +en 
 +
 +  step chooseleaf firstn 0 type osd
 +  
 +Puis il vous suffira de la re-injecter dans ceph: 
 +
 +<code>
 +# crushtool -c crush_map_decompressed -o new_crush_map_compressed
 +# ceph osd setcrushmap -i new_crush_map_compressed
 +</code>
 +
 +
kb/linux/donnees/single_node_ceph.1515526116.txt.gz · Dernière modification : 2018/01/09 19:28 de beu