======Single Node CEPH====== Nécessite une bonne configuration du nom d'host, et dans ce HOW-TO, ce sera **st01**. On va commencer par créer la clé SSH pour le compte root. # ssh-keygen && cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys Ajout du dépôt ceph # wget -q -O- 'https://download.ceph.com/keys/release.asc' | apt-key add - # echo deb http://download.ceph.com/debian-luminous/ stretch main | tee /etc/apt/sources.list.d/ceph.list Puis on installe l'outil **ceph-deploy** # apt update && apt install ceph-deploy Et créer un dossier de cluster, qui stoquera les informations du cluster. # mkdir CLUSTER-DIR && cd CLUSTER-DIR On créer le cluster: # ceph-deploy new st01:IP_ADDRESS On installe ceph sur le dit noeud # ceph-deploy install --release luminous st01 Puis on le configure en monitor: # ceph-deploy mon create-initial ainsi que le manager : # ceph-deploy mgr create st01 puis on y prépare les disques : # ceph-deploy osd prepare --bluestore st01:/dev/sda puis on les activent : # ceph-deploy osd activate st01:/dev/sda1 Puis on créer un pool de stockage : # ceph osd pool create NOMDUPOOL PGNUM # ceph osd pool set NOMDUPOOL size 2 # ceph osd pool set NOMDUPOOL min_size 1 On va ensuite définir où la répartition doit s'appliquer donc pour cela il faut modifier la CRUSH MAP manuelement pour celà il faut extraire l'existante : # ceph osd getcrushmap -o crush_map_compressed # crushtool -d crush_map_compressed -o crush_map_decompressed Puis modifier la ligne : step chooseleaf firstn 0 type host en step chooseleaf firstn 0 type osd Puis il vous suffira de la re-injecter dans ceph: # crushtool -c crush_map_decompressed -o new_crush_map_compressed # ceph osd setcrushmap -i new_crush_map_compressed