Cehpcluster configuration on centosh 6.6
- Tujuan pembelajaran
- Mengetahui konsep dasar Ceph Cluster
- Mengetahui Konfigurasi Ceph Cluster di CentOS 6.6
Konsep DasarCeph Storage Cluster adalah sebuah software yang berbasis opensource yang berfungsi sebagai storage server atau server penyimpanan seperti google drive. Ceph Storage Cluster terdiri dari dua jenis daemon yaitu Ceph OSD Daemon (OSD) berfungsi untuk menyimpan data sebagai objek pada server penyimpanan dan Ceph Monitor (MON) berfungsi untuk menjaga atau memonitoring data master pada server cluster. Dalam membuat ceph storage, harus mempunyai satu Ceph Monitor (MON) untuk memonitoring dan dua Ceph OSD Daemon (OSD) untuk menyimpan data replikasi. Dibawah ini adalah pengertian dari :- MON berfungsi untuk memonitoring data pada cluster
- OSD berfungsi untuk menyimpan data sebagai objek pada server
- MDS berfungsi sebagai file system ceph
Tabel AddressingNoServerSistem OperasiIP AddressNetmaskGateway1.Admin-nodeCentOS 6.6172.16.11.40255.255.255.0172.16.11.12.Node1CentOS 6.6172.16.11.41255.255.255.0172.16.11.13.Node2CentOS 6.6172.16.11.42255.25.255.0172.16.11.14.Node 3CentOS 6.6172.16.11.43255.255.255.0172.16.11.15.ClientCentOS 6.6172.16.11.44255.255.255.0172.16.11.1
- Langkah Langkah konfigurasi
Membuat ssh-copy-id yang berfungsi saat node node lain login tanpa password,(Konfigurasi di admin-node)
kemudian install openssh di centos dengan yum -y install openssh-clients
Kemudian tambahkan IP Address node1 sampai 3 dan terutama client kemudian berikan nama pada masing-masing IP tersebut. Fungsinya agar kita tidak perlu mengetik IP Address lagi, Edit file “/etc/hosts” save dan exit
jalankan ssh-keygen, lalu enter enter saja
Kemudian jalankan perintah ssh-copy-id yang berfungsi untuk menyimpan password dari server yang kita remote
ssh-copy-id -i ~/.ssh/id_rsa.pub node1ketikan yes jika muncul minta password masukan password server yang sedang di copy sshnya
ssh-copy-id -i ~/.ssh/id_rsa.pub node2
ssh-copy-id -i ~/.ssh/id_rsa.pub node3
ssh-copy-id -i ~/.ssh/id_rsa.pub client
lalu lakukan repository epel dan ceph di admin-node
sudo yum -y install http://ceph.com/rpm-firefly/el6/noarch/ceph-release-1-0.el6.noarch.rpm \ http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpmlalu enter saja
instalasi ceph di admin-node
tambahkan “priority=1” pada repositori ceph dan instal paket yum-plugin-priorities
sed -i -e "s/enabled=1/enabled=1\npriority=1/g" /etc/yum.repos.d/ceph.repo
lalu install ceph ceph-deploy nya
yum -y install ceph ceph-deploy
pada tahap ini kita akan monitoring server dari admin-node
buat direktory di etc misalnya /ceph-cluster lalu masuk ke folder tersebut
membuat ceoh MON ke node 1
ceph-deploy new {initial server}
lakukan ceph deploy ke seluruh node
ceph-deploy install [{node}[{node2} … ]
membuat admin-keyring
ceph-deploy mon create-initial
Memformat hardisk yang akan dijadikan object storage dan dibuat pada node1, node2, dan node3 karena node tersebut yang akan dijadikan ceph OSD
buatlah direktory untuk menempatkan hasill mountingan
edit /etc/dstab nya dan tambakan script seperti dibawah ini
membuat ceph object di adminnode
siapkan osd yang akan digunakan
ceph-deploy osd prepare {ceph-node}:/path/to/directory
aktifkan ceph osd yang sudah di siapkan
ceph-deploy osd activate {ceph-node}:/directory
menyalin atau mengcopy file konfigurasi dan key dari adminnode ke node1 sampai 3
Mengcopy file konfigurasi ceph dari admin-node ke node1 sampai 3
ceph-deploy admin {ceph-node}
lalu berikan hak akses pada ceph.client.admin.keyring
buat metadata server ke node 1
ceph-deploy mds create {ceph-node}
Cek status ceph
cek apakah ceph dalam kondisi baik atau tidak
cek qourum status
cek status dari osd
cek lah ceph status dari node 1 sampai node 3
melihat harddisk ceph
Konfigurasi pada Client
Install centos-release-xen
jika sudah update kernel si client
cek apakah kernel sudah terupdate atau belum,
NB: jika kernel belum terupadte lakukan yum update jika sudah reboot client anda
Menginstal ceph dan menyalin keyring di adminnode
install ceph ke klien
menyalin file keyring
buat blok device di klien
Membuat disk baru dengan perintah rbd
lakukan mapping untuk disk1
format lah disk yang sudah kita mapping
Memounting partisi yang sudah kita format
Membuat ceph file sistem di client
membual pool data dan metadata di ceph osd
Membuat filesystem ceph dari pool yang sudah dibuat
ceph fs new {nama ceph fs} {pool}
Membuat secret file dengan menyalin key dari file ceph.client.admin.keyring
Buat lah folder untuk memounting driver ceph
Install ceph-fuse di client
membuat file system
masuk lah ke ceph filesystem untuk uji coba, toko bunga di karawang
Nah ini hasil mounting node 1
Kesimpulan
Jadi kesimpulannya adalah Ceph Storage Cluster terdiri dari dua jenis daemon: a Ceph OSD Daemon (OSD) menyimpan data sebagai obyek pada node penyimpanan; dan Ceph Monitor (MON) memelihara salinan master peta klaster. Sebuah Ceph Storage Cluster mungkin berisi ribuan node penyimpanan. Sebuah sistem minimal akan memiliki minimal satu Ceph Memantau dan dua Ceph OSD Daemon untuk replikasi data.Ceph Filesystem, Ceph Obyek Storage dan Ceph Block Device membaca data dari dan menulis data ke Ceph Storage Cluster.
Comments