15 Aralık 2015

Super Server 5028D-TN4T İncelemesi

Geçen hafta, uzun zamandır denemeye beklediğim, Intel’in yeni Xeon D (Broadwell-DE kod adı) serisi SoC (System on Chip) platformunu kullanan SuperMicro Super Server 5028D-TN4T sunucusunu deneme şansım oldu.Öncelikle ürünü demo için bana ulaştıran Supermicro Türkiye distribütörü GTM Teknoloji ekibine teşekkürlerimi sunmak isterim.


Ürüne Gelince:


Super Server 5028D-TN4T, aslında Supermicro’nun SuperChassis SC721TQ-250B kasası ile Supermicro X10SDV-TLN4F anakartının birleşiminden oluşan bir barebone sunucu seti.
Sunucuda ilk dikkati çeken, Intel’in kısa süre önce piyasaya çıkardığı, anakart ile işlemciyi bir arada sunan SoC platformu Xeon D’yi kullanan çözümler içinde yüksek özelliklere sahip olan bir anakarta sahip olması. Anakart üzerinde entegre işlemci olarak 8 çekirdekli bir Intel® Xeon® processor D-1540 bulunuyor, işlemci sunduğu güç yanında 45W gibi bir düşük güç tüketim değerine de sahip , bellek olarak maksimum 128 Gb’a kadar DDR4 ECC RAM desteğine de sahip. Ayrıca 2 adedi 10G, 2 adedi de 1G olmak üzere 4 adet entegre ethernet kontrolcüyle pek çok ağ uygulaması için yüksek performans vaadediyor.


Potansiyel Kullanım Alanları:


Super Server 5028D-TN4T piyasaya çıkış hedef pazarı, daha çok hosting pazarı gibi görünüyor. Burada sunduğu daha yüksek bellek kapasitesiyle Intel E3 platfomuna iyi
bir alternatif olarak konumlanırken fiyatı E3’e göre bir miktar daha pahalı seviyede. Ancak tek soketli bir Xeon E5’e göre ise kabul edilebilir bir performans ile oldukça uygun fiyatlı ve düşük güç tüketimiyle öne çıktığını söyleyebiliriz.


Super Server 5028D-TN4T hosting pazarı dışında bana göre iki alanda daha çok ideal kullanımına sahip. Bunlardan birisi, çok iyi bir homelab sistemi altyapısı kurulabilir. Bir homelab için nispeten pahalı olabilecek bir maliyete sahip olsa da küçük boyutu ( orta boy bir subwoofer kadar), sessiz çalışması ve düşük güç kullanımına rağmen sunduğu 8 çekirdekli işlemci , 128 Gb bellek olanağı ve 4 adedi hot swap 2 adedi de internal olmak üzere 6 adet disk genişleme kapasitesi ile HomeLab’ciler için bir rüya platformu olarak değerlendirilebilir.

Bunun dışında diğer ve çok daha önemli kullanım alanı ise distributed storage ve tabii converged storage + compute (hyperconvergence) alanı. Hem sunduğu işlemci ve bellek kapasitesi hem de 10G lik 2 adet ethernet arabirimi ile VMware vSphere+vSAN ve KVM+Ceph ile orta kapasiteli yüksek bulunurluğa (HA) sahip converged platformlar (sanallaştırma + storage) kurmak ve yapılandırmak için oldukça ideal bir sistem olduğunu rahatlıkla söyleyebilirim. Yine sadece distibuted storage (dağıtık depolama) amacı için Ceph veya GlusterFS için de ideal platform olarak kullanılabileceğini düşünüyorum.

Elimde sadece 1 adet cihaz olduğu için ve boşta 10G bir switch’im olmadığı için bu hyperconvergence senaryolarını deneme şansı bulamadım ancak standalone ESXi 6 , Proxmox ve Windows 2016 Server Preview kurulumu yapıp sürücüleri tanıtıp basit bir kaç deneme yapabildim.

Bu denemeler ile ilgili notlarımı da ayrı bir yazı şeklinde paylaşmaya çalışacağım.

9 Nisan 2015

vCenter Server Appliance 6'da WinSCP Ayarları


vSphere 6 ile VMware vCenter appliance'ı da yeniden kurguladı. Görünen o ki , çözümü gerçek bir sanal appliance gibi çalıştırmak için ayarlarının gerek web client'dan gerekse console üzerinden yapılması için VMware oldukça fazla çaba sarfetmiş.

Arka planda SUSE11 dağıtımı olan appliance üzerinde bir appliance shell'i çalıştırılıyor ve böylece ancak ekstra komut girerek standard bash shell'e geçiş yapılabiliyor.

Bu appliance shell nedeniyle Winscp ile root yetkileri ile bağlanmaya çalışınca aşağıdaki ekran görüntüsüne benzer bir hata alınıyor.



Bu hatayı almadan Winscp ile bağlanabilmek için WinSCP bağlantı ayarlarında protocol olarak SFTP seçilmeli Advanced ayarlara girilip SFTP bölümü seçilip sağdan SFTP server alanına "shell /usr/lib64/ssh/sftp-server" (tırnak işaretleri olmadan) komutu girilip kaydedilmelidir.


Bu ayarları yaptıktan sonra sorunsuz bir şekilde SFTP bağlantısı yapabilirsiniz.

9 Şubat 2015

ESXi Üzerinde Yerel Diskler ile RDM Nasıl Yapılır ?


Bir kaç haftadır software defined storage ürünlerini inceliyorum. Başta VMware vSAN olmak üzere pek çok ürün ön koşul olarak disklere doğrudan erişmek (pass-through) istiyor. Bunu ön şart olarak istemeyen diğer ürün seçenekleri de diske doğrudan erişirse çok daha düzgün çalışacağını söylüyor (bence kibar bir zorunluluk). Örneğin FreeNAS , Nexenta dahil tüm ZFS tabanlı çözümler disk ile ilgili S.M.A.R.T. verilerini okuyabilmek ve disk üzerinde self-healing ( otomatik onarım diyebiliriz) özelliklerinin çalışabilmesi için donanıma doğrudan erişebilmek istiyor.

Eğer üzerinde RAID controller olan bir sunucu üzerinde test yapıyorsanız öncelikle, RAID controller üzerinden pass-through , JBOD ayarlarını yapmanız gerekiyor. Eğer elinizdeki sunucu pass-through desteklemiyorsa çok ideal olmasa da birer diskli RAID 0 yaparak (en azından ZFS için gereksiz alan kullanımını engellemek için) bu engeli aşabilirsiniz. Benim elimde test için SuperMicro bir kasa ve board'dan oluşan LSI controller'lı bir makina vardı.

Şimdi gelelim asıl konumuza: bir sanal makina oluşturmaya başlayıp, bellek ve CPU gibi temel bileşenleri ayarladıktan sonra sıra RDM disk eklemeye çalıştığınızda RDM seçeneğinin eklenemez durumda olduğunu gördüm. Kısa bir Google araştırması sonucu bunun sebebin Vmware'in RDM'sadece storage LUN ları için varsayılan olarak açık sunduğunu öğrendim. Eğer benim gibi yerel disklerinizi sanal makinaların yönetimine doğrudan vermek istiyorsanız her bir disk için aşağıdaki adımları uygulamanız gerekiyor:

Öncelikle pass-through ayarı yaptığımız disklerin ESXi tarafında listelendiğini görmek için:

ls -la /vmfs/devices/disks


Sonrasında RDM olarak bağlayacağımız diskleri (vml ile başlayan disk adını kopyalamalıyız) aşağıdaki gibi bir datastore içerisine RDM map vmdklarını oluşturmamız gerekiyor.

vmkfstools -z /vmfs/devices/disks/disk_adı /vmfs/volumes/datastore/rdm_folder/rdmx.vmdk


Burada disk_adı yerine ilk komutun çıktısından seçtiğiniz vml ile başlayan kodu, datastore/RDM_Folder yolu yerine ise RDM map dosyalarını koyacağınız datasore yolu yazılmalı.

Bu işlemleri yaptıktan sonra artık oluşturduğumuz sanal makina özelliklerine girip Add Disk ile disk ekleme penceresini seçtikten sonra Use existing virtual disk seçeneğini seçtikten sonra ilgili datasore'dan RDM map VMDK sını seçip diskleri ekleyebilirsiniz.
Bu işlemleri eklemek istediğiniz her bir disk için yaptıktan sonra diskleriniz denemek istediğiniz Software Defined Storage çözümünün hizmetinde olacaktır.