15 Aralık 2015

Super Server 5028D-TN4T İncelemesi

Geçen hafta, uzun zamandır denemeye beklediğim, Intel’in yeni Xeon D (Broadwell-DE kod adı) serisi SoC (System on Chip) platformunu kullanan SuperMicro Super Server 5028D-TN4T sunucusunu deneme şansım oldu.Öncelikle ürünü demo için bana ulaştıran Supermicro Türkiye distribütörü GTM Teknoloji ekibine teşekkürlerimi sunmak isterim.


Ürüne Gelince:


Super Server 5028D-TN4T, aslında Supermicro’nun SuperChassis SC721TQ-250B kasası ile Supermicro X10SDV-TLN4F anakartının birleşiminden oluşan bir barebone sunucu seti.
Sunucuda ilk dikkati çeken, Intel’in kısa süre önce piyasaya çıkardığı, anakart ile işlemciyi bir arada sunan SoC platformu Xeon D’yi kullanan çözümler içinde yüksek özelliklere sahip olan bir anakarta sahip olması. Anakart üzerinde entegre işlemci olarak 8 çekirdekli bir Intel® Xeon® processor D-1540 bulunuyor, işlemci sunduğu güç yanında 45W gibi bir düşük güç tüketim değerine de sahip , bellek olarak maksimum 128 Gb’a kadar DDR4 ECC RAM desteğine de sahip. Ayrıca 2 adedi 10G, 2 adedi de 1G olmak üzere 4 adet entegre ethernet kontrolcüyle pek çok ağ uygulaması için yüksek performans vaadediyor.


Potansiyel Kullanım Alanları:


Super Server 5028D-TN4T piyasaya çıkış hedef pazarı, daha çok hosting pazarı gibi görünüyor. Burada sunduğu daha yüksek bellek kapasitesiyle Intel E3 platfomuna iyi
bir alternatif olarak konumlanırken fiyatı E3’e göre bir miktar daha pahalı seviyede. Ancak tek soketli bir Xeon E5’e göre ise kabul edilebilir bir performans ile oldukça uygun fiyatlı ve düşük güç tüketimiyle öne çıktığını söyleyebiliriz.


Super Server 5028D-TN4T hosting pazarı dışında bana göre iki alanda daha çok ideal kullanımına sahip. Bunlardan birisi, çok iyi bir homelab sistemi altyapısı kurulabilir. Bir homelab için nispeten pahalı olabilecek bir maliyete sahip olsa da küçük boyutu ( orta boy bir subwoofer kadar), sessiz çalışması ve düşük güç kullanımına rağmen sunduğu 8 çekirdekli işlemci , 128 Gb bellek olanağı ve 4 adedi hot swap 2 adedi de internal olmak üzere 6 adet disk genişleme kapasitesi ile HomeLab’ciler için bir rüya platformu olarak değerlendirilebilir.

Bunun dışında diğer ve çok daha önemli kullanım alanı ise distributed storage ve tabii converged storage + compute (hyperconvergence) alanı. Hem sunduğu işlemci ve bellek kapasitesi hem de 10G lik 2 adet ethernet arabirimi ile VMware vSphere+vSAN ve KVM+Ceph ile orta kapasiteli yüksek bulunurluğa (HA) sahip converged platformlar (sanallaştırma + storage) kurmak ve yapılandırmak için oldukça ideal bir sistem olduğunu rahatlıkla söyleyebilirim. Yine sadece distibuted storage (dağıtık depolama) amacı için Ceph veya GlusterFS için de ideal platform olarak kullanılabileceğini düşünüyorum.

Elimde sadece 1 adet cihaz olduğu için ve boşta 10G bir switch’im olmadığı için bu hyperconvergence senaryolarını deneme şansı bulamadım ancak standalone ESXi 6 , Proxmox ve Windows 2016 Server Preview kurulumu yapıp sürücüleri tanıtıp basit bir kaç deneme yapabildim.

Bu denemeler ile ilgili notlarımı da ayrı bir yazı şeklinde paylaşmaya çalışacağım.

9 Nisan 2015

vCenter Server Appliance 6'da WinSCP Ayarları


vSphere 6 ile VMware vCenter appliance'ı da yeniden kurguladı. Görünen o ki , çözümü gerçek bir sanal appliance gibi çalıştırmak için ayarlarının gerek web client'dan gerekse console üzerinden yapılması için VMware oldukça fazla çaba sarfetmiş.

Arka planda SUSE11 dağıtımı olan appliance üzerinde bir appliance shell'i çalıştırılıyor ve böylece ancak ekstra komut girerek standard bash shell'e geçiş yapılabiliyor.

Bu appliance shell nedeniyle Winscp ile root yetkileri ile bağlanmaya çalışınca aşağıdaki ekran görüntüsüne benzer bir hata alınıyor.



Bu hatayı almadan Winscp ile bağlanabilmek için WinSCP bağlantı ayarlarında protocol olarak SFTP seçilmeli Advanced ayarlara girilip SFTP bölümü seçilip sağdan SFTP server alanına "shell /usr/lib64/ssh/sftp-server" (tırnak işaretleri olmadan) komutu girilip kaydedilmelidir.


Bu ayarları yaptıktan sonra sorunsuz bir şekilde SFTP bağlantısı yapabilirsiniz.

9 Şubat 2015

ESXi Üzerinde Yerel Diskler ile RDM Nasıl Yapılır ?


Bir kaç haftadır software defined storage ürünlerini inceliyorum. Başta VMware vSAN olmak üzere pek çok ürün ön koşul olarak disklere doğrudan erişmek (pass-through) istiyor. Bunu ön şart olarak istemeyen diğer ürün seçenekleri de diske doğrudan erişirse çok daha düzgün çalışacağını söylüyor (bence kibar bir zorunluluk). Örneğin FreeNAS , Nexenta dahil tüm ZFS tabanlı çözümler disk ile ilgili S.M.A.R.T. verilerini okuyabilmek ve disk üzerinde self-healing ( otomatik onarım diyebiliriz) özelliklerinin çalışabilmesi için donanıma doğrudan erişebilmek istiyor.

Eğer üzerinde RAID controller olan bir sunucu üzerinde test yapıyorsanız öncelikle, RAID controller üzerinden pass-through , JBOD ayarlarını yapmanız gerekiyor. Eğer elinizdeki sunucu pass-through desteklemiyorsa çok ideal olmasa da birer diskli RAID 0 yaparak (en azından ZFS için gereksiz alan kullanımını engellemek için) bu engeli aşabilirsiniz. Benim elimde test için SuperMicro bir kasa ve board'dan oluşan LSI controller'lı bir makina vardı.

Şimdi gelelim asıl konumuza: bir sanal makina oluşturmaya başlayıp, bellek ve CPU gibi temel bileşenleri ayarladıktan sonra sıra RDM disk eklemeye çalıştığınızda RDM seçeneğinin eklenemez durumda olduğunu gördüm. Kısa bir Google araştırması sonucu bunun sebebin Vmware'in RDM'sadece storage LUN ları için varsayılan olarak açık sunduğunu öğrendim. Eğer benim gibi yerel disklerinizi sanal makinaların yönetimine doğrudan vermek istiyorsanız her bir disk için aşağıdaki adımları uygulamanız gerekiyor:

Öncelikle pass-through ayarı yaptığımız disklerin ESXi tarafında listelendiğini görmek için:

ls -la /vmfs/devices/disks


Sonrasında RDM olarak bağlayacağımız diskleri (vml ile başlayan disk adını kopyalamalıyız) aşağıdaki gibi bir datastore içerisine RDM map vmdklarını oluşturmamız gerekiyor.

vmkfstools -z /vmfs/devices/disks/disk_adı /vmfs/volumes/datastore/rdm_folder/rdmx.vmdk


Burada disk_adı yerine ilk komutun çıktısından seçtiğiniz vml ile başlayan kodu, datastore/RDM_Folder yolu yerine ise RDM map dosyalarını koyacağınız datasore yolu yazılmalı.

Bu işlemleri yaptıktan sonra artık oluşturduğumuz sanal makina özelliklerine girip Add Disk ile disk ekleme penceresini seçtikten sonra Use existing virtual disk seçeneğini seçtikten sonra ilgili datasore'dan RDM map VMDK sını seçip diskleri ekleyebilirsiniz.
Bu işlemleri eklemek istediğiniz her bir disk için yaptıktan sonra diskleriniz denemek istediğiniz Software Defined Storage çözümünün hizmetinde olacaktır.

17 Kasım 2014

oVirt(RHEV) ' de Active Directory Doğrulaması Ekleme

Son günlerde oVirt sanallaştırma platformunu kurumsal ortamlarda çalıştırılması ve entegre edilmesi konusunu test ediyorum. 

İlk kurulum sonrası kurulum scripti tarafından internal isimli bir domain ve buna bağlı admin isimli bir superuser oluşturuluyor. Tüm yönetim işlemleri bu kullanıcıyla yapılıyor başlangıçta. Ancak iş yeni bir kullanıcı ekleyip bu kullanıcıya yetkiler verip kullanıcı portaline erişmesine sağlamaya gelince oVirt (RHEV) sizden 3. parti bir kimlik doğrulaması istiyor. oVirt dokümanlarına göz attığımda desteklenen sistemler olarak; MS Active Directory ,  freeIPA (RedHat Identity), Redhat Directory Server (389 DS) , IBM Tivoli DS ve Open LDAP görünüyor. Buna bakınca gerçekten geniş bir doğrulama desteği sunulduğu görünüyor. Ancak dokümanda bu doğrulama sistemlerinin oVirt'e nasıl ekleneceğine dair ayrıntılı bir bilgi bulunmuyor garip bir şekilde. 

Bunun üzerine bir Google araştırması yapınca genel olarak internette de ciddi anlamda bu önemli konuyu açıkça anlatan bir doküman olmadığını gördüm. Sadece bir kaç mail listte ve forumda sorulmuş ancak cevabı tam alınamamış bir kaç soru var. Bunun üzerinde console üzerinde ovirt komutları help lerine biraz göz atınca işlemin oldukça basit olduğunu gördüm. Aşağıdaki komutu çalıtırıp yetkili bir kullanıcı ile parola vermek ilgili domain i çok kısa sürede oVirt'e ekliyor.

engine-manage-domains add --domain=stratus.local --provider=ad --user=administrator@stratus.local






12 Kasım 2014

Ubuntu'dan Yeni Bir Hypervisor: LXD

Geçen hafta içinde Ubuntu geliştirici şirketi Canonical, Paris'de yapılan OpenStack Design Summit etkinliğinde Nova-Flex kod adıyla yeni bir teknoloji geliştirme aşamasında olduğunu duyurdu. 

LXD (The Linux Container Daemon) adı verilen bu yeni teknoloji aslında uzun yıllardır var olan LXC (Linux Containers) teknolojisini daemonize edilip önemli bazı önemli özellikler eklenerek bir sonraki adıma taşınması olarak yorumlanabilir.

Canonical'ın tanımına göre (bu blogda daha önce bir kaç kez bahsettiğim bir diğer LXC uygulaması olan) Docker ın hız ve verimlilik özelliklerinin bare metal çalışabilecek gerçek bir sanallaştırma deneyimine dönüştürülmesi olarak belirtiliyor.

Aslında Hypervisor deniliyor ama gerçek anlamda bir Hypervisor olmadığı söyleyebiliriz. Temel mantık : Bir  Linux  host üzerinde yüzlerce farklı Linux (hosttan farklı distrolar çalışabiliyor) sunucuyu çok hızlı bir şekilde oluşturup , neredeyse fiziksel sunucu performansına yakın bir performansta kullanabilmeye dayanıyor. Yani bu teknoloji ile Linux içinde Linux çalıştırmak mümkün, eğer guest olarak başka işletim sistemleri, örneğin Windows çalıştırılacaksa yine KVM, VMware , HyperV ve Xen gibi bir sanallaştırma altyapısına ihtiyacınız var.

LXD'nin sağladığı temel faydaları sıralamaya çalışırsak Canonical'ın sağladığı aşağıdaki liste önümüze çıkıyor.
 
Temel Özellikler
  • Container lar içinde sade bir proses yerine tam bir işletim sistemi işlevselliği
  • Public Cloud içerisinde kullanımında host başına en yüksek sayıda guest yoğunluğunu sağlayarak maliyet avantajı sağlar 
  • Donanım kaynaklarının kolay paylaşılmasına ve yönetimine izin verir, müşteri proseslerinin host seviyesinden doğrudan kolayca izlenebilmesini de sağlar.
  • REST API, çok iyi dokümante edilmiş basit ve tek  komut satırı.
  • Tam sanallaştırma ile desteklenemeyen mimarilere destek verir.
  • Hızlı sanal sunucu oluşturma ve çok kısa boot süresi
  • OpenStack Glance gibi uzak imaj servisleriyle tam entegrasyon
  • AppArmor, user namespaces, SECCOMP ile baştan çok güvenli
  • Akıllı ve genişleyebilir depolama ve ağ yapısı
LXD şu anda Ubuntu 14.04. ve Ubuntu 14.10 da Openstack Juno ile birlikte NovaFlex Compute olarak kullanılabiliyor. Bence yeni bir sanallaştırma yaklaşımı olarak gelecekte önemli bir kullanım alanı bulacağını düşündüğüm bir teknoloji ve ilerleyen zamanlarda tek başına çalışan sürümlerin de gelmesini sabırsızlıkla bekliyorum.

Not : LXD'nin ayrıntılı teknik bir doküman için Ubuntu geliştiricilerinden Stéphane Graber'ın şu linkten erişelebilen mail list mesajı incelenebilir.

24 Mart 2014

Vmware Sanal Makinede SSD Disk Nasıl Emüle Edilir ?

Her ne kadar günümüzde fiyatları ucuzlamaya başlasa da büyük disk alanına sahip olan SSD ler, halen normal sabit disklerden 4-5 kat daha pahalı. Bu nedenle de pek çok kişi testlerin de SSD lere halen kolayca ulaşamıyor.

Nested virtualization denemelerimde Vmware'in SSD gerektiren yeni Swap to host cache özelliği ve daha da önemlisi ESXi 5.5 ile birlikte gelen ve oldukça ses getirsen vSAN özelliğini nested ESXi sistemlerimde deneyebilmek için sanal bir SSD çözümüne ihtiyaç oluyor.

Sanal bir SSD ye kavuşmanız için yapmanız gereken oldukça basit.

İlgili VM'in bulunduğu klasöre erişim vmx dosyasını bir text editör ile açın ve disklerin tanımlandığı bölüme gidin.

scsiX:Y.present = "TRUE"
scsiX:Y.fileName = "VMware ESXi 5-0.vmdk"

gibi satırlar olmalı. Burada X controller ID yi Y ise disk id sini gösterir.

Birden fazla diskiniz varsa birden fazla kez bu tip satırlar göreceksiniz.

SSD olarak görünmesini istediğiniz satırları seçin ve bir alt satıra (bu şart değil düzen açısından böyle yaptım)

scsiX:Y.virtualSSD = 1

parametrelerini girin ve vmx i kaydedip kapatın. İlgili sanal makineyi çalıştırın ve deneyin ( bu parametre versiyon 8 ve üzeri VM'ler için desteklenmektedir).

Sanal SSD ayarı yapılmış nested ESXi


Bu parametreler sayesinde ESX yanında SSD tanıyan Windows 8.1 , Windows 8, Windows 7 v.b. işlemlerde de SSD gerektiren testleri kolaylıkla yapabilirsiniz.

Unutmadan eğer amaçlananın tersine normal sabit disk yerine makinenizde sadece SSD var ise ESXi 5 bunu otomatik olarak tüm sanal diskler için SSD olarak tanıyacaktır. Bu durumda eğer sanal disklerinizden her hangi birini non-SSD göstermek isterseniz bu kez ilgili vmx de ilgili disk için:

scsiX:Y.virtualSSD = 0 parametresini girip kaydetmeniz yeterli olacaktır.




18 Mart 2014

Citrix XEN Server 6.2 SP1'e Manual Update

Bildiğiniz gibi Citrix, yaklaşık 6-7 ay kadar önce sunucusanallaştırma yazılımı XEN Server'ı açık kaynak kod yaptı ve ücretsiz kullanıma sundu. Ancak bu ücretsiz kullanıma XEnCenter üzerinden hostların update'i dahil değil. 

Bunun için Citrix'den subscription almanız gerekiyor. Eğer ücretsiz XEN Server kullanıyorsanız da komut satırından bağlanıp güncellemeleri yapmanız mümkün. 

Ben aşağıda yeni çıkan SP1 e geçişi için komutları verdim. Bu adımlar tüm güncellemeler için de geçerli.


  1. Citrix'den dosyayı indirin.
  2. Zip'i açın ve dosyaları sunucunun root home dizinine kopyalayın.
  3. Host'a SSH bağlantısı kurun ve aşağıdaki komutu çalıştırın
xe patch-upload file-name=XS62ESP1.xsupdate
4. Bir kaç dakika bekledikten sonra bir UUID çıkacaktır. Bu UUID yi ve XenCenter üzerinden erişebilecek host-UUID sini kullanarak aşağıdaki komutu çalıştırın.

xe patch-apply uuid=0850b186-4d47-11e3-a720-001b2151a503 host-uuid=5b280513-bfcf-4ce0-9d49-25aa61c110d9