Windows Server 2012 R2 Hyper-V vs Vmware 5.5 – Sanallaştırmanın Sınırları

Written by Ertan Gülen on. Posted in Sanallaştırma

Bu yazı dizisinde olabildiğince tarafsız duruş ile özellik karşılaştıracağız desek de üreticilerin sunduğu onlarca teknolojiden hangisini ele alırsanız ona göre farklı bir tarafı öne çıkarmış olabiliyorsunuz. Yine de en çok soru gelen yada en ilgi çeken veya ihtiyaç olduğu düşünülen başlıklar ile hareket etmek sağlıklı olacaktır.

6 başlık altında toplanacak olan bu seride sırası ile;

  1. Lisanslama
  2. Sanallaştırmanın Sınırları
  3. Yüksek Erişilebilirlik ve Felaket Kurtarma Senaryoları
  4. Veri Depolama
  5. Network
  6. Sanal Makine Desteği

başlıklarınin inceleneceğini aktarmıştır Giriş yazımızda. Şimdi ise sıradaki başlığımız ile devam edelim.

2. Sanallaştırmanın Sınırları

Çok fantastik bir başlık gibi gelse de sınırlarımızı bilip hareket etmek yönettiğimiz altyapılar için kritik öneme sahiptir.

Bu başlık altında sanallaştırma platformalarında sayılar ile karşılaştırma yapacağız, kac vcpu, kac tb ram, kac host, kaç sanal vb..

En uzağa taş atmak tabirinin belki de can alıcı bir şekilde göründüğü karşılaştırma başlığıdır sayılar ve sınırlar. Üreticiler arasında fark zamanla kapanmış ve hatta ters yönde büyümektedir bugünlerde. Windows Server 2008 ve 2008 R2 varken Microsoft Vmware çözümleri ile neredeyse hiçbir başlıkta bu tarz bir karşılaştırmaya giremiyordu fakat Windows Server 2012 lansmanı ve v3 diye adlandırdığımız (Microsoft bu şekilde adlandırmasa da) sürüm sonrasında bu tablolar görülmeye değer bir hal aldı.

Neden sayılar önemlidir? Gerçekten bahsi geçen kaynaklara ihtiyacımız var mıdır?

Bu soruyu cok uzun uzadıya tartısabiliriz fakat sadece Exchange Server ve SQL Server’ın güncel sürümlerinde ortaya çıkan minimum kaynak ihtiyaçlarını bile analiz ettiğimizde artık 4 core CPU’lar yada 8 GB Ram’lerin yetmediğini görebiliyoruz. Windows Server 2008 R2 üzerinde kurulumu gerçekleştirilmiş bir Exchange Server 2007 yapısını firma ihtiyaçları doğrultusunda genişletmek ve yükseltmek istediğimizde artık 2008 R2’nin sanallaştırma sınırlarının bize yetmediğini görebiliriz. Dag yapısı içinde bir Exchange 2010/2013 yapısı kurmayı düşündüğümüzde Mailbox sunucuları 4 core ile calıstırmak pek de performans anlamında karlı bir durum oluşturmayacaktır. Keza SQL Server icin de aynı sorunlar belirmektedir. SQL 2005 yada SQL 2008 kurup 64 GB ram ile geçinebilirsiniz fakat artık SAP, Sharepoint gibi iş yüklerinde yada System Center Service Manager gibi uygulamalarda ihtiyaç duyulan SQL Server’lar ne 4 core ne de 64 GB Ram gibi sınırlar içinde kalmak istememektedir. SQL ile Datamining/BI çözümleri hayata geçirildiğinde de aynı sorun ile karşılaşmamız kaçınılmazdır.

İşte bu gibi sebeplerle artık sanallaştırma platformlarında kullanılabilir kaynak miktarlarını hayati öneme sahip olmaya başladı. Aşağıdaki tabloda görebileceğiniz özellik karşılaştırmaları üreticilerin sınırlarını gözler önüne sermektedir. Unutulmamalıdır ki bu karşılaştırmayı Hyper-V’nin 2 önceki sürümlerinde yapamazdık şimdi ise Vmware ne zaman yetişir diye tartışıyoruz.

 

Özellik Microsoft Vmware Notlar
Fiziksel Sunucu Başına Mantıksal İşlemci 320 320 5.5. ile yeni geldi
Fiziksel Sunucu Başına Bellek Miktarı 4 TB 4 TB vSphere 5.5. ile yeni geldi
Fiziksel Sunucu Başına Aktif Sanal Makine Sayısı 1024 512  
Sanal Makine Başına Cpu Miktarı 64 64 Vmware FT ile 1 vCpu ve 64 GB Ram
Sanal Makine Başına Bellek  Miktarı 1 TB 1 TB
Dinamik Bellek Yönetimi Dynamic Memory Memory Ballooning, Memory Overcommit Microsoft Cluster yapılandırılmış sanal makinelerde Memory Overcommit çalışmaz
Guest Numa Desteği Var Var Çok sayıda fiziksel Cpu olan ortamlarda çok çekirdekli sanal makine oluşturulduğunda kritik performans arttırabilir
Küme Başına Fiziksel Sunucu Sayısı 64 32  
Küme Başına Sanal Makine Sayısı 8000 4000  
Ekran Kartı Sanallaştırma (GPU) RemoteFX Virtual GPU  
USB Sanallaştırma Kısmen  USB Pass Through Remote Desktop, Windows To Go uyumlu USBler ve Enhanced Session Mode sayesinde yapılabiliyor

 

Dikkat çekici birkaç noktayı ayrıca tartışmak da fayda görüyorum.

Bir küme içerisinde (cluster da denir) 64 sunucu kime gerekir ki cümleleri çokça duyduğumuz cümleler ancak şuan hosting hizmeti vermeden 28 sunucu ile çalışan firmalar biliyoruz (banka değil) kaldı ki hosting firmalarını siz düşünün. Yada bir küme içerisinde 8000 sanal makine çok diyenler için: Tribula.com’un yayınlandığı sunucu tek bir host uzerindeki 120 sanal makineden sadece biri. Gerçek üretim ortamlarını konuşmuyoruz bile çok basit örnekler ile ilerliyoruz.

Gelelim diğer iki konuya ki biraz daha son kullanıcı işiymiş gibi hissedilen noktalar; EKran kartı sanallaştırma nedir neden gerekir gibi sorular için VDI nedir ne işe yarar gibi bir arama öneriyorum favori arama motorunuzda. USB kısmına gelince ben savunmaya geçeceğim, ne gerek var canım sanal makinede USB’ye. Ama kazın ayağı böyle değil işte. Çok ciddi kullanım alanı olan bazı muhasebe vb uygulamalarında USB token’lar ile kimlik doğrulama yada lisans kontrolü yapılabiliyor yine aynı şekilde bazı uygulamalarda harici cihazlar (usb’den ne çalışırsa düşünün bakalım) da gerekebiliyor.

Hyper-V tarafında çözüm için bazı taklalar atsak da çıkışı ile birlikte hayatımızı kolaylaştıracak yenilikler mevcut. İlki default bir özellik olan ancak disable durumda gelen Enhanced Session Özelliği: Sanal makinenizde network ayarları vb ile bağlantısı olmadan direk Hyper-V Integration Components sayesinde devreye giren bu özellik ile uzak masaüstü deneyimi yaşayabiliyorsunuz. Çok düz mantık hareket ederek uzak masaüstü bağlantısında olduğu gibi USB’leri yazıcıları ve diskleri bağlandığınız ortama aktarabiliyorsunuz. Bu arada kopyala- yapıştır ile dosya transferi de artık mümkün.

Konuşmam gerektiğine inandığım son nokta ise bellek yönetimi: İki üreticinin neredeyse tasarımsal olarak ortak noktası olmadığı icin de bu alanda da pek kesisme sağlanamıyor. Hyper-V bellek yönetimini tek bir teknoloji ile çözerken Vmware, vSphere içerisinde türlü isimler ile türlü taklalar atıyor. Kimine göre o iyi kimine göre bu fakat işin biraz daha derin teknik analizleri yapılmalı bu noktada (hatta CPU kullanımında da aynı şekilde). Eğer daha derin bir araştırma isterseniz http://tribu.la/bj adresinden ulaşabileceğiniz bir yazı mevcut.

İkinci Bölüm Özeti:

Sayılar ile konuşmak her zaman daha kolaydır. Büyük olan döver normalde. ama iş teknoloji ve sayı ilişkisine gelince bazen farklılık gösterebilir. (’nin 1 vcpu ve 64 GB ram ile calısması gibi ;) ) Mevcut özellikler arasında öne çıkanları yukarıdaki paragraflarda konuşmus olsak da teknoloji konusunda tümden gelim taraftarıyımdır yani tek tek karşılaştırma yerine genel baktığınızda sizin için hayati olan özellikleri size kısıtsız ve koşulsuz sunanı tercih etmeliyiz.

Cluster yapıldığı için bellek yönetemiyorsa clusterdan mı vazgeçeceğim kaynakların doğru kullanmasından mı sorusu ile karşı karşıya kalırsanız tercihinizi bizimle de paylaşın lütfen :)

Tags: , , , , , , , , ,

Trackback from your site.

Ertan Gülen

Ertan Gülen 1986 istanbul doğumludur. 8 yılı aşkın süredir bilişim sektörünün içerisinde farklı rollerde görev almaktadır. Bilge Adam BTA‘da eğitmenlik ve danışmanlık görevlerinin ardından bir süre Microsoft Türkiye'de Sanallaştırma ağırlıklı olarak System Center ürün ailesi, Forefront Güvenlik ailesi ve Server Ailesi hakkında İş Ortakları Teknoloji Danışmanı olarak görev almıştır. Şuan ise Avnet Türkiye'de Microsoft ürünlerinden sorumlu teknik danısman olarak çalışmaktadır. Windows 8 ve Hyper-V 3.0 araştırmakta, Hp Blade Sistemler, Sanallaştırma Mimarileri, Cloud Computing gibi konular üzerine kafa yormaktadır. MVP: Virtual Machine, vExpert 2011,MCT, ASE, CCNA, VCP, SCS, HPCI vb. sertifikalara sahiptir.

Leave a comment

*