Fiziksel SIM karta olan ihtiyacı ortadan kaldıracak olan e-SIM teknolojisi şimdilik sınırlı sayıda ülkede kullanılıyor. Ancak, daha önce de birçok kez duyurduğumuz gibi ülkemizde de bu çalışmalar devam ediyor. Son olarak, Ulaştırma ve Altyapı Bakan Yardımcısı Ömer Fatih Sayan, düzenlenen Güvenli İnternet Günü etkinliğinde müjdeli haberi verdi.
Ulaştırma ve Altyapı Bakan Yardımcısı Ömer Fatih Sayan, yaptığı konuşmasında e-SIM teknolojisinin ülkemizde kullanılmasının an meselesi olduğu söyledi. Gecikmesinin sebebi olarak; bu hizmeti yerli teknolojilerle gerçekleştirmek olduğu açıklandı. Bu teknolojiyi kendi imkanlarıyla hayata geçiren 4 ülkeden biri: Türkiye.
Daha önce BTK‘nın yıllık değerlendirme toplantısında konuşan Ulaştırma ve Altyapı Bakan Mehmet Cahit Turhan da önemli açıklamalar yapmıştı.
Mart 2019’da alınan kararda, uzaktan programlanabilir SIM teknolojilerini destekleyen sistemlerin kurulumu ve cihazlarda kullanımının yüzde 100 yerli ve milli olacağının belirtilmişti. Turhan da bunun altını çizdi. Ayrıca Turhan, otomotiv endüstrisi de dahil, cihazları e-SIM teknolojisini destekleyen kullanıcıların sistemden bu yıl yararlanmaya başlayacağını belirtti.
Turhan, yapılan düzenlemeyle uluslararası sertifikasyona sahip ekipman kurulumuna yüzde 100 yerlilik şartı getirildiğine dikkati çekerek, böylece Türkiye’ye ait hassas verilerin kendi kontrolünde olacağını bildirdi.
Açıklamaya göre e-SIM teknolojisiyle SIM karta bağlı güvenlik altyapısı yeni otomobillerde yazılım tabanlı olarak sunulacak. Araç tedarikçileri, 29 Şubat‘tan itibaren bu hizmetten yararlanabilecek.
Turkcell 5G alanındaki çalışmalarına bir yenisini daha ekleyerek bu alanda geliştirdiği teknolojiyle televizyon yayıncılığında devrim niteliğinde bir adım attı. Bugün Şenol Güneş Spor Kompleksi’nde oynanacak Trabzonspor-Fenerbahçe mücadelesi öncesi televizyondan gerçekleşen canlı yayın sayesinde izleyiciler, Türkiye’de ilk kez Turkcell 5G test şebekesi üzerinden canlı televizyon yayını izleme ayrıcalığını yaşadı.
5G alanındaki çalışmalarını aralıksız sürdüren Turkcell, 5G teknolojisi alanında yine bir ilke imza atarak 5G üzerinden Türkiye’de ilk canlı TV yayının gerçekleştirilmesini sağladı. Yayıncılık tarihinde yeni bir dönemi başlatan 5G canlı yayını, Trabzonspor – Fenerbahçe futbol maçı öncesi Şenol Güneş Spor Kompleksi’nden yapıldı. Turkcell’in 5G test şebekesi üzerinden gerçekleşen TV yayınıyla, izleyiciler 5G canlı yayın deneyimini yaşama şansına sahip oldu.
Trabzon’dan yapılan ilk 5G TV canlı yayınında Turkcell’in 5G test altyapısının yanı sıra Piko TV tarafından geliştirilen tamamen yerli ve milli yazılım da kullanıldı. Canlı yayının gerçekleşmesi için yayın kodlayıcısı ve batarya altyapısının bulunduğu, 5G teknolojisi sayesinde hafifletilmiş ve kolay taşınır özel sırt çantası kullanıldı. Kameraya bağlanan bu özel çantayla alınan görüntüler daha sonra 5G el terminali kullanılarak, Turkcell 5G test şebekesi üzerinden yayın kanalına kesintisiz, düşük gecikmeli ve yüksek kaliteyle gönderildi. Spor kanalının, görüntüleri canlı olarak yayınlamasıyla, üstün teknoloji ve özen gerektiren canlı yayın süreci, yerli yazılımla tamamlanan 5G teknolojisi ile başarıyla tamamlandı.
Gediz Sezgin: “5G televizyon yayıncılığına da büyük yenilikler getirecek”
Turkcell’in 5G teknolojisini kullanarak Türkiye’de televizyon yayıncılığı açısından yeni bir dönemi başlattığını belirten Turkcell Şebeke Teknolojilerinden Sorumlu Genel Müdür Yardımcısı Gediz Sezgin şunları söyledi:
Bugün Türkiye’de yine bir ilki gerçekleştirmenin heyecanını yaşıyoruz. Turkcell olarak en ileri teknolojileri hayatın her alanına yaymak adına çalışmalarımızı aralıksız olarak sürdürüyoruz. 5G’nin hayatımıza girmesiyle birlikte sadece endüstri ve üretim biçimlerinde değil her alanda değişikler olacak. Bunların başında ise televizyon yayıncılığı geliyor. 5G teknolojisinin getirdiği yüksek kapasiteli ve düşük gecikmeli veri iletim imkanı yayıncılık sektöründe farklı dünyaların ve deneyimlerin kapısını açacak. Bu sayede izleyiciler daha önce hiç karşılaşmadıkları yeniliklerle karşılaşacak. Bu canlı yayında da gördüğümüz gibi mevcut teknolojilerde birden fazla ekipman üzerinden sunulabilen hızlar 5G teknolojisi sayesinde tek bir el terminali ile sağlanabiliyor. Gigabit seviyesindeki veri gönderme hızları sayesinde 4K/8K gibi yüksek çözünürlüklü kaliteli kamera çekimleri, lokasyondan bağımsız olarak tek kameraman tarafından kolaylıkla yapılabiliyor ve evlerimizdeki televizyonlardan çok düşük gecikmeli olarak izlenebiliyor. Televizyon yayıncılığında olduğu gibi Turkcell’in güçlü altyapısıyla desteklenen 5G sayesinde sunacağımız yeni teknolojilerle hayatın her alanına dokunmaya devam edeceğiz.”
5G çalışmalarına hızla devam eden Turkcell, daha önce de Şenol Güneş Spor Kompleksi’nin tüm dijital altyapısını kurmuş ve Trabzonspor stadını 5G’ye hazır hale getirmişti.
Turkcell veri gizliliği konusunda çalışan dünyanın en büyük kuruluşu Uluslararası Veri Gizliliği Profesyonelleri Birliği’ne üye oldu.
Verilerin korunması ve gizliliği konusunda hukuki ve regülatif gelişmeleri yakından takip eden Turkcell, bu konuda dünyanın önemli şirketlerini bir araya getiren Uluslararası Veri Gizliliği Profesyonelleri Birliği’ne (International Association of Privacy Professionals – IAPP) üye oldu. Turkcell, IAPP çatısı altında Apple, Deutsche Telekom, Google, Microsoft, Verizon gibi milyonlarca müşterisi olan şirketlerin profesyonelleri ile verilerin korunması ve gizliliği konusunda güncel gelişmeleri değerlendirerek fikir alışverişinde bulunacak. Sadece Türkiye’de değil uluslararası alanda da hizmet veren ve uluslararası düzenlemeler ışığında hareket eden Turkcell, bu konuda da Avrupa Birliği Genel Veri Koruma Tüzüğü’ne uygun olarak şirket içerisinde Veri Koruma Görevlisi atadı.
Turkcell kişisel verilerin korunması ve gizlilik konusunda yaptığı çalışmalara bir yenisini daha ekleyerek, bu konuda çalışmalar yürüten dünyanın en büyük veri gizliliği kuruluşu olan Uluslararası Veri Gizliliği Profesyonelleri Birliği’ne (IAPP) üye oldu. Amazon, Apple, Deutsche Telekom, Facebook, Google, Microsoft, T-Mobile, Verizon gibi dünya devlerinin de üyesi olduğu IAPP, dünya genelinde veri gizliliği konularını tanımlayarak, bu konuda yapılması gereken çalışmalara destek veriyor. Kuruluş aynı zamanda dünyada veri gizliliği konusundaki uygulamaların gelişmesine de katkı sağlıyor. Turkcell, IAPP üyeliğinin yanı sıra Avrupa Birliği Genel Veri Koruma Tüzüğü’ne uygun olarak şirket içerisinde bir de Veri Koruma Görevlisi atadı. Yeni atanan Veri Koruma Görevlisi, ilgili kurumlarla koordinasyonun yanı sıra şirket içerisindeki kişisel verilerin korunmasına dair tüm süreçlerin yönetimini üstlenecek.
Konuyla ilgili değerlendirmelerde bulunan Turkcell Hukuk ve Regülasyondan Sorumlu Genel Müdür Yardımcısı Serhat Demir şunları söyledi:
“Teknolojinin baş döndürücü bir hızla ilerlemesi ve buna bağlı olarak internet kullanımının giderek artmasıyla birlikte önemi her geçen gün artan verinin gizliliği ve korunması konuları şirketlerin en önemli gündemlerinden biri haline geldi. Turkcell olarak en başından beri müşterilerimizin veri gizliliğine son derece önem vererek, Kişisel Verilerin Korunması Kanunu’nda belirtilen kurallara sıkı sıkıya bağlı bir şekilde hareket ediyoruz. Bununla birlikte teknolojinin hızına bağlı olarak değişen uygulamaları ve standartları yakından takip ediyoruz. Bizim gibi geniş müşteri ağına sahip dünyadaki diğer dev şirket profesyonelleriyle yakından çalışmak ve yapılan çalışmalara katkı sağlamak amacıyla Uluslararası Veri Gizliliği Profesyonelleri Birliği’ne üye olduk. Yine yurtdışında da hizmet verdiğimiz için Avrupa Birliği düzenlemelerine uygunluk açısından şirket içerisinde Veri Koruma Görevlisi belirledik. Bu konuya katkı sağlayan ulusal ve uluslararası tüm inisiyatiflerde söz sahibi olarak müşterilerimizin verisinin korunması konusunda da dünya standartlarında çalışmaya devam edeceğiz.”
Load Balancer yani yük dengeleyici basitçe özetlemek gerekirse birden fazla kaynağın arasında iş yüklerinin dağıtımı olarak ifade edebiliriz. Kaynakların kullanımı iyileştirmek , yanıt sürelerini aşağıya çekebilmek ve tek bir kaynak üzerine aşırı yük bindirmekten ziyade yüklerin dağılımını yapmamızı sağlayan bir araçtır.
Azure Load Balancer ailesi aslında dört farklı yük dengeleyeci olarak kendine yer bulur. Aslında bunu yine iki boyutlu olarak değerlendirmek gerekmektedir. HTTP(S) ve HTTP(S) olmayanlar şeklinde. Azure üzerinde bahsettiğimiz yük dengeleme seçeneklerinin tamamı yazılım tabanlıdır.
Azure Load Balancer bir veya daha fazla ön uç public ya da private IP adresleri ile istekleri karşılar. Aslında bizlerin hizmet verecek olan ve isteklerin karşılanacağı bir yüze sahiptir. Backend Pool olarak isimlendirilen yani arka tarafta aynı hizmeti vermek üzere birebir aynı konfigürasyonlara sahip sunucular ya da uygulama servisleri olarak yapılandırılmış havuzumuz mevcuttur.
Azure Load Balancer arkasında yani backend tarafımıza bakan uçlarımızda Sağlık (Health) proplar bulunur. Bu problarımız arka havuzumuzda hizmet veren sunucular ya da uygulamalarımızın erişilebilirlik durumlarını kontrol eder. Eğer ki bir sorun var ise hizmet noktasında erişimi problemli olan uçlara yönlendirme işlemini gerçekleştirmez.
Bunların dışında, Azure Load Balancer kurallarımızı içeren bileşenleri de mevcuttur. Bu kurallarımız ise karşıladığımız istekleri yani hangi tür trafiğin karşılanacağını ve karşılanan bu trafiğin yönlendirilmesi gibi kuralları ifade eder.
Bu noktada eğer ki bir web havuzumuza yük dengeleme yapıyor isek bu son derece kolay anlaşılabilecek ve yaygın bir kullanımı olan senaryodur. Çünkü bizler biliyoruz ki 80 veya 443 numaralı portlarla web hizmet veririz.
Azure Load Balancer üzerinde Inbound Nat Rules ve Snat kuralları da desteklenmektedir. İşte bu noktada bir web yük dengeleyicinin dışında kalan ve son derece önemli olan faydalarından rahatlıkla bahsedebiliriz.
Azure Load Balancer frontend tarafında bulunan public veya private IP adresine erişimlerin karşılandığı yer olduğundan bahsetmiştik. Gelen bu isteklerde backend tarafındaki sunucular ya da uygulamalara yönlendirildiğini de biliyoruz. Bu yönlendirmeler yani stickiness’ler ne şekilde çalışır birazda bunlara değinelim.
Diyagramda da göreceğiniz üzere Azure Load Balancer Layer 4 katmanında çalışır ve Hash Based olarak gelen istekleri yönlendirir. Varsayılan olarak yük dağılımını da 5 farklı (Tuple) tanımlama grubuna göre gerçekleştirir.
Source IP
Source Port
Destination IP
Destination Port
Protocol
Bu yük dağıtım modeli varsayılan olarak böyledir. Peki bu başlıklarda bulunan yöntemlerin dışında custom olarak belirlemek istiyor isek, Azure Load Balancer buna da izin vermektedir. Powershell komutları ile bahsettiğimiz metotları rahatlıkla değiştirebiliriz.
Bunlar aslında bizlerin iş ihtiyaçlarına göre farklılıklar gösterebilir ve farklı yük dengeleme metotlarına duyacağımız ihtiyaç ile ilgilidir.
Örnek vermek gerekirse Source IP Affinity iki kontrol noktasını içerir. Source IP adresi ve Destination IP olacak şekildedir. Ve bizler buna özel tanımlamalar yapabiliriz. Vermiş olduğum Source IP Affinity olarak kullanım amacımız genelde Azure üzerinde RDS Gateway için yapılandırılması önerilen bir dağıtım metodur.
Azure Load Balancer Standart SKU;
Standart Azure Load Balancer, Basic Azure Load Balancer üzerinde genişletilmiş ve daha detaylı özellikleri barındırır. Özellik olarak aralarında benzerlikler olsa da yetenekleri ve desteklediği yapılar özelinde farklılıklar mevcuttur. Bu sebeple eğer bir yapılandırma yapılacak ise öncelikle iş ihtiyaçları belirlenmeli ve bu ihtiyaçlara göre Azure Load Balancer SKU’ların seçimi yapılmalıdır.
Yukarıdaki görselde Temel farklıkları görebilirsiniz. Eğer daha detaylı görmek isterseniz aşağıda bulunan link üzerinden farkları ve sınırlandırmaları inceleyebilirsiniz.
Azure Internal Load Balancer hangi amaçla ve sebeple kullanıldığından bahsetmek gerekirse bizlerin public tarafta yer alan uçlardan gelen istekleri aldığımızı ve uygulama havuzumuza gönderdiğimizi biliyoruz. Fakat uygulamalarımız veri tabanı kullanımının olduğunu ve güvenlik adına da aynı network üzerinde tutmak istemeyebiliriz. Böyle bir yapıda aşağıdaki diyagramda da göreceğiniz üzere Database network arka tarafta Internal Azure Load Balancer arkasına alabiliriz. Bu yapı bizlere ekstra güvenlik sağlayacağı gibi network olarak da arka tarafta bulunan SQL sunucularımızın da erişilebilirliğini artıracak bir yapıdır.
Azure Internal Load Balancer için kullanım alanları ile örneklemeye devam edecek olursak. Azure üzerinde bütün işlerini ya da Yukarıdaki diyagram özelinde Azure Load Balancer ve Azure Internal Load Balancer kullanarak güvenlik seviyesini her ne kadar yukarı çektiğimizi söyleyecek olsak da bilinmesi gerekir ki Load Balancer bir güvenlik duvarı değildir.
Şimdi artık senaryomuzu oluşturmaya ve dağıtım işlemlerine başlayalım.
Yukarıdaki diyagram da göreceğimiz üzere bir adet Public Azure Load Balancer ve arka havuzumuzda bulunan sanal sunucularımız üzerinde IIS rolünün yapılandırıldığı bir sunucu havuzu bulunmakta.
Senaryonumuz ise bilindik ve kolayca yapılandırabileceğimiz 80 portuna gelen isteklerin yine arka havuzumuzda bulunan sanal sunucularımız üzerinde yük dağılımının gerçekleştirilmesi. Bununla birlikte yine daha önce belirttiğimiz NAT kurallarını oluşturmak olacak. NAT kuralı olarak da yine hızlı olması açısından Remote Desktop Protokolü (3389) NAT kuralı oluşturacak ve uygulayacağız.
Burada önemli bir detay paylaşmak istiyorum. Bizler bu senaryoyu oluşturmak için arka havuzumuzda bulunan sanal sunucularımızın oluşturulduğunu varsayarak devam edeceğiz. Arka havuzumuzda bulunan sunucularımızın da bir Azure Availability Sets grupları içerisinde yer aldığını bilmeniz gerekmektedir. Dolayısı ile sizler eğer mevcut ortamınızda Azure Load Balancer için bir planlamaya gidecekseniz ve daha önce oluşturmuş olduğunuz sanal sunucular bir Availability Sets grupları içerisinde değil ise burada yönlendirmeleri yapamayabilirsiniz.
Böyle bir durum var ise Azure üzerinde ne yazık ki daha önce oluşturulmuş olan ve servis veren sunucularımızı Azure Portal üzerinde sonradan Availability Sets gruplarına almanıza imkân sağlamamaktadır.
Böyle bir durum var ise aşağıda paylaştığım Powershell komut setleri ile bu işlemi gerçekleştirebilir ve oluşturmuş olduğumuz Azure Availability Sets grupları altına bu sunucularımızı tanımlayabiliriz.
Bunun için öncelikle galeriden ilgili komut setini import ederek işleme başlıyoruz.
Install-Module AzureRm.AvailabilitySetManagement
Bu adımdan sonra aşağıdaki komut seti ile hesabımıza bağlanıyor ve giriş yapıyoruz.
Add-AzureRmAccount
Bu adımdan sonra Azure SubscriptionID ‘ye ihtiyaç duyacağız. Azure SubscriptionID alabilmek için aşağıdaki komut setini çalıştırıyoruz. Komut çıktısı olarak SubscriptionID numarasını alıyoruz.
Get-AzureRmSubscription | fl
Bir sonraki adımımızda almış olduğumuz ID numarasını aşağıda belirttiğim komut seti içerisinde kullanıyoruz.
Aşağıda göreceğiniz komut seti yeni bir Azure Availability Set oluşturmak için kullanacağımız bir komut seti. Eğer ki sizler bunu Azure Portal üzerinden oluşturduysanız bu komut setine ihtiyacınız bulunmamaktadır.
Bir önceki komut setimiz ile Availability Set grubumuzu oluşturmuş olduk. Bundan sonra mevcut durumda olan sunucularımızı , bir önce ki adımda oluşturmuş olduğumuz grup içerisine dahil edeceğiz. Bunun için aşağıda belirtilen komut setleri ile ilerleyeceğiz.
Add-AzureRmAvSetVmToAvailabilitySet -ResourceGroupName “CPLoadB” -VMName “Sunucu İsmi” -OsType windows -AvailabilitySet “CPAvailabilityGroup”
Yukarıdaki komut setimizi ilk başta oluşturmuş olduğumuz Azure Availability Set grubuna kaç adet Azure sanal sunucumuzu ekleyecek isek ona göre çalıştırmamız gerekmektedir. Ben bu grubu oluştururken üyesinin üç tane olacağını tanımladım. Sizler daha fazla sunucu ile hizmet verecek ve havuzunuza ekleyecekseniz ona göre komut setini düzenlemeniz gerekmektedir.
Bu noktada en önemli detay buradaki komut setlerinizi çalıştırdıktan sonra, yürütülen komut öncelikle sanal sunucunuzun Disk olarak çıktısını alır ve mevcut sunucumuzu ortamdan kaldırır. Daha sonra tekrardan dışarıya Template olarak çıkardığı diskimizden yeniden sanal sunucu oluşturur. Bu işlemi yaparken sunucumuz zarar görmez. Oluşturulan yeni sunucu Azure Availability Sets grubu içerisinde dahil eder. Fakat sizler bu sunucular üzerinde herhangi bir şekilde veya ihtiyaç duyduğunuz herhangi bir extension’u Marketplace üzerinden ya da Azure Policy ile aktifleştirdiyseniz Availability Group içerisinde aldıktan sonra aktif hale getiremez. Dolayısı ile daha önce herhangi bir eklenti konfigürasyonu yapmışsanız bunu yeniden konfigüre etmeniz gerekmektedir.
Buraya kadar hepimizin aynı noktada olduğunu düşünerek artık Azure Load Balancer dağıtımını bir sonraki makalemiz de gerçekleştirebiliriz.
Bir önceki Azure Load Balancer makalemizde, Azure Load Balancer SKU’ları, bunların arasındaki farkları ve limitasyonların neler olduğunu anlatmıştık. Daha sonra Azure Load Balancer senaryomuzu belirledikten sonra Availability Set grubunu daha önce oluşturmadık ise bunu nasıl yapabileceğimizi anlatmıştık.
Senaryomuzu hatırlayacak olur isek bir adet public IP adresine sahip olacağız arka havuzumuzda Web Server hizmeti veren sunucularımızı Basic SKU ya sahip Azure Load Balancer ile yük dağıtım işlemini gerçekleştireceğiz.
Artık bütün her şeyiyle yapımız hazır ve Azure Load Balancer dağıtımına başlayabiliriz.
Öncelikle Azure Portal açıyoruz ve Load Balancer seçimini yapıyoruz.
Açılan sayfamız üzerinde Add seçimini yapıyoruz ve Azure Load Balancer oluşturmaya başlıyoruz.
Öncelikle ekran görüntüsünde de göreceğiniz üzere Azure Load Balancer’a bir isim veriyoruz.Region seçimi , Load Balancer için SKU tanımlamalarımızı gerçekleştiriyoruz. Public IP olarak static olarak Public IP adresini tanımladıktan sonra Create seçimi ile Azure Load Balancer oluşturmaya başlıyoruz.
Oluşturmuş olduğumuz Azure Load Balancer üzerinde Backend Pool tabına geçiyoruz ve Add seçimi yaparak arka havuzumuza hizmet vereceğimiz sunucularımı ekleyeceğiz.
Backend havuzumuz için isimlendirmemizi yaptıktan sonra Virtual Network seçimini gerçekleştiriyoruz. Havuza dahil olacak olan sunucularımızın seçimini yaparak bu adımımızı tamamlıyoruz.
Ekran görüntüsünde de görüleceği üzere backend sunucularımızı artık Azure Load Balancer arkasına almış durumdayız.
Bir sonraki adımımız havuzumuzda bulunan sunucularımızın sağlık problarını tanımlamakta. Hizmet veren sunucularımızın hizmet noktasında bir problem oluşursa yönlendirme yapmalarını engelleyecek tanımlamalarımızı gerçekleştireceğiz.
Sağlık kuralımız için ben sadece 80 portunun kontrolünü ele aldım. Beş saniye de bir port erişimi deneyecek ve iki kez fail aldığında artık yönlendirmeleri buraya almayacak şekilde prob tanımlarını gerçekleştirdik.
Backend havuzumuzu oluşturduk, ardından Sağlık problarını da yapılandırdıktan sonra artık sıra Load Balancing kuralını oluşturmaya geldi. Azure Load Balancer sayfamızda Load Balancing Rules seçimi yapıyoruz ve ardında Add diyerek kurallarımızı oluşturmaya başlıyoruz.
Kuralımıza bir isim veriyoruz. Public IP adresimizin karşılayacağı port numarası olarak http (80) protokolünü tanımladık. Arka havuzumuz da yine http (80) portuna göndereceğimiz bilgilerini tanımladık. Idle time olarak defaul olan dört dakika olarak bıraktık. Burada ki değeri kendi yapınıza göre değiştirebilirsiniz. Bunun anlamı gelen bağlantıyı ne kadar süre açık tutacağını tanımlayan bir değerdir. İlgili tanımlamaları gerçekleştirdikten sonra onaylayarak çıkıyoruz.
Azure Load Balancer kurulumlarını ve konfigürasyonlarını tamamlamış durumdayız. Artık testlerimizi gerçekleştirerek kontrollerimizi yapacağız.
Frontend olarak tanımlamış olduğumuz Azure Public IP adresine gittiğimizde ekran görüntüsünde de göreceğimiz üzere artık yük dağılımını başarılı bir şekilde gerçekleştiğini görüyoruz
Bu günkü makalemizde VMware üzerinde Storage IOPS değeri nasıl 1000 den 1’e çekilir bu konuyu anlatacağım.
Performansa ihtiyacınız var ve aktif olarak tüm SAN üzerinde ki path yollarını kullanmanız gerekiyor ama roud-robin ile direkt bu maalesef mümkün değil, limitasyon aşılmadığı sürece tek path üzerinde I/O işlemi gerçekleştirilir.
ESXi Round Robin yükü tüm etkin depolama yollarında dengelemek için bir round-robin algoritması kullanır. Belirli bir miktarda veri aktarılana kadar bir yol seçilir ve kullanılır. Bu miktara ulaşıldıktan sonra, sıradaki bir sonraki yolu seçer.
Örneklendirelim isterseniz;
Ortamımızda bir datastore’a 1000 I/O gelene kadar tek path üzerinden I/O olur, 1001 I/O da ise diğer path > ikinci yolda kullanılacaktır.
ESXi Round Robin iki tür yolu destekler:
IOPS sınırı: Round Robin varsayılan olarak 1000 değeri olarak gelir. IOPS varsayılan durumda, 1000 I/O işlemi yaptıktan sonra yeni bir yol kullanır.
Bayt sınırı: Bayt sınırı, IOPS sınırına bir alternatiftir. Bayt sınırı path değiştirilmeden önce belirtilen miktarda tahsis edilen baytın aktarılmasına izin verir.
Bizim ortamımızda 3PAR StoreServ bulunduğu ve Storage üreticisi bu konfigürasyonu desteklediği için ilgili VMware host SSH bağlantısı ile aşağıda ki komutlar ile değişikliği gerçekleştiriyorum.
İşlem yapılmadan önce aşağıda ki gereklikleri lütfen unutmayın.
Hangi datastore üzerinde çalışma gerçekleştirecekseniz eğer path adresini vCenter üzerinden öğrenin.
İlk olarak aşağıda ki komut çalıştırılarak IOPS değeri öğrenilir.
esxcli storage nmp device list -d naa.xxxxxxxxxxxxxxxxxx
Ardından aşağıda ki komut çalıştırılarak IOPS değeri 1’e çekilir.
for i in `esxcfg-scsidevs -c |awk ‘{print $1}’ | grep naa.xxxxxxxxxxxxxxxxxx`; do esxcli storage nmp psp roundrobin deviceconfig set –type=iops –iops=1 –device=$i; done
Daha sonra tekrardan aşağıda ki komut ile limit değeri kontrol edilir.
esxcli storage nmp device list -d naa.xxxxxxxxxxxxxxxxxx
HPE 3PAR StoreServ Storage and VMware vSphere 6.5 best practices
İşlem bitince mutlaka eğer SSH bağlantıları Any ise devre dışı bırakın.
Umarım faydalı olmuştur vakit ayırdığınız için teşekkür ederim, bir sonraki makalemizde tekrardan görüşmek üzere.
Geçtiğimiz aylarda “ Equifax’a Rekor Ceza “ başlıklı haberde Equifax sunucularında yaşanan veri ihlali sonucu şirkete kesilen rekor cezanın haberini sizler ile paylaşmıştık.
Geçen süre içeresinde ABD Hükümeti işin peşini bırakmadı ve kısa önce yapılan açıklamada dört Çinli askeri hacker için suç duyurusunda bulunularak işgalleri ifşa edildi.
ABD Adalet Bakanlığı bugün yaklaşık 150 milyon Amerikalının kişisel ve finansal verilerinin sızdırılması Equifax veri ihlalinin arkasında olduğu iddia edilen 4 Çinli askeri hacker’a karşı suç duyurusunda bulundu. Başsavcı William Barr ve FBI Genel Müdür Yardımcısı David Bowdich ile ortak basın toplantısını düzenleyerek açıklamalarda bulundurlar.
Dört sanık, Wu Zhiyong (吴志勇), Wang Qian (王 乾), Xu Ke (许可) ve Liu Lei (刘磊), ticari sırları, fikri mülkiyeti ve gizli bilgilerin çalınması ve bu kişilerin gizli bilgilerinin çalınmasıyla ilgili oldukları gerekçesiyle suçlandı.
Eylül 2017’de, kredi raporlama ajansı Equifax, ABD nüfusunun neredeyse yarısının son derece hassas verilerini bilgisayar korsanlarının ellerine geçtiği büyük bir siber saldırının kurbanı olduğunu açıklamıştı.
Dört zanlı şüphelinin hala Çin’de yaşıyor ve FBI’ın En Çok Aranan Siber listesine eklendi.
ABD ilk kez 2014 yılında Çinli istihbarat memurlarını hackleme ve siber casusluktan suçlamıştı.
Realtek firması güvenlik açığı test ekibi, Windows işletim sistemleri için olan HD Ses Sürücü Paketinde kritik bir güvenlik açığı olduğunu doğruladı. Bu güvenlik açığı saldırganların güvenlik mekanizmalarını geçebilmelerine izin veriyor.
CVE-2019-19705 olarak bildirilen hata, kötü amaçlı kod yürütmek için kullanılabilecek bir DLL hırsızlığıdır. Realtekin raporuna göre; “Hata, NT AUTHORITY\SYSTEM olarak çalışan HD Ses Arkaplan İşlemindedir (RAVBg64.exe). İşlem çalıştırıldıktan sonra eksik DLL’ler olan RAVBg64ENU.dll ve RAVBg64LOC.dll yüklemeye çalışır.”
Bu noktada, hedef sistemde yönetici ayrıcalıklarına sahip bir hacker, imza doğrulamasının olmaması ve güncellenmemiş yazılımların kullanılması nedeniyle olası bir kötü amaçlı kod çalıştırabilmek için rastgele bir DLL yükleyebilir.
Realtek bu güvenlik açığının eski HD Ses Sürücüsünün (DCH olmayan) verisyon 1.0.0.8855 sürümünde olduğunu belirtti. PC üreticileri Realtek HD Ses Sürücüsü (DCH olmayan) versiyon 1.0.0.8856 güncellemesini yayınladı ve kullanıcıların bu güncellemeyi yüklemelerini önerdi.
Turkcell görme engelli çocukların sinema hayalini gerçekleştirdi. Hayal Ortağım Sesli Betimleme ilk kez İstanbul dışında bir etkinlikte görme engelli çocuklar için kullanıldı.
Turkcell’in Milli Eğitim Bakanlığı himayesinde gerçekleştirdiği ‘Engelsiz Eğitim’ projesi kapsamında başkent Ankara’da eğitim gören 20 görme engelli çocuk, CGV Mars Cinema Group ‘Herkes için Sinema’ projesi çatısı altında desteklediği etkinlikte Hayal Ortağım Sesli Betimleme teknolojisi ile sinema heyecanı yaşadı. Turkcell ve CGV Mars Cinema Group iş birliğiyle gerçekleştirilen etkinlikte, görme engelli Kerem Aktan adlı gencin, ABD’li görme engelli yönetmen James Rath’la buluşmasını konu alan videonun da gösterimi yapıldı. Benzer etkinlikler yıl boyunca Anadolu’nun çeşitli illerinde devam edecek.
Türkiye’nin teknoloji öncüsü Turkcell’in, görme engellilerin sosyal hayata daha aktif ve bağımsız olarak katılmalarını amaçlayan Hayal Ortağım uygulaması ile gerçekleştirdiği sinema etkinlikleri eğlence sektörünün lider markası CGV Mars Cinema Group iş birliği ile Anadolu illerinde sürüyor. Bu kapsamda Mitat Enç Görme Engelliler İlkokulu’nda okuyan 20 öğrenci, Hayal Ortağım’ın Sesli Betimleme teknolojisi yardımıyla başkent Ankara’daki Atakule Cinemaximum sinemasında, “Bulmaca Kulesi: Dev Kuşun Gizemi’ filmi ile buluştu. Böylece sesli betimleme ilk kez İstanbul dışında görme engelli çocuklar için toplu gösterim gerçekleştirilen bir organizasyonda kullanılmış oldu.
Turkcell’in Milli Eğitim Bakanlığı himayesinde gerçekleştirdiği Engelsiz Eğitim Programı kapsamında kurulan teknoloji sınıfının öğrencileri, CGV Mars Cinema Group desteğiyle gerçekleştirilen etkinlikte sesli betimleme teknolojisi sayesinde hiçbir görsel detayı kaçırmadan sinema salonunda film keyfi yaşadı.
Turkcell Pazarlamadan Sorumlu Genel Müdür Yardımcısı Ömer Barbaros Yiş ve CGV Mars Media Genel Müdürü Nurdan Ulu Horozoğlu’nun ev sahipliğinde düzenlenen etkinliğe Milli Eğitim Bakanlığı Özel Eğitim ve Rehberlik Genel Müdürü Nezir Gül ve Daire Başkanı Ahmet Kaya da katıldı.
Ömer Barbaros Yiş: “Attığımız iyilik tohumlarını tüm dünyaya yaymak istiyoruz”
Ömer Barbaros Yiş yaptığı açıklamada “Turkcell olarak teknoloji alanındaki gücümüzü, toplumdaki dezavantajlı grupların faydasına sunmayı her zaman kendimize misyon edindik. Engelli bireylerin sosyal hayata daha aktif ve bağımsız katılımını sağlayan teknolojilerimizi bu yıl da Anadolu illerinde yaşayan görme engelli çocuklarımızla buluşturacağız. Düzenlediğimiz etkinliklerle çocuklarımızın yüzünde en ufak gülümsemeye vesile olmak bile bizim için büyük mutluluk. Buradan bir çağrı yapmak istiyorum. Turkcell olarak yürüttüğümüz kurumsal sosyal sorumluluk projelerimiz aracılığıyla attığımız iyilik tohumlarını paydaşlarımızın ve özel sektörün desteğiyle tüm dünyaya yaymak istiyoruz” diye konuştu.
Nurdan Ulu Horozoğlu: “Sinema deneyimini Türkiye’nin dört köşesine yaymak için çalışıyoruz”
CGV Mars Cinema Group olarak sadece sinema endüstrisinin gelişimi için değil, sinema kültürünün toplumun tüm kesimleri tarafından benimsenmesini sağlamak için çaba gösterdiklerini belirten CGV Mars Media Genel Müdürü Nurdan Ulu Horozoğlu da “Sürdürdüğümüz ‘Herkes için Sinema’ projesiyle kamu kurum ve kuruluşları, yerel yönetimler ve sivil toplum kuruluşlarıyla el ele vererek başta çocuklar olmak üzere toplumun her kesimini sinemayla buluşturuyoruz. CGV Mars Cinema Group olarak bizi çok heyecanlandıran Hayal Ortağım teknolojisiyle salonlarımızda görme engelli çocuklarımızı ağırlayabilecek, onların arkadaşlarıyla yaşayacakları sinema keyfine ortak olacağız. Biz bir adım attık, devamı için tüm sektör paydaşlarımızı görme engelliler için iş birliğine davet ediyoruz. Vizyona giren tüm filmlerin sesli betimlemelerinin yapılması adına farkındalık yaratmak için çalışmalarımıza devam edeceğiz” ifadelerini kullandı.
Görme engelli Kerem Aktan’ın hayali gerçek oldu
Etkinlikte Turkcell’in hazırladığı özel bir kısa filmin de ilk gösterimi yapıldı. 13 yaşındaki görme engelli Kerem Aktan’ın, Turkcell aracılığı ile ABD’li görme engelli yönetmen James Rath’la bir araya gelişinin hikayesini konu alan film büyük ilgi topladı. (Filmin linkini burada bulabilirsiniz: https://www.youtube.com/watch?v=RzKmO6q6I-8)
Doğuştan görme engelli olan ve çocukluk yıllarından bu yana kısa videolar çeken Rath, 2016’da Apple ürünleri sayesinde hayatının nasıl daha kolay hale geldiğini anlatan “Apple Hayatımı Nasıl Kurtardı?” (“How Apple Saved My Life?”) adlı videosuyla Apple yönetiminin dikkatini çekmişti. Rath o tarihten bu yana da Apple uzmanlarıyla, görme engelliler için daha uygun ürünler üretilmesi konusunda çalışmalar yürütüyor.
Yıl boyunca devam edecek
2020 boyunca dokuz Anadolu kentinde Cinemaximum salonlarında devam edecek Hayal Ortağım etkinliklerinin bir sonraki ayağı Mart ayında Gaziantep’te düzenlenecek.
Turkcell’in YGA iş birliğinde ve Sesli Betimleme Derneği’nin destekleri ile hayata geçirdiği Hayal Ortağım uygulaması içerisinde yer alan Cepten Sesli Betimleme özelliği, filmlerin kilit noktası olan çevre, mekan, kişi ya da objeye dair özelliklerin ve diyalogsuz sahnelerin sesle tasvir edilmesini sağlıyor.
Bugüne kadar 250’den fazla vizyon ve festival filminin sesli betimlemesini görme engellilere ulaştıran hizmet sayesinde görme engelli sinemaseverler, sinema salonunda hiçbir görsel detayı kaçırmıyor. Sesli betimleme filmle senkronize şekilde ilerleyip kullanıcının filmi tüm detaylarıyla takip etmesini sağlıyor.
Görme engellilerin ücretsiz olan sesli betimleme hizmetinden yararlanması için, filmin oynadığı sinema salonuna gidip Hayal Ortağım uygulaması içerisinde yer alan Sesli Betimleme’yi başlatmaları ve kulaklıklarını takmaları yeterli oluyor.
Sesli betimleme filmle senkronize şekilde ilerleyip kullanıcının filmi tüm detaylarıyla takip etmesini sağlıyor. Uygulama tüm kullanıcılara ücretsiz hizmet veriyor.
Son günlerde gelen sorunlar arasında windows 2008 ve bazı windows 7 sunucuların açılmaması konusu çoğaldı. Bunlara baktığımızda genelde KB4539602 Updatei sonrası olduğu gözlemleniyor.
Daha önce bu yazımızda belirttiğimiz gibi aslında bu problemde önceki update zinciriyle alakalı olabiliyor.
Resmi olmayan çözüm yolları;
Çözüm 1 : Recovery moda girip aşağıdaki kodu çalıştırın.
2 Başka bir windows 2008 sunucudan winload.efi ve winload.exe dosyasını kopyalayın ( c:\windows\system32\
3 Yeniden başlatın
Neden resmi olmayan yöntemleri deniyoruz?
Windows 7 , 2008 ve 2008 r2 14 Ocak 2020 itibariyle destekleri bitti. Artık güvenlik güncelleştirmeleri, yazılım güncellemeleri gibi konuları almayacak.
Software Defined Storage (Yazılım Tanımlı Depolama) akımının Microsoft ayağını temsil eden Storage Space Direct (S2D) sayesinde fiziksel veya sanal sunuculara doğrudan takılı lokal depolama birimleriyle yüksek erişilebilir bir depolama ünitesi kurmak ve yönetmek mümkün hale geldi. Windows Server 2012’de Storage Pools ile ilk adımları atılan Software Defined Networking, Windows Server 2016 ile tam teşekküllü bir hale geldi ve Windows Server 2019 ile beraber olgunlaştı.
Windows Server 2012’deki Storage Pools ile bir sunucu üzerindeki lokal diskleri özel bir SCSI veya RAID kontrolcüsüne ihtiyaç duymadan bir depolama havuzuna dönüştürüp fiziksel disk yedekliliğini (redundancy) sağlayabiliyorduk, fakat bu havuz sunucuya özel oluşturuluyordu. Yüksek erişilebilir Cluster ortamlarında ihtiyaç duyulan, cluster’a üye bütün sunucuların ortak olarak veya aynı anda erişebildiği paylaşımlı bir depolama alanı (Shared Storage) oluşturmak mümkün değildi. Windows Server 2016 ile beraber gelen S2D sayesinde bu eksiklik giderilmiş oldu. Artık fiziksel veya sanal ortamlarınızda cluster storage veya cluster shared storage oluşturma imkânımız oldu.
Türkiye’de Azure’a erkenden adapte olan kurumlardan birinde çalışanlar şunu iyi bilir: Azure’da üçüncü parti bir yazılıma para vermeden iSCSI veya benzer bir protokolle shared storage oluşturmak ve en basitinden yüksek erişilebilir bir dosya sunucusu kurup içerisinde kritik uygulama dosyalarını barındırmak mümkün değildi. FCI ile SQL Server Cluster kurmak veya IIS farm’ınızın faydalanabileceği ortak bir depolama sağlamayı bunlara örnek verebiliriz. Bulut diyoruz, kesintisizlik, yüksek SLA, HA olmalı diyoruz, lakin o zamanlar bunları sanal makine depolaması için istediğinizde üçüncü partiye başvurmak zorunda kalıyordunuz. Veri tabanı tarafı için SQL AlwaysOn AG ile shared storage ihtiyacının kaldırılmasının nedenlerinden birinin, Azure’da yüksek erişilebilir veri tabanı ortamı kurmayı sağlamak olduğunu düşünüyorum.
Bu kısa tarih bilgisini vermemin sebebi S2D’nin ne kadar kritik bir özellik olduğunu anlatabilmek adınaydı. S2D’nin faydaları tabi ki sadece Azure kullanıcılarına değil; on premise ortamlarda özel storage donanımı satın almaya ihtiyaç kalmadan, sadece sunucular üzerindeki depolama alanı ve network kartlarını kullanarak Hyper Converged Cluster ortamları kurmak mümkün hale geldi. Vendor bağımlı olmadan istediğiniz sunucu markasından sunucu ve yeterli miktarda disk ve network kartı satın alarak siz de kendi storage’inizi kurup yönetebiliyor ve sanallaştırma gibi birçok amaç için kullanabiliyorsunuz. Ekstra bir Windows Server lisansına ihtiyacınız yok, fiziksel işlemci soketi için aldığınız lisanslar yeterli. Bulut tarafında S2D kullanmak istediğinizde de vendor bağımlı değilsiniz. İster Azure’da ister Amazon’da ister Google’da Windows Server lisansınız olduğu sürece S2D cluster ortamları kurabilirsiniz.
Makalemizin konusu her ne kadar Azure ortamında geçse de anlatacaklarımı ufak değişikliklerle diğer bulutlarda veya on-premise ortamlarda da uygulayabilirsiniz. Hangi ortamda kuruyor olursanız olun 10 Gbit/s bant genişliği sunan, RDMA destekli network kartları kullanmanız gerekiyor; şayet bunlardan birkaçını birleştirmeniz gerekirse Switch Embedded Teaming (SET) özelliğini kullanmanız tavsiye ediliyor. Microsoft’un geçmişteki Ignite etkinliğinde yaptığı demolara bakarsak sadece iki sunucu, yeterli miktarda disk ve Thunderbolt portları ile de S2D yapısı kurmak mümkün.
Yapımızın kurmak adına 2 adet VM kurduk, her VM’e işletim sistemi diski dışında 3 adet data disk ekledik. Minimum 2 adet data diski ile de ortamınızı kurabilirsiniz. Ortamda iki sunucu olduğu için yedeklilik seçeneği olarak Two Way Mirroring’i seçeceğiz. Bu da bize makinelerden birinin veya 1 diskin ulaşılamaz hale geldiğinde veri kaybı/kesinti olmayacağı ve toplam disk kapasitesinin yarısını kullanabileceğimiz anlamına geliyor.
Burada Windows Server 2019’a özel ufak bir parantez açmamız gerekiyor. Zira 2 host makine bulunan kurulumlarda 2019 öncesinde sadece Two Way Mirroring kullanabiliyorduk; fakat 2019 ile beraber Nested Resiliency özelliği de geldi. Bu özelliğin kendi içerisinde sunduğu iki opsiyondan da kısaca bahsedelim.
Nested two-way mirror opsiyonu yazma işlemlerini bütün disklere aynı anda, okuma işlemlerini ise herhangi bir kopyadan gerçekleştirerek standart two way mirroring’e göre daha fazla performans sunuyor. Performans artışı sonucunda kapasiteden feragat etmek zorunda kalıyoruz; zira kapasite verimliği ise yüzde 25 oranında; yani 1 TB kullanılabilir alan için 4 TB depolama alanına ihtiyaç duyuyoruz.
Nested mirror-accelerated parity opsiyonu ise daha fazla kapasite verimliliği sunmayı hedefliyor ve her host makinede kullanılan disk adedi ve kapasitesine göre yüzde 35-40 arasında kapasite verimliliği sunuyor.
Dikkat ederseniz bu iki esneklik seçeneği de kapasite verimliliği söz konusu olduğunda Two Way Mirroring’den çok da farklı değiller. Yüzde 40’a kadar verimliliği sunan opsiyonu kullandığınızda hem depolama tarafında daha yüksek erişilebilirlik hem de hatırı sayılır bir performans artışı sağlamış oluyorsunuz. Ayrıca aynı cluster içerisinde oluşturduğunuz farklı disk bölümleri (volume) için farklı esneklik opsiyonları kullanabiliyorsunuz; yani bir bölüm için Nested two-way mirror, diğeri için nested mirror-accelerated parity kullanabiliyorsunuz.
Bu kısa bilgiden sonra konumuza kaldığımız yerden devam edelim. Sanal makine boyutu seçimi S2D için önemli, çünkü bir makinenin destekleyeceği maksimum IOPS miktarı vardır. İşletim sistemi diski dahil takacağınız tüm diğer disklerin IOPS’larının toplamı makinenin desteklediği IOPS’u geçmemeli ki disklerden tam performans alabilesiniz. Bu bir test ortamı olduğu için Azure portaldan 2 vCPU, 8 GB RAM’e sahip, B serisi iki adet makine açalım ve işletim sistemi olarak Windows Server 2019 Datacenter Core seçelim. Sunucumuz bir depolama havuzu olacağı için Desktop Experience arayüz paketine ihtiyacımız yok. Kurulum ve konfigürasyon işlemlerinin neredeyse tamamını client makineden, remote powershell ile yapacağız.
Bir sonraki aşamada kullanacağımız ek diskleri sanal makinemize ekleyelim. 128 GB kapasiteli 3 adet Standard HDD tipinde disk seçiyoruz.
Sonraki aşamaları ortamınıza göre seçin. RDP portunu açmayı unutmayın zira Server Core kullandığımız için domain’e dahil etme gibi ilk işlemleri RDP ile yapacağız. Bütün kurulumlarınız bittikten sonra da bu portu public erişime kapatmayı unutmayın.
Her iki sunucu da kurulduktan sonra sunucuları domain’e dahil etmemiz gerekiyor; S2D workgroup ortamlarını desteklemiyor. Sunucularımıza public IP’lerinden RDP ile erişip oturum açalım.
Oturum açtığınızda sizi boş bir komut satırı karşılayacaktır. “sconfig” komutu ile sunucumuzun temel konfigürasyonunu yapacağımız script’i çalıştıralım.
Gördüğünüz gibi birçok temel işlemi numaralarını yazıp Enter’a basarak yapabiliyoruz. Biz sadece makineleri domain’e alacağımız için 1’i seçelim. Sonraki aşamalarda sizden istenen bilgileri girdikten sonra 13 seçeneği ile makineyi yeniden başlatalım.
Her iki makineyi de domain’e dahil ettikten sonra aynı domain’e dahil olan bir client makineye geçip remote powershell ile sunucularımıza bağlanalım. Bunun için powershell açıp aşağıdaki komutu girmeniz yeterli:
Makine ismi ve kullanıcı adına kendi bilgilerinizi yazdıktan sonra bağlantıyı kurmuş olacaksınız. Aynı işlemi ikinci makine için ayrı bir powershell penceresinde de yapalım.
Sonrasında makineye takılı diskleri görüntülemek için Get-Disk komutunu girelim:
Gördüğünüz gibi “Msft Virtual Disk” olarak adlandırılan 3 diskimiz henüz başlatılmış durumda değil; zira partition style “RAW” olarak gözüküyor. “Initialize-Disk -Number […]” komutunu girerek sırayla disklerimizi başlatalım. […] yerine disk numarasını yazacağız.
Bu işlemden sonra SOFS (Scale-Out File Server) ve S2D için gerekli özellikleri şu komutla kuralım:
Azure’da S2D ve SOFS kuracaksak bu komutlar yeterli. Şayet on-premise ortamda bir sanallaştırma altyapısı ile beraber fiziksel donanımın üzerine kuracak olursanız şu komutla gerekli özellikleri kurabilirsiniz:
Her iki sunucuda da kurulumlar bittikten sonra Failover Cluster’ımızı oluşturmaya başlayabiliriz. Bu aşamadan sonraki komutları cluster node’larının birinde çalıştırmanız yeterli.
Daha önceki Azure’da ADFS ortamı kurulumunu anlattığım makalemde bahsettiğim özel durum burada da geçerli. Windows Server 2019 ile beraber Azure’da Failover Cluster kurduğunuzda Cluster IP’si ve buna bağlı bir Load Balancer objesi oluşturmanıza gerek yok. Windows Server 2019, cluster’ın Azure sanal makinesinde kurulduğunu algılayıp bu Cluster IP’si yerine “Distributed Network Name” objesi oluşturur ve bu obje için AD DNS’te cluster node adedince A kaydı oluşturur. Bu A kayıtlarının her biri cluster node’larının IP adresine işaret eder. Sizde bu makaledeki adımları uyguladığınızda aynısı olacaktır. Benim DNS panelimden örnek vermek gerekirse durum böyle gözükecektir.
Cluster’ımızı oluşturduktan sonra Storage Space Direct özelliğini aktif hal getirmemiz gerekiyor. Bu işlem için aşağıdaki komutu girelim:
Enable-ClusterS2D
Komut, işlemini bitirdikten sonra ekranda gözüken “no disks found to be used for cache” uyarısını dikkate almayın. Uyarıda cache (ön bellek) için disk bulunamadığını söylüyor. Azure ortamında olduğumuz için normal, şayet fiziksel ortamda kuruyor olsaydık SSD sürücülerimizi cache için konfigüre etmiş olacaktı.
Aşağıdaki komut ile depolama havuzumuzu oluşturalım:
Bu komut ile “Mirror” yedeklilik tipini kullanan bir havuz oluşturmuş olduk. Fiziksel disk kapasitemiz 761.99 GB gözüküyor fakat bu havuzda bir disk bölümü (volume) oluşturduğumuzda en fazla yarısı kadarını kullanabileceğiz.
Aşağıdaki komutla maksimum büyüklükte bir disk bölümü oluşturalım. Şayet farklı boyutlarda bölümler oluşturacaksanız “UseMaxSize” parametresini kaldırıp yerine -Size …GB” yazarak istediğiniz boyutu belirtebilirsiniz. Dosya sistemi olarak ReFS kullandık, zira Microsoft S2D bölümleri için bu dosya sistemini tavsiye ediyor .
Client makinemizde yüklü olan Failover Cluster Manager’dan kontrol ettiğimizde depolama havuzumuzu ve disk bölümümüzü görebiliyoruz.
Cluster storage’imiz hazır olduğuna göre üzerinde Scale-Out File Server (SOFS) hizmetini konumlandırabiliriz.
SOFS kurmak için gerekli komuta özel bir durum var. Bu komutu remote powershell çalıştırmak için öncesinde sunucuda CredSSP kimlik doğrulama yönteminin konfigüre edilmiş olması gerekiyor. Bunu konfigüre etmek makalenin konusunun dışında olduğu için bu komutu node’lardan birine RDP ile bağlanıp lokalde powershell ile çalıştıralım. Bağlandığınızda cmd’den powershell’e geçmek için “powershell” yazmanız yeterli.
Bu işlemden sonra Cluster Manager’a baktığımızda Scale-Out File Server rolünün eklendiğini teyit edebiliriz. Bu işlem dışında sunucuya RDP ile bağlanmamıza gerek olmayacak. Dolayısıyla tekrar remote powershell’e dönebiliriz.
Bu işlemden sonra AD DNS panelini açıp SOFS için kullandığımız DNS ismine karşılık 2 adet A kaydı açacağız ve bu kayıtlar node’ların IP adreslerine işaret edecek. Kendi DNS panelimde kayıtlar şu şekilde gözüküyor:
SOFS üzerinde bir test paylaşımı oluşturmadan önce Cluster için Quorum oluşturmamız gerek. Yapımız Azure’da konumlandığından bu iş için Cloud Witness kullanmak maliyet ve yüksek erişilebilirlik konusundan en mantıklısı oluyor. Azure panelden bir storage account oluşturalım, account name ve access key’i bir kenara not edelim. Cloud Witness oluşturmak için node’lardan birinde powershell üzerinden şu komutu girelim.
Bu komutu da girdikten sonra cloud witness’i Failover Cluster Manager’da göreceğiz.
Artık SOFS üzerinde bir paylaşım oluşturabilir ve yetkilendirme yapabiliriz. Test için “Paylasim” adında bir klasör ve paylaşım oluşturacağım ve AD’de daha önceden açtığım “Paylasim” isimli güvenlik grubuna bu paylaşımda tam yetki vereceğim.
cd komutu ile ClusterStorage\Volume1 dizininin altına gelelim ve klasörümüzü açalım:
Aşağıdaki resimde gördüğümüz gibi paylaşımımız hazır, hatta içerisine dosya dahi attık.
Bu makalede elimden geldiğince Azure’da yüksek erişilebilir, S2D üzerine konumlandırılmış bir Scale-Out File Server kurulum ve konfigürasyonunu anlatmaya çalıştım. Bir sonraki makalede görüşmekaa üzere.
HPE, Tüketim Tabanlı BT Hizmetleri “Greenlake” ile müşterilerine kendi veri merkezlerinde, kendi kontrollerinde, kendi ihtiyaçlarına göre şekillenebilen bir BT altyapısıyla bulut deneyimi ve esnekliği sağlıyor.
Evet arkadaşlar, artık lokasyonumuza (lokasyonlarımız) fiziksel bir firewall almak yerine, firewall’ımızı da kullandığımız kadar ödeyebiliyoruz.
Yok ben Fortigate, Sophos, F5 gibi Firewall’ları istemem, P2S VPN işimi çözer diyorsanız, hali hazırdaki aşağıdaki makalelerimi de okuyabilirsiniz.
Azure P2S VPN (Windows) makalesi için buraya, Azure P2S VPN (iOS/iPadOS) makalesi için de buraya tıklayabilirsiniz.
İşlemler sırasında Fortigate ve Virtual Machine oluşturulacaktır. Oluşturulan bu Virtual Machine’in Fortigate’in arkasına alınacaktır.
Sözü fazla uzatmadan işlemlere başlayalım.
Öncelikle kaynaklarımı tek bir yerde görmek ve yönetmek adına yeni bir Resource Group (CozumParkRG) oluşturuyorum.
Virtual Network, Network Security Group, IP Address, Network Interface gibi bileşenlerimizi Virtual Machine kurarken otomatik yapabileceğiniz gibi manuel de yapabiliriz. Ben manuel olarak ilerleyeceğim.
İlk olarak, Virtual Network’ümü oluşturuyorum;
Adress space olarak 10.10.0.0/16 kullanıyorum. Subnet name’ime PublicFacingSubnet ismini verip, address range’ına 10.10.0.0/24 yazıyorum. Virtual Network’üm oluştuktan sonra kaynağıma gidip, birincil subnet’imin (InsideSubnet) yanına bir subnet daha ekliyorum. İkincil subnet’imin adına InsideSubnet verip, ip range’ına 10.10.1.0/24. İşlemleri bitirdikten sonra ekranımız aşağıdaki gibi olmalıdır.
Network security group, Public IP address, Network interface oluşturduktan sonra ekranımız aşağıdaki gibidir.
VM konfigürasyonum aşağıdaki şekilde olup kurulumu başlatıyorum. Kurulum ortalama 4-6 dakika sürmektedir.
Demo Virtual Machine’ım oluştu, Resource Group’umuzun son hali aşağıdaki gibidir.
Virtual Machine’ımız hazır olduğuna göre makalemizin ana konusu olan FortiGate’imizi hazırlayalım. Marketplace’den hazır image kullanacağım. CozumParkRG içindeyken, +Add diyip, “FortiGate Next-Generation Firewall – Single VM” ürününü aratıyorum. İlgili ürünü Create diyorum. Azure bize F series önerse de istersek D series’de seçebiliyoruz.
FortiGate Instance Name kısmına “Fortinet” yazıyorum. PAYG/BYOL License kısmından PAYG veya BYOL tercihi yapabiliriz. Lisansımız yoksa PAYG (Pay as you go) olarak ilerleyelip saatlik kiralayabiliriz veya BYOL (Bring your own licenses) yani kendi lisansımızı kullanabiliriz. Kendi konfigürasyonum aşağıdaki gibi olup, kurulumu başlatıyorum. Fortinet’in deploy’u ortalama 25-30 dakika sürmektedir, kahve almanızı tavsiye ederim.
Kurulum bittikten sonra Fortigate resource group’umuz aşağıdaki gibi olmalıdır.
Fortigate’imizin içine girip IP’sini öğreniyoruz ve browser aracılığı ile login oluyoruz.
Network menüsünden Interfaces’lerimizi, Policy & Objects menüsünden IPv4 Policy’lerimizi (VPN to port1, VPN to port2 vb.) gibi kurallarınızı kişiselleştirebilirsiniz. Ayrıca User Definition, User Groups’ları da kişiselleştirmeyi unutmayın. (Policy’lere yazacağınız kuralları group’lara atamak daha pratik olacaktır.)
Forticlient’ı az önce kurmuş olduğumuz Virtual Machine’a kurup, FortiGate üzerinden oluşturacağımız kullanıcı ile login oluyoruz.
Örnek ekran görüntüleri aşağıdaki gibidir;
Firewall on Cloud makalemiz burada sona ermektedir. Umarım faydalı olmuştur. Herkese bol Azure’lu günler dilerim!
Microsoft’un Patch Tuesday kapsamında 11 Şubatta yayımladığı Windows 10 KB4532693 toplu güncelleştirmesinde hata olduğu rapor edildi. Gelen raporlara göre güncelleştirmeyi yükleyen kullanıcıların bilgisayarlarının geçici profille açıldığı, masaüstünün ve başlat menüsünün varsayılan olarak sıfırlandığı belirtildi.
Hata sonucunda kullanıcılar klasöründeki varsayılan kullanıcı profili yeniden adlandırılmakta ve profil isminin sonu .000 veya .bak olmaktadır. Bu hata kullanıcılar için kötü olsa da iyi haber kullanıcı verileri silinmiyor.
Birçok kullanıcı bu hatayı kayıt defterindeki birtakım düzenlemelerle, Windows’u birkaç kez yeniden başlatmayla veya KB4532693 güncelleştirmesini kaldırarak çözdüklerini belirtiyor. Ancak kayıt defteri düzenlemesi ile bir profili geri yüklemek birçok kişi için zor ve riskli olduğundan diğer çözüm yollarını denemeniz daha güvenli olacaktır.
Kullanıcılar bu hatanın kesin çözümü için Microsoft’tan bir açıklama yapmasını bekliyor.
ÇözümPark Bilişim Portalı kurulduğu 2008 yılından bu yana bilişim ekosistemini desteklemek için tüm gücü ile çalışan gönüllü bir topluluktur. Bu süreçte 12 yılı geride bırakırken sektöre yeni giren veya sektörde çalışan pek çok kişinin hayatına dokunmuş bir topluluk olarak teknik içerikli ve Türkçe kaynak üretimi yaptığımız gibi etkinlikler ile sektör çalışanlarının bir birbirler ile tanışmasına yardımcı olmuş ve üretici, dağıtıcı, iş ortağı ile müşterileri buluşturma noktasında çok ciddi gelişimler sağlamış durumdayız.
Geçen bu süre zarfında yine pek çok kez sosyal sorumluluk projelerinde yer aldık. Geldiğimiz noktada ise sektörün hali hazırda bilinen bir sorunu için daha elimizden geleni yapmaya kadar verdik.
Malum sektörümüzde genelde Erkek egemen bir durum söz konusu, özellikle okullarda başlayan bu durum mezuniyet veren mühendislik fakülteleri başta olmak üzere sektöre doğrudan etki ediyor. Bu da yine özellikle bu sektöre girecek genç kızlarımızın seçimlerini etkiliyor. Oysa ki sektörümüzde bu konuda inanılmaz başarılı, etkili, kendi başarısını doğrudan hem mesai arkadaşlarına hem de sektöre pozitif değer olarak aktaran pek çok başarılı iş Kadını yer alıyor. bu Türkiye genelinde böyle iken bilişim sektörün de de durum aynıdır. Bizim de amacımız hali hazırda bunu çok iyi bir şekilde anlatan, etkinlikler ile pekiştiren, genç kızlarımıza ilham veren her türlü topluluğu, bireyleri veya organizayonları desteklemektir.
Bu desteğimizin ilk somut kanıtı olarak 600. Web seminerlerimiz ile başlayan IT Excalibur web seminerleri serimizin üçüncüsünü tam da tarif ettiğimiz kriterlere uyan bir birinden değerli üç misafirimiz ile gerçekleştirdik.
Bu bir başlangıç olup bu konuda destek olacağımız pek çok birey, organizasyon ve topluluk için gelecek etkinlikleri takip etmeyi unutmayın lütfen.
Biz sektörümüzde daha çok Kadın gücü olmasını gerektiğini düşünüyoruz, aynı fikirde olan tüm bilişim gönüllülerini ÇözümPark Bilişim Portalı’ nın bu hareketini desteklemesini bekliyoruz. Sosyal medya mecralarından yapacağımız paylaşımların daha çok kişiye ulaşması için sizlerin desteklerini bekliyoruz.
Tüm dünyada en popüler sosyal medya platformları arasında üst sıralarda yer alan Instagram, yaptığı güncelleme çalışmalarıyla kullanıcı deneyimini iyileştirmek istiyor. Yapılan çalışmalar, kullanıcılara sunulmadan önce sızdırılabiliyor. Son olarak, ortaya çıkan bir sızıntıya göre Instagram yeni özelliği ile kullanıcıların hiçbir şeyi kaçırmamasına yardımcı olacak. En Son Gönderiler pop-up olarak açılacak.
2016 yılının ortalarında, Instagram takip ettiğiniz insanların gönderilerini, sırayla gösteren ters kronolojik akıştan uzaklaştı. Bunun yerine, tüm kullanıcıları, en çok seveceğinizi düşündüğü, kimin ve en çok etkileşim kurduğunuz içeriğe göre sıralanmış bir algoritmik akışta gezinmeye zorladı.
Jane Manchun Wong, Instagram’ın kısa bir süre sonra “Son Gönderiler” ismine sahip olan yeni bir bölüme sahip olacağını duyurdu. Bu özellik, Instagram’ın ana sayfasında açılabilir bir ekran olarak karşımıza çıkacak.
Instagram’ın yeni özelliğinin nasıl kullanılabileceği ve bu özelliğin tam anlamıyla neler sunacağı şu an için bilinmiyor. Tüm bunlara rağmen Instagram ekibinin bu özellik üzerinde çalıştığı ve kullanıcıların, bir süre sonra bu özelliği kullanmaya başlayabilecekleri öngörülüyor.
Oracle , dünyanın en popüler veri tabanı olan, Oracle Database 20c’nin son sürümünü artık Oracle Cloud üzerinde incelemeye hazır olduğunu duyurdu.
Oracle ürün müdürü William Hardie dün yazdığı blog yazısında yeni çıkan Oracle Database 20c için, her yeni sürümde olduğu gibi Oracle Database 20c, Blockchain Tabloları ile Oracle’ın multi-model birleşik mimarisini ve Automatic In-Memory (AIM) ayrıca ikili JSON veri türü gibi teknolojilerde yeni özellikler ve geliştirmeler sunduğunu belirtti .
Andy Mendelsohn son Openworld açılış konuşması ve Oracle Database 20c yorumunu izleyebilirsiniz.
Yeni gelen özelliklerden ilk gözümüze çarpanı, 12C ile birtikte gelen container database ve bulut ürünlerin temelini oluşturan multitenant mimarisi 20C ile birlikte zorunlu olacak. Özellikle hali hazırda Oracle Database 11G kullanan kişiler için yenilik zamanının geldiğini görüyoruz.
Bununla birlikte SQL ve PL/SQL için yeni JSON veri tiplerini aynı zamanda Native Blockchain tablolarını hayatımıza katacağız. Son olarak Makine öğretisi ile birlikte Oracle Database artık daha akıllı bir hal alıyor, kendi problemini kendisi çözen bir veri tabanı, kulağa gerçekten hoş geliyor.
Test etmek için sabırsızlandığımız bu ürün hakkındaki yeni yazılarımızda görüşmek üzere.
Microsoft Azure ile ilgili konuşulan tüm projelerde, projenin en önemli ve başlamadan planlanması gereken safhası kuşkusuz güvenlik tarafıdır. Her şey Azure Virtual Network üzerine inşa edileceği için, önceden çok iyi planlanmalı ve tasarlanmalıdır.
Microsoft Azure’da bu durumu kolaylaştıracak birçok ücretsiz servis sunuyor bizlere. Bunlardan en önemlisi ve hepimizin kullandığı Network Security Group özelliği. Bu özellikli ile kolayca sanal sunucular veya Subnet’ler arasında güvenlik kuralları yazabiliyoruz. Ancak taktir edersiniz ki yapı büyüdükçe NSG içerisindeki kuralları yazmak ve bunları sürekli güncel-kontrol altında tutmak pek mümkün olmuyor. Yan yana IP adresleri, her bir sunucu için ayrı kurallar vs.
İşte bu noktada bir nebze olsun yönetimi kolaylaştırmamızı sağlayan Application Security Group özelliği devreye giriyor. Bu yazıda da temel olarak NSG ve ASG nedir, kullanım alanları nelerdir ve nasıl çalışırlar konularına değinerek aradaki farkları açıklayacağız.
Network Security Group Nedir?
Yukarıda kısaca bahsettiğimiz gibi; NSG’ler Layer 3 katmanında yani IP bazlı kısıtlamalar ve/veya izinler vermemizi sağlayan ücretsiz bir Azure hizmetidir.
Bu erişim kontrollerini aşağıdaki senaryolar için yapabiliriz.
vNET üzerindeki farklı iş yükleri arasındaki iletişim kontrolü
Azure ortamınızdaki mimari içerisindeki network trafiğinin kontrolü. DMZ, Internal gibi.
Internet Erişim Kontrolü
Aşağıdaki görsel ile de mimari olarak NSG’nin konumunu görebiliriz. Toparlamak gerekirse NSG; teorik olarak vNET’inizde bulunan erişim kurallarınızı toparladığınız erişim kontrol listesidir.
NSG objelerinizi bir sanal sunucuya ya da subnet’e tanımlayabilirsiniz. Ayrıca bir NSG birden fazla Subnet ve/veya VM için kullanılabilir.
Application Security Group Nedir?
Application Security Group (ASG), NSG’den bağımsız bir dış küme olarak düşünülebilir. NSG içinde ASG olarak görebilirsiniz ve Networking ekranı üzerinden ASG’leri inceleyebilirsiniz. Temel olarak ASG, VM grubu oluşturmanıza olanak tanır. Mesela 10 adet SQL VM var. Tek tek sunucuları tanımlayıp kontrol etmektense, ASG ile bu sunucuları gruplayabilirim. Dolayısıyla kural yazarken o gruba uygularım. Yeni VM geldiğinde gruba dahil etmem yeterli. Bu da bence en büyük avantajı.
Aşağıdaki görsel ile ASG daha net anlaşılacaktır. NSG ve ASG birbirini tamamlar ve birlikte temel güvenlik katmanınızı oluşturur.
Örnek Kural Tablosu
Action
Name
Source
Destination
Port
Allow
WebAllow
Internet
AsgWeb
80
Allow
DBAllow
AsgLogic
AsgDB
1433
DenyAll
DnyAllInbound
Any
Any
Any
Bu senaryoda; Yeni DB Sunucusu ihtiyacı oluştuğunda, sunucuyu oluşturduktan sonra AsgDB ASG’una bağlamam yetecek.
Diagram:
Son olarak çokça altını çizdiğim konu; lütfen isimler anlamlı ve aşağıdaki linkte yer alan kurallara uygun olsun. Bu hayatınızı ve yapınızı bilmeyen danışman arkadaşınızı çok rahatlatacaktır. İnanın ASG01 hiçbir şey ifade etmiyor
Uzun zamandır yazmak istediğim Dell VxRail makalesi serisine sonunda başladım. Bunca zamandır her yerde konuşuyoruz, anlatıyoruz ve detaylandırıyoruz. Artık yazıya dökecek kadar tecrübe edindik. Öncelikle kâğıt üzerindeki tanımına bakacak olursak, HCI, Hyper Converged Infrastructure, Türkçesi ile söyleyecek olursak ta, Hiper Bütünleşik Mimari olarak geçiyor. Her ne kadar birçok marka farklı ürünlerle aynı başlık altında çözüm sunsa da aslında hepsi ayrı ayrı özelliklerde ürünler. Yani birbirleri ile çok ilgili ürünler olmayabilir. Bu nedenle pek çok üreticinin kullandığı HCI kelimesi için mutlaka detaylarını kontrol etmenizde fayda var.
HCI ürünlerini satın almak isteyen firmalar, bir şartname ile ihaleye çıkartacak olsa, ortaya çok ilginç bir tablo çıkıyor. Yazılacak bir madde ile bir ürün şartname içinde kalırken diğer ürünler şartname listesinden çıkabiliyor. Bu sebeple alınacak çözümü iyi anlayıp ihtiyaçla örtüşüp örtüşmeyeceğine iyi karar vermek gerekiyor.
Tabiki bunun içinde hangi ürün ne şekilde çalışıyor detaylı okumak, dinlemek ve analiz etmek gerekli. Neden HCI’ ın cevabını mevcut kullandığımız geleneksel mimari ile kıyaslayarak neticelendirebiliriz. Peki neydi geleneksel mimariden yeni mimariye geçmemiz için sebep. Şekillerle inceleyecek olursak;
Sol karede bulunan şekilde göreceğiniz üzere farklı farklı katmanları yönetmek için çalışan tüm ürünlerin hepsinin üzerinde uzmanlık gerekiyor. Başlıklar şeklinde bakacak olursak,
Sanallaştırma türü nedir? Uygun şekilde yapılandırılmış mıdır?
Sunucular ne markadır? Uzaktan erişim uygun şekilde yapılandırılmış mı?
SAN network düzgün ve HA mimaride mi?
Depolama ürünü kapasite ve performans olarak yeterlimi?
Sorular sıralanmaya devam edecektir. Bir problem oluşmadan önce bütün katmanları periyodik olarak detaylıca gözlemliyor olmalısınız. Bu gözlemleri ise ne yazık ki ayrı ekranlar üzerinden gerçekleştirebiliyorsunuz. Sorun oluştuktan sonra da tedarik süreci veya destek süreci gibi sıkıntılarda bu işin cabası.
Yukarıda saydığımız nedenlerden dolayı üreticiler HCI mimariyi ortaya çıkarmıştır. Bu üreticilerin başında ise VMware firması gelmektedir. VMware yukarıdaki sağ karede bulunan yapıyı üretmiş ve son derece esnek hale getirmiş. Sunucuların üzerine diskler takılarak depolama, sanallaştırma ve yönetimi tek bir ara yüz haline getirilmiştir. Peki sonuçta ne elde edilmiş buna bakalım isterseniz;
Basit Yönetim
Düşük Maliyet
Daha iyi ölçeklenebilirlik
Yüksek performans
Tabiki Vmware bu noktada geçmişten gelen sanallaştırma katmanı gücünü ve yeni nesil yazılım temelli veri depolama, network teknolojilerini birleştirerek rakip üreticilerin farklı teknolojiler ile bir araya getirdiği HCI mimarisini Dell ekosistemi içerisinde tek başına sunmaktadır.
Bu alt bileşenlerden en önemlisi olan VSAN’ a özellikle değinmek istiyorum.
Öncelikle HCI teknolojilerindeki en büyük yönetim sorunları genelde storage katmanında görülür. Çünkü burada endüstri standartı teknolojiler kullanmak her zaman çok önemlidir. HCI mimarisinin bileşenleri ne kadar uyum içerisinde çalışır ise aynı ilk görsellerde verdiğimiz örnekte olduğu gibi daha sorunsuz bir kullanıcı deneyimine sahip olursunuz.
Dell – Vmware ikilisi bu tecrübeyi VSAN sayesinde sunmaktadır. VSAN Vmware’ e özel bir teknoloji olduğu için rakiplerine karşı ciddi bir üstünlük sağlamaktadır.
VMware HCI mimarisinde sonuçları VSAN ile kendi içinde inanılmaz optimize bir şekilde sunmaktadır. İsterseniz bunu yine bir şekille anlatalım.
Eğer VSAN yok ise;
Bu yapıda Depolama operasyonu üreticilerin oluşturdukları mimari gereği kendi yetenekleri ile değil ilave bir StorageVM ile yapılır. StorageVM aslında sunucu üzerindeki diskleri sanki storage gibi kullanmaya yarayan ilave CPU ve RAM gibi kaynaklara ihtiyacı olan bir sanal makinadır. Yazılacak veri önce sanallaştırma katmanına gelir, oradan StorageVM üzerine geçer, sonra tekrar sanallaştırma katmanı üzerinden disklere yazılabilir. Yani veri o kadar çok gereksiz yol kat eder ki, burada ciddi bir verimsizlik söz konusudur. Verinin geçtiği noktalar çok fazladır. Gereksiz Host CPU ve I/O Artışı bu sistemlerin en ciddi problemlidir. Eğer tekilleştirme ve sıkıştırma’ da devreye alınırsa daha da ilave kaynak tüketilecektir.
Peki VSAN ile durum nasıl;
Ne demiştik, VSAN, ESX’ in kalbinde bir servis olarak çalışıyor. Bu şu anlama geliyor yapılacak tüm işlemlerden sanallaştırma katmanı haberdar ve direk kendi yetenekleri ile yapabiliyor. Yani disklerinde sanallaştırma katmanı elinde olduğunu ve herhangi bir StorageVM’ e ihtiyaç olmadığını düşünürseniz ne demek istediğimi az çok anlamış olursunuz.
Bu aşamada şunu hatırlamakta fayda var. VMware firmasının sahibi VxRail’ i üreten Dell Technologies firmasıdır. Yani HCI donanımı üreten Dell Technologies aslında Vmware şirketinin de sahibi. Yani bu teknolojiyi üreten şirketin sahibi olan bir şirket olarak HCI üretmesi tabiki büyük bir avantaj sağlıyor. VMware üretmekte olduğu tüm ürünlerini Dell sunucular ile test ettikten sonra diğer üreticilere satış için açmaktadır. Hatta VMware bu işi bir standart ile tüm üreticilerin ortak kullanacağı hale getirmiş. Bunun adı ise VMware SDDC olarak ortaya çıkmış. Yani VMware Software Defined Data Center. Donanım ne olursa olsun sanallaştırılmış datacenter. Versiyonları mevcut tabiki. Şu an VVD 4.3 olarak geçiyor. Aslında konu çok derin. Ayrıca bir makale yazabilirim, ama bugünkü konumuz Dell VxRail.
Dell VxRail her şeyin tam anlamıyla birbiri için üretildiği kusuruz çalışan bir üründür. Pek çok özelliğinin olmasına karşın özellikle öne çıkan başlıkları paylaşmak istiyorum;
One click update (Rakipsizdir!)
250’ den fazla otomatikleştirilmiş görev
Çok sağlam yapı, eksiksiz mimari
Tüm standartlara uygun
SAP HANA sertifikalı
En yeni donanımlarla (CPU, Nic, Yüksek RAM, disk) uyumlu
VDI gibi GPU gerektiren uygulamalar için benzersiz seçenek
İster Hibrid ister AFA disk seçenekleri
Yine bu durumu da bir şekil ile özetleyebiliriz;
Gördüğünüz gibi teknolojinin her imkanını kullanabiliyorsunuz. Yukarıda göreceğiniz üzere birde HBA desteği geldi. Ben ilk önce neden HBA gerekli bu iş HCI’ in mantığına ters diye düşünmüştüm. Sonra düşündüm ve adamlar bunu yaptı ise bir sebebi vardır.
Evet VxRail HBA desteği ile tüm sistemin arkasına bir storage bağlamanıza imkân sağlıyor. Neden diye sorguladım ve öğrendiklerim çok hoşuma gitti. Mesela bir hastanede sistem yöneticisi olarak çalışıyorsunuz, pacs verisi mevcut. Rakip ürünlerde bu istenmeyen bir durum çünkü tekilleştirme ve sıkıştırma yapamazsınız. Veya bir grafik üretim şirketindesiniz bir sürü medya dosyası var buda HCI sistemlerde istenmeyen bir durum. Sonra peki bir CCTV sisteminiz var bunu kayıt edeceksiniz. Tüm bu gibi istekler için HCI dışında başka bir klasik mimari barındırmak durumundasınız. Bu durumda eski mimari ile devam etmeniz gerekecek. İşte VxRail içinde bu sistemleri barındırarak HCI imkanlarından faydalanırken, HCI avantajlarına sahip olabilirsiniz. Ne kadar şahane değil mi? İnanılmaz genişleme inanılmaz yetenekler ve ciddi performansla birlikte kolay yönetim. Tüm sistemin tek ara yüzden yönetilmesi ve 200’ den fazla otomatikleştirilmiş görevler ve daha pek çok özelliğe sahiptir.
Yazılacak o kadar çok şey var ki, bu makale serisinin devamında ince ince işleyip tüm detayları sizlerle paylaşacağım. Sistem yapısı VMware detayları VxRail kurulum, kurulum sonrasında temel adımlar gibi birçok inceleme noktamız olacak. Aklınızdaki tüm sorulara cevap bulacağınızı ümit ediyorum. Eğer cevaplanmamış sorularınız olursa mutlaka bana ulaşabilirsiniz.
Makalemin ilk bölümünün sonuna geldim, bir sonraki bölümde görüşmek üzere.
Tüm organizasyonlar için dosya sunucuları çok önemlidir. Özellikle şirket çalışanlarının neredeyse tamamının eriştiği bir kaynak olan dosya sunucularının denetimi çok daha önemlidir. Yani hem hizmet olarak ortak alanlar, dosya paylaşımları kritik olduğu kadar günümüzde özellikle de ülkemizde verinin değeri anlaşıldıkça artık bu tür veri saklanan yerlerin denetlenmesi noktasındaki bilinçte artmaktadır. Durum böyle olunca tabiki ister istemez bilişim çalışanları veya şirket yöneticileri gerek dosya sunucusu gerekse benzeri kişisel veri, şirket verisi gibi parayla bazen ölçülemeyen verilerin olduğu platformları daha iyi yedekleme ve yakından izlemek istiyorlar. Tabi ki son dönemde bu tür isteklerin artmasında veya bilincin oluşmasında KVKK’ nın da etkisi çok. Bende son dönem bizlere de çok fazlaca gelen talepler nedeni ile bu makaleyi yazmaya karar verdim.
Benim bu makaledeki amacım sizlere dosya sunucularının izlenmesinin (Audit anlamında, yani denetleme olarak düşünebilirsiniz, bazen izleme deyince monitoring akıllara geliyor) ne kadar kolay bir şekilde gerçekleşeceğini göstermektir. Piyasada bu noktada pek çok ürün olmasına karşın ben bu makalemde Lepide ile sizlere bir file server nasıl izlenir konusunda bilgi vereceğim.
Ürünün kurulumu için aşağıdaki makaleyi inceleyebilirsiniz.
Eğer ürünü sorunsuz bir şekilde kurduysanız ilk olarak lepide auditor konsolunu açıyoruz.
Lepide konsolunu açtıktan sonra settings ikonuna tıklıyorum. Karşıma gelen ekranda Add Component kısmında File Server’ ı seçiyorum.
File Server ‘ı seçtikten sonra karşıma gelen ekran da “ + ” seçeneğine tıklıyorum.
“ + “ seçeneğine tıkladıktan sonra karşıma gelen erkan da “Add” seçeneğine tıklıyorum.
Karşıma gelen ekranda domain name ’i giriyorum. Domain name ’i girdikten sonra Find diyorum. Karşıma yapıda bulunan tüm computer ‘lar gelmektedir. Audit yapmak istediğim file server ‘ı seçiyorum. Audit yapmak istediğim file server’ı seçtikten sonra OK butonuna tıklıyorum. Eğer ortamınızda çok fazla makine var ise ilk bölümde doğrudan file server’ ın ismini veya ip adresini yazabilirsiniz.
File Server sunucumu seçtikten sonra File Server audit Agent ’ı sunucuya deploy etmek için Domain Admin olan bir kullanıcı ‘nın bilgisi giriyorum. Next butonuna tıklıyorum. Not: Burada yerel admin yeterli olmaktadır. Genelde öncesinde servis hesabı açıp file server için local admin bir hesap kullanabilirsiniz.
Karşıma gelen ekranda Browse botununa tıklıyorum. Açılan ekranda Lepide için kullanmak istediğim SQL sunucusunu seçiyorum.
Burada ister local kurduğunuz SQL Express, isterseniz Lepide için kurduğunuz ayrı bir SQL Server, isterseniz de pek çok uygulama için ortak kullandığınız SQL sunucusunu kullanabilirsiniz.
Eğer local veya dedike bir SQL server var ise “sa” kullanıcısı ile devam edebilirsiniz. Ancak büyük bir organizasyon içerisine kuruyorsanız veri tabanı yöneticileri size “sa” gibi kritik bir hesap bilgisi vermez. Bu durumda önceden “Lepide” için bir DB talebinde bulunun, ardından bu DB için “database owner” yetkisine sahip bir kullanıcı talep edin. Bu sayede ilgili kullanıcı var olan db de gerekli tabloları oluşturacaktır. Ya da SQL üzerinde veri tabanı yaratma yetkisine sahip bir kullanıcı alırsanız veri tabanını önceden yaratmanıza gerek kalmaz.
Eğer SQL sunucusu network üzerinde ise yani local değil ise tavsiyemiz SQL Authentication kullanmanızdır. SQL üzerinde yetkili kullanıcı girişini yapıyorum. Test Connection butonuna tıkladıktan sonra ekrana Connection Successful yazısı gelmektedir.
Otomatik olarak database oluşturabilir veya daha önce oluşturdugunuz bir database’i seçebiliriz. SQL compatibility level minimum 2008 ve SQL collaction type sql_latin1_general_ci_as olmak zorundadır. Ben otomatik olarak bu ekrandan LepideFSDB isminde database oluştuyorum. Next butonuna tıklayıp ilerliyoruz.
Karşıma gelen erkanda file server audit için LEPIDEFS adında bir rule oluşturuyorum. Bu ekranda hangi file server sunucusu için rule oluşturuyorsak onu seçiyoruz. Bizim ortamımızda bir tane file server sunucusu olduğu için default olarak ilerliyorum. Next butonuna tıklıyorum.
Karşıma gelen ekranda oluşturduğumuz Rule içerisinde ki policy’i belirliyoruz.
Audit All: File server üzerinde bulunan tüm klasörleri audit eder.
Audit Shares Only: File server üzerinde sadece paylaşılmış klasörleri audit eder.
Audit All But Shares: Tüm dosya sunucusu üzerindeki değişiklikleri izler, ancak paylaşımları bundan hariç tutar. Yani paylaştırılmış klasörler dışındaki tüm klasörleri takip eder.
Karşıma gelen ekranda bütün kullanıcılar için veya sadece benim belirlediğim kullanıcılar için audit yapabiliriz. Ben bütün kullanıcıları takip etmek istediğim için All users ‘ı seçip Next butonuna tıklıyorum.
Karşıma gelen ekranda Finish butonuna tıklıyorum.
Karşıma gelen ekranda file server sunucusunun geldiğini görüyorum. Sağ tarafta ki menüden Domain Controller(s) tıklıyorum.
Karşıma gelen ekranda Domain Controller ip’si, Domain admin kullanıcı hesabı ve şifresini giriyorum. OK butonuna tıklıyoruz.
File Server sunucusuna bağlanıp herhangi bir yerde klasör oluşturuyorum. Oluşturduğum klasörlerden bir tanesini paylaşıma açıyorum. Tekrardan Lepide sunucumuza dönüyoruz.
Radar üzerinde FileServer sekmesinde tıkladıktan sonra ayrıntılı bir şekilde ekteki ekranı getirmektedir. File server sunucusu üzerinde manuel olarak oluşturduğum klasörün log ‘unun geldiğini görüntüleyebiliyorum. Ayrıca sol tarafta bulunan menü üzerinden yapılan değişiklikler için belirli bir saat aralığında rapor gönderebilir veya değişiklik olduğunda bilgilendirme mail ‘i göndertebiliyoruz.
Ürün son derece kolay kullanılmaktadır. Yukarıdaki ekran demo ortamından alındığı için biraz iç içe duruyor olabilir. Ancak daha yüksek çözünürlüklü bir ortamda tüm menüler detaylı olarak görüntülene bilmektedir. Özellikle rapor menüsünün en önemli özelliği üst bölümden filtreleme yapabileceğiniz gibi;
İsterseniz bu rapor sonrasında aşağıdaki gibi çıkan tüm sonuçlar için kolon bazlı filtreleme yapabilirsiniz.
Operation kısmından “ + ” işaretine tıklıyorum. Açılan pencereden hangi işlemin raporunu getirmek istiyorsak onu seçiyoruz. Ben silinmiş dosyaları getirmek istiyorum. “ Deleted “ seçtikten sonra OK butonuna tıklıyorum. Generate Report butonuna tıklayıp ekrana raporu çekiyorum.
Karşıma gelen ekranda sadece silinen klasörlerin geldiğini görüntülemekteyim. Yine aynı ekranda yani hali hazırda daha geniş bir filtreleme yaptığınızı düşünün. Bu filtre sonrasında isterseniz her bir kolonun üstünde bulunan arama menüsüne aradığınız içeriği yazarsanız otomatik süzme işlemi gerçekleşecektir. Örneğin yukarıdaki gibi tüm silme işlemlerini getirdiniz ancak siz “finans” isimli bir excel dosyasını kimin sildiğini arıyorsanız filtre bölümünde tek tek uğraşmanıza gerek yoktur. Silme işleminden sonra Object Path bölümüne dosya ismini yazmanız yeterlidir.
Eğer ürün hakkında daha fazla bilgi almak veya POC yapmak için Türkiye de ki resmi dağıtıcı ile görüşebilirsiniz.
info@itstack.com.tr ye mail atmanız halinde size en uygun bayi üzerinden POC desteği sunulacaktır.
Umarım yararlı bir makale olmuştur. Bir sonraki makalemizde görüşmek üzere.