Son birkaç yılda yapay zeka (AI) alanındaki gelişmeler, veri merkezleri için belki de son on yılın en sert kapasite dalgasını başlattı. Büyük dil modelleri, görüntü işleme, öneri sistemleri ve gerçek zamanlı analitik gibi iş yükleri; klasik web sitesi barındırma dünyasından oldukça farklı kaynak profilleri istiyor. Güç tüketimi artıyor, raf başına düşen donanım yoğunluğu katlanıyor, ağ trafiği hem kuzey-güney (istemci–sunucu) hem de doğu-batı (sunucu–sunucu) yönünde daha karmaşık hale geliyor. Biz veri merkezi ve hosting tarafında çalışanlar için bu, hem büyük bir fırsat hem de doğru yönetilmezse ciddi bir operasyonel risk anlamına geliyor.
Bu yazıda, veri merkezi genişlemeleri ve AI talebi arasındaki ilişkiyi; güç ve soğutma ihtiyaçlarından, ağ altyapısı ve IP planlamasına, sürdürülebilirlik baskısından işletmelerin altyapı stratejisine kadar uçtan uca ele alacağız. Klasik bir web projesi, e-ticaret sitesi veya SaaS ürünü yürütenler için de net bir yol haritası çıkarmaya çalışacağız: Hangi noktada standart bir VPS yeterli, ne zaman dedicated sunucuya geçmeli, ne zaman da colocation veya özel AI altyapısını düşünmelisiniz? DCHost ekibinin sahada gördüğü gerçek senaryolar ve tecrübelerle konuyu teknik ama anlaşılır bir dille açalım.
İçindekiler
- 1 AI Talebi Veri Merkezlerini Neden Bu Kadar Hızlı Değiştiriyor?
- 2 AI İş Yüklerinin Klasik web hosting’ten Temel Farkları
- 3 Veri Merkezi Genişlemesi: Güç, Soğutma ve Alan Üçgenini Yönetmek
- 4 Ağ Altyapısı, IP Kaynakları ve AI Dalgası
- 5 Sürdürülebilirlik Baskısı: AI, Enerji ve Maliyet Üçgeni
- 6 İşletmeler İçin Yol Haritası: AI Çağında Doğru Altyapı Seçimi
- 7 AI Eğitim Sürecinin Altyapıya Etkisini Doğru Okumak
- 8 Önümüzdeki 3–5 Yılda Veri Merkezlerini Neler Bekliyor?
- 9 Sonuç: AI Dalga, Hazırlıklı Olanlar İçin Fırsata Dönüşüyor
AI Talebi Veri Merkezlerini Neden Bu Kadar Hızlı Değiştiriyor?
Önce fotoğrafı netleştirelim: AI iş yükleri tek tip değil. Grotesk boyutlarda model eğitimi yapan kurumlar var, sadece hazır modelleri kullanarak metin özetleme, arama veya öneri motoru geliştiren SaaS girişimleri var, bir de e-ticaret ya da içerik sitelerine ufak AI özellikleri ekleyenler var. Ancak hepsinin altyapı tarafında birkaç ortak özelliği bulunuyor:
- Yoğun hesaplama gücü (özellikle GPU): Büyük dil modelleri ve derin öğrenme iş yükleri, geleneksel CPU odaklı altyapılara göre çok daha yüksek hesaplama kapasitesi talep ediyor.
- Yüksek paralellik: Aynı anda yüzlerce, binlerce iş parçacığının (thread / job) yürütüldüğü eğitim ve çıkarım (inference) süreçleri, scheduler ve kaynak yönetimini kritik hale getiriyor.
- Yoğun ağ trafiği: Özellikle dağıtık eğitim yapan kümelerde, sunucular arası (east-west) trafik çok yüksek. Bu da spine–leaf mimarisi, 100G/200G/400G bağlantılar gibi kavramları zorunlu kılıyor.
- Yüksek IOPS ve bant genişliği gerektiren depolama: Eğitim verilerinin hızlı okunması için NVMe tabanlı depolama ve ölçeklenebilir nesne depolama altyapıları önem kazanıyor.
Bu yeni dalganın veri merkezlerini nasıl etkilediğini anlamak için önce işin temelini, yani veri merkezinin ne olduğunu netleştirmek gerektiğini düşünüyoruz. Henüz okumadıysanız, veri merkezi nedir ve web hosting için neden bu kadar kritik başlıklı yazımız, temel katmanları gözünüzde canlandırmanıza yardımcı olacaktır.
AI İş Yüklerinin Klasik web hosting’ten Temel Farkları
DCHost tarafında uzun yıllardır hem klasik web hosting (paylaşımlı hosting, VPS, dedicated) hem de yüksek yoğunluklu özel altyapılar yönetiyoruz. AI iş yükleri geldiğinde masada gördüğümüz en net farklar şunlar:
1. Güç ve Soğutma Profili Tamamen Farklı
Klasik bir web sunucusunda raf başına 4–8 sunucu, sunucu başına 300–500W civarı güç tüketimi görmek alışıldık bir durum. AI tarafında ise GPU yoğunluklu sunucularda tek bir kasanın 3–4 kW hatta daha üzerine çıktığını görüyoruz. Bu da şu anlama geliyor:
- Aynı kabine çok daha az sunucu sığdırmak zorunda kalabiliyorsunuz veya
- Aynı kabinde kalıp güç ve soğutma altyapısını tamamen yeniden tasarlamanız gerekiyor.
Sonuç: Veri merkezi genişlemeleri artık sadece “boş alan var mı?” sorusuyla sınırlı değil; MW seviyesinde güç planlaması, yüksek yoğunluklu soğutma ve güç dağıtım tasarımı işin tam merkezinde.
2. Ağ Topolojisi ve Bant Genişliği İhtiyacı Çok Daha Saldırgan
Web barındırma tarafında bant genişliği ihtiyacını genelde dış trafiğin (kullanıcıların siteyi ziyaret etmesi, CDN trafiği vb.) belirlediğini bilirsiniz. AI kümelerinde ise durum farklıdır:
- Dağıtık eğitim yapan sunucular arasında terabaytlarca veri gidip gelir.
- Model parametreleri, gradient’ler ve ara sonuçlar, spine–leaf topolojisinde düşük gecikmeli, yüksek bant genişlikli bir yapı gerektirir.
- Inference (çıkarım) aşamasında kullanıcı sayısı arttıkça hem dış trafik hem de iç trafik aynı anda şişebilir.
Bizim pratikte gördüğümüz; AI kümelerinde 25G’den başlayıp 100G ve üstüne giden bağlantıların giderek standart hale geldiği. Bu da veri merkezi genişlemesini, sadece “yeni kabin açalım” değil, omurga anahtarlar, uplink kapasitesi ve kablolama mimarisini yeniden düşünmek anlamına getiriyor.
3. Depolama Tarafında NVMe ve Nesne Depolama “Standart” Olmaya Başladı
Model eğitirken veya büyük veri kümeleriyle çalışırken IOPS (saniye başına girdi/çıktı işlemi) ve throughput (sürekli aktarım hızı) kritik hale geliyor. Klasik HDD tabanlı depolama çoğu senaryoda dar boğaz yaratıyor. Bu nedenle:
- Yerel disk tarafında NVMe SSD’ler,
- Paylaşımlı depolama tarafında ise ölçeklenebilir nesne depolama (S3 benzeri) çözümleri yaygınlaşıyor.
NVMe tarafının web hosting performansına etkisini daha detaylı görmek isterseniz, NVMe VPS hosting rehberimizi okumanızı özellikle öneririm. AI iş yüklerinde hem eğitim verisi hem de model dosyalarının NVMe üzerinde tutulmasının farkı, gerçek hayatta “saniyeler–dakikalar” seviyesinde hissediliyor.
Veri Merkezi Genişlemesi: Güç, Soğutma ve Alan Üçgenini Yönetmek
AI talebiyle birlikte veri merkezi genişlemelerini konuşurken üç temel parametre asla birbirinden bağımsız düşünülmüyor: güç, soğutma ve fiziksel alan. DCHost olarak yeni kabinler veya yeni salonlar planlarken daima şu sorular üzerinden gidiyoruz:
- Toplamda kaç MW ekstra güce ihtiyacımız olacak?
- Bu gücü hangi yoğunlukta (kabin başına kW) sunacağız?
- Bu yoğunlukta soğutmayı hangi yöntemle sağlayacağız?
Yüksek Yoğunluklu Rack Tasarımları
AI kümeleri için 10–20 kW hatta üstü güç tüketen rack’ler artık şaşırtıcı değil. Ancak klasik hava soğutmalı veri merkezlerinde kabin başına bu seviyelere çıkmak kolay değil. Bu noktada devreye şu tasarım yaklaşımları giriyor:
- Sıcak/soğuk koridor izolasyonu: Soğuk hava ve sıcak hava akımlarını birbirinden tamamen ayırmak, klima verimliliğini ciddi şekilde artırır.
- Kapalı kabin çözümleri: Yüksek yoğunluklu rack’lerde, kabinin kendisi mini bir hava akım odası gibi tasarlanabilir.
- Rack başı sıvı soğutma hazırlığı: Tamamen sıvı soğutmaya geçmeseniz bile, ileride kullanılabilecek hat ve manifoldların şimdiden planlanması önemlidir.
Bizim tarafta colocation projelerinde en çok gördüğümüz hatalardan biri, müşterinin sunucu konfigürasyonunu seçip daha sonra güç/soğutma hesabını yapmak istemesi. Oysa doğru yaklaşım, önce rack yoğunluğunu ve güç zarfını (power envelope) belirlemek, sonra donanımı buna göre seçmek. Özellikle AI sunucularını kendi donanımıyla getirmek isteyenler için bu adımı birlikte tasarlamak, ileride çok can yakacak sürprizleri önlüyor.
Sıvı Soğutma ve Hibrit Modeller
GPU kartları ısındıkça, hava soğutma belirli bir noktadan sonra verimlilik kaybı yaşamaya başlıyor. Burada devreye üç ana yaklaşım giriyor:
- Gelişmiş hava soğutma: Yüksek CFM’li fanlar, optimize edilmiş hava akımı, sıcak/soğuk koridor mimarisi.
- Direct-to-chip (D2C) sıvı soğutma: CPU/GPU üzerine takılan bloklarla sıvı dolaştırılması.
- Immersion (daldırma) soğutma: Donanımın dielektrik bir sıvı içine tamamen daldırılması.
Türkiye’de ve bölgemizde henüz tam immersion çözümler çok yaygın olmasa da, direct-to-chip ve hibrit hava+sıvı çözümlerinin özellikle AI kümeleri için hızla gündeme geldiğini görüyoruz. Veri merkezi tarafında, sıvı soğutmalı raflara hazır olmanın anlamı; mekanik tesisat planlarını, boru hatlarını ve bakım süreçlerini şimdiden tasarlamak demek.
Ağ Altyapısı, IP Kaynakları ve AI Dalgası
AI talebiyle büyüyen veri merkezlerinde ağ tarafı, en az güç ve soğutma kadar kritik hale geliyor. Özellikle dağıtık eğitim ve yoğun inference senaryolarında üç ana başlık öne çıkıyor:
1. Spine–Leaf Mimarisi ve Yüksek Hızlı Bağlantılar
Klasik “core–aggregation–access” mimariler, binlerce GPU’nun birbirleriyle yüksek bant genişliğiyle konuşması gereken yapılarda esnekliğini kaybediyor. Bu nedenle spine–leaf topoloji neredeyse standart hale geldi:
- Leaf anahtarlar: Sunucuların doğrudan bağlandığı katman.
- Spine anahtarlar: Leaf’ler arasındaki trafiği taşıyan, omurga rolündeki katman.
Burada hedef; deterministik gecikme ve öngörülebilir bant genişliği sağlamak. AI eğitim kümelerinde paket kaybı ve jitter (gecikme dalgalanması) doğrudan eğitim süresini ve maliyeti etkilediği için, ağ tasarımı bir “nice to have” değil, işin kalbi haline geliyor.
2. IPv4 Kıtlığı, IPv6 ve AI Hizmetlerine Erişim
Yükselen AI talebi, IP kaynakları tarafında da baskı oluşturuyor. Daha fazla sunucu, daha fazla servis, daha çok IP adresi demek. IPv4 tarafında küresel kıtlığın geldiği noktayı sık sık yazıyoruz. Örneğin IPv4 adres fiyatlarının rekor seviyelere ulaştığı yazımızda bu konuyu detaylarıyla ele aldık.
Önümüzdeki dönemde AI altyapılarında IPv6’nın varsayılan hale gelmesi kaçınılmaz. İç ağda zaten çoktan geçiş yapan yapılar çoğalıyor; dış erişimde de hem istemci tarafının hem de servis sağlayıcıların destek oranı artıyor. IPv6 geçişini planlarken nereden başlayacağınızı merak ediyorsanız, IPv6 benimseme hızlanması rehberimiz ağ ekibiniz için iyi bir başlangıç noktası olacaktır.
3. Güvenlik ve Segmentasyon
AI kümeleri, genellikle çok değerli veriler üzerinde çalışır: müşteri verisi, tıbbi kayıtlar, finansal veriler, kaynak kodları… Bu da ağ tarafında segmentasyonun (VLAN’ler, VRF’ler, mikro segmentasyon) önemini artırır. DCHost olarak yüksek yoğunluklu projelerde şunlara özellikle dikkat ediyoruz:
- AI eğitim kümelerini, genel internet trafiğinden katmanlı şekilde izole etmek,
- Model eğitiminde kullanılan depolama ağlarını (storage network) ayrı tutmak,
- Yönetim trafiğini (out-of-band) tamamen farklı bir kanal üzerinden yürütmek.
Bu sayede hem güvenlik hem de performans tarafında öngörülebilir bir yapı oluşturmak mümkün hale geliyor.
Sürdürülebilirlik Baskısı: AI, Enerji ve Maliyet Üçgeni
AI talebi veri merkezi genişlemelerini hızlandırırken, bir yandan da enerji tüketimi ve karbon ayak izi tartışmalarını alevlendiriyor. Her yeni GPU rafı, sadece elektrik faturasını değil, aynı zamanda soğutma yükünü ve dolaylı olarak karbon emisyonunu artırıyor.
Bizim tarafta sürdürülebilirlik konusunu uzun zamandır ayrı bir eksen olarak ele alıyoruz. Veri merkezi sürdürülebilirliği: enerji, maliyet ve performansı birlikte yönetmek yazımızda da anlattığımız gibi, sürdürülebilirlik sadece “yeşil enerji” satın almak değil; aynı zamanda:
- Soğutma verimliliğini artırmak (PUE’yi düşürmek),
- Donanım yenileme döngülerini optimize etmek,
- Atıl kapasiteyi azaltacak akıllı yerleşim ve konsolidasyon yapmak
anlamına geliyor.
AI projelerinde model optimizasyonu, quantization, knowledge distillation gibi yazılım seviyesindeki yöntemler, gerek duyulan donanımı ve dolayısıyla enerji tüketimini ciddi oranda azaltabiliyor. Veri merkezi tarafında ise yüksek verimli PSU’lar, doğru boyutlandırılmış UPS mimarileri ve serbest soğutma (free cooling) gibi yöntemler toplam tabloyu değiştirebiliyor.
İşletmeler İçin Yol Haritası: AI Çağında Doğru Altyapı Seçimi
Teoriyi bir kenara bırakalım, işin sizin tarafınıza bakan boyutunu konuşalım. DCHost müşterileriyle yaptığımız görüşmelerde en sık gelen sorular genelde şu üç başlıkta toplanıyor:
- “AI özellikleri eklemek istiyoruz ama tüm altyapıyı baştan kurmak şart mı?”
- “VPS ile başlasak ileride büyümeyi nasıl planlamalıyız?”
- “Kendi GPU sunucularımızı alıp colocation’a koymak mantıklı mı?”
Bu soruları birkaç pratik senaryo üzerinden yanıtlayalım.
Senaryo 1: Mevcut SaaS Uygulamasına AI Özelliği Eklemek
Elinizde halihazırda çalışan bir SaaS platformu veya web uygulaması olduğunu düşünelim. Metin özetleme, akıllı arama, sohbet botu veya kişiselleştirilmiş öneri gibi AI destekli özellikler eklemek istiyorsunuz. Çoğu zaman şu adımlar işinizi görecektir:
- Önce uygulama mimarisini ayırın: Web ve API sunucularınız için performanslı bir VPS veya dedicated katmanı, AI servisleri için ise ayrı bir katman düşünün.
- Inference odaklısınız, eğitim yapmıyorsunuz: Bu durumda genellikle çok büyük GPU kümelerine değil, doğru boyutlu 1–2 GPU’lu dedicated sunuculara veya GPU destekli colocation çözümlerine ihtiyaç duyarsınız.
- Veri akışını planlayın: AI servislerinin, uygulama sunucularına mümkün olduğunca yakın (aynı veri merkezinde) olması gecikmeyi ciddi ölçüde azaltacaktır.
Böyle bir yapıda DCHost tarafında tipik yaklaşım, uygulama için NVMe’li VPS veya dedicated sunucu, AI inference için ise GPU destekli dedicated veya colocation kombinasyonudur. Bu sayede hem maliyeti kontrol altında tutup hem de ölçeklendirmeyi adım adım yapabilirsiniz.
Senaryo 2: Kendi Modelini Eğitmek İsteyen Orta Ölçekli Şirket
Örneğin bir finans, sağlık veya lojistik şirketiyseniz ve verinizi dışarı çıkarmadan kendi modellerinizi eğitmek istiyorsanız, gereksinimler bir üst seviyeye çıkar:
- Birden çok GPU barındıran sunucular,
- Yüksek hızlı depolama (NVMe + nesne depolama kombinasyonu),
- Geniş bant iç ağ (en az 25G, tercihen 100G’ye hazır yapı),
- Güçlü yedekleme ve felaket kurtarma planı
Bu noktada colocation çoğu zaman mantıklı hale gelir. Kendi donanımınızı alır, DCHost veri merkezinde barındırırsınız. Böylece:
- Donanım mimarisini özgürce belirler,
- Verinizi ülke içinde ve kontrolünüz altında tutar,
- Güç, soğutma, ağ ve fiziksel güvenliği bizim uzman ekibimize bırakabilirsiniz.
Colocation’ın avantajlarını daha detaylı anlamak isterseniz, kendi sunucunuzu veri merkezinde barındırmanın avantajlarını anlattığımız yazıya mutlaka göz atın.
Senaryo 3: Yeni Bir AI Ürünü ile Piyasaya Çıkmak İsteyen Startup
Erken aşama bir girişim için en kritik konu, esnek ama sürdürülebilir maliyet dengesini tutturmaktır. Genelde şu strateji işe yarıyor:
- Prototip aşamasında: Uygulama tarafını orta seviye bir VPS üzerinde, AI tarafını ise düşük sayıda GPU’ya sahip bir sunucu ile başlatmak.
- İlk kullanıcı dalgasında: Trafik arttıkça uygulama katmanını yatayda (ek VPS/dedicated) genişletmek, inference kapasitesini de dikeyde (daha güçlü GPU’lar) büyütmek.
- Ürün–pazar uyumu yakalandığında: Maliyet hesabına göre GPU’lu dedicated’a veya kendi donanımıyla colocation’a geçmek.
Bu yolculukta kritik olan, başta seçeceğiniz mimarinin büyümeye elverişli olması. Buna iyi bir örnek olarak, VPS ve bulut barındırmada en yeni trendler ve altyapı yeniliklerini anlattığımız yazımızda paylaştığımız mikro servis + ölçeklenebilir depolama + otomatik dağıtım yaklaşımı gösterilebilir.
AI Eğitim Sürecinin Altyapıya Etkisini Doğru Okumak
AI projelerinin eğitim (training) kısmı, altyapı tarafında en zor ve pahalı aşamadır. Eğitim süreciyle ilgili şu noktalar yanlış planlama yapıldığında maliyeti katlayabilir:
- Devamlılık: Eğitim kesintiye uğradığında veya GPU’lar sık sık boştayken, aslında boşa enerji ve zaman harcanır.
- Veri boru hattı (data pipeline): Eğitim verisinin depolamadan GPU’lara yeterince hızlı akmaması, GPU’ların beklemesine ve verimsizliğe yol açar.
- Yedekleme ve checkpoint’ler: Uzun süren eğitim işlerinde periyodik checkpoint alınmazsa, küçük bir kesintide günlerce süren hesaplamayı kaybetme riski doğar.
Bu yüzden eğitim ortamı tasarlarken, klasik yedekleme stratejilerinden daha hassas bir planlama yapmak gerekir. Örneğin; 3-2-1 yedekleme stratejisi gibi prensipleri, model checkpoint’leri ve veri kümeleri için de uygulamak, felaket senaryolarında can kurtarır.
AI eğitimi kavramının daha teorik tarafına ilgi duyuyorsanız, yapay zeka eğitimi nedir yazımız, algoritmik arka planı anlamanıza da yardımcı olacaktır.
Önümüzdeki 3–5 Yılda Veri Merkezlerini Neler Bekliyor?
AI talebi henüz doygunluğa ulaşmış değil; birçok sektörde yolun daha başındayız. DCHost tarafında gördüğümüz ve önümüzdeki yıllar için beklediğimiz ana trendleri şöyle özetleyebiliriz:
- Yüksek yoğunluklu rafların yaygınlaşması: 10–20 kW/rack bugün “yüksek” sayılırken, birkaç yıl içinde “normal” kabul edilecek.
- Sıvı soğutma entegrasyonunun artması: En azından raf veya satır bazlı hibrit modeller yaygınlaşacak.
- IPv6’nın iç ağda kesinleşmesi, dış erişimde hızlanması: IP planlamasını tamamen IPv4’e göre yapmak artık sürdürülebilir değil.
- Edge AI ve bölgesel mini veri merkezleri: Gecikme hassasiyeti yüksek uygulamalar için kullanıcıya yakın küçük ama akıllı noktalar ortaya çıkacak.
- Gözlemlenebilirlik ve otomasyon: Prometheus/Grafana tarzı çözümlerle sadece sistem değil, model ve iş yükü seviyesinde izlenebilirlik standart hale gelecek.
Bu tablo, veri merkezi genişlemelerinin yalnızca “daha çok kabin” anlamına gelmediğini; aynı zamanda enerji, ağ, güvenlik ve otomasyonun birlikte ele alındığı çok katmanlı bir dönüşüm olduğunu gösteriyor.
Sonuç: AI Dalga, Hazırlıklı Olanlar İçin Fırsata Dönüşüyor
Veri merkezi genişlemeleri ve AI talebi arasındaki ilişkiyi, hem teori hem de sahadaki gerçek senaryolar üzerinden ele aldık. Özetlemek gerekirse; AI, veri merkezlerini sadece kapasite olarak büyütmüyor, aynı zamanda biçimsel olarak da yeniden şekillendiriyor. Güç yoğunluğu artıyor, soğutma mimarileri değişiyor, ağ topolojileri karmaşıklaşıyor, IP planlaması IPv6’yı merkeze almaya başlıyor ve sürdürülebilirlik artık bir yan konu değil, işin ana eksenlerinden biri haline geliyor.
DCHost olarak biz, bu dönüşümü sadece uzaktan izlemiyoruz; VPS, dedicated sunucu ve colocation altyapılarımızı yüksek yoğunluklu, AI hazır bir yapıya doğru evriltirken müşterilerimizi de bu yolculuğa hazırlamaya odaklanıyoruz. İster mevcut web projenize küçük AI özellikleri eklemek, ister kendi GPU kümelerinizi veri merkezimize taşıyıp colocation yapmak isteyin; mimari tasarım, kapasite planlama ve büyüme stratejisi tarafında yanınızda olmaktan memnuniyet duyarız.
AI dalgası kapınıza dayanmadan önce, altyapınızı sakin sakin gözden geçirmek için doğru zaman tam şimdi. Mevcut hosting yapınızı, büyüme planlarınızı ve olası AI senaryolarınızı birlikte değerlendirmek isterseniz, DCHost ekibiyle iletişime geçin; iş yüklerinizi, bütçenizi ve büyüme hedeflerinizi aynı masada konuşalım ve size özel bir yol haritası çıkaralım.
