badge icon

Bu madde henüz onaylanmamıştır.

Blog
Blog
Avatar
YazarHacer Zeynep Ekinci22 Nisan 2026 09:24

Yapay Zekâ Modelleri Neden Enerji Canavarı? (GPU, TPU ve maliyet gerçeği)

Alıntıla

Bugün bir yapay zekâ modeline soru sormak, günlük hayatın en sıradan alışkanlıklarından biri haline geldi. ChatGPT’ye bir şey yazıyoruz ve saniyeler içinde cevap alıyoruz. Her şey oldukça hızlı ve zahmetsiz görünüyor.


Ancak bu sürecin arka planında, dünyanın farklı noktalarına yayılmış dev veri merkezlerinde çalışan binlerce işlemci bulunuyor. Yani o birkaç satırlık cevabın arkasında, aslında ciddi bir enerji tüketimi yatıyor.


Peki yapay zekâ neden bu kadar “enerji aç” bir teknoloji?



Basit Bir Soru, Büyük Bir Tüketim

Günlük hayatta yaptığımız bir Google araması yaklaşık 0,3 watt-saat enerji tüketirken, aynı sorunun bir yapay zekâ modeline sorulması bu değeri yaklaşık 2,9 watt-saat seviyesine çıkarıyor (Brookings Institution, 2025).


Bu fark ilk bakışta küçük gibi görünse de yaklaşık 10 katlık bir artış anlamına geliyor. Üstelik bu yalnızca metin tabanlı işlemler için geçerli. Görsel üretimi, video analizi veya daha karmaşık işlemler söz konusu olduğunda enerji tüketimi çok daha yüksek seviyelere ulaşıyor.


Milyarlarca kullanıcının bu sistemleri aktif olarak kullandığı düşünüldüğünde, bu farkın küresel ölçekte ciddi bir etki oluşturduğu daha net anlaşılıyor.



İki Temel Aşama: Eğitim ve Çıkarım

Yapay zekâ modellerinin enerji tüketimi temelde iki aşamada gerçekleşir: eğitim ve kullanım (çıkarım).


Eğitim: Bir Kerelik Ama Çok Yoğun

Modelin öğrenme süreci olan eğitim aşaması, yüksek işlem gücü gerektirir.


GPT-3 modeli yaklaşık 34 gün süren eğitim sürecinde 1,3 gigavat-saat enerji tüketmiştir (Yeşil İş Platformu, 2024). Daha gelişmiş olan GPT-4 modelinde ise bu değer 50–62 gigavat-saat seviyelerine kadar çıkmıştır (Chip Online, 2025).


Bu miktar, büyük bir şehrin birkaç günlük elektrik tüketimine eşdeğer bir seviyededir.

Ayrıca karbon etkisi de oldukça dikkat çekicidir. GPT-3’ün eğitimi sırasında yaklaşık 550 ton karbondioksit salınımı gerçekleşmiştir (Sepas, 2024).


Çıkarım: Asıl Yük Burada

Eğitim süreci tamamlandıktan sonra model kullanıma açılır. Ancak enerji tüketiminin büyük kısmı aslında bu aşamada gerçekleşir.

ChatGPT’nin 2025 yılı itibarıyla günlük 2,5 milyardan fazla işlem gerçekleştirdiği tahmin edilmektedir (Chip Online, 2025). Bu yoğun kullanım, modelin eğitim sürecinde harcanan enerjiyi 150–200 gün içerisinde aşabilecek bir seviyeye ulaşmaktadır (Toolpod, 2026).

Bu durum, yapay zekâ sistemlerinin yalnızca geliştirme aşamasında değil, kullanım sürecinde de ciddi bir maliyet oluşturduğunu göstermektedir.



GPU ve TPU: Bu Sistemin Temel Taşları

Yapay zekâ modellerinin çalışmasını sağlayan en önemli donanımlar GPU ve TPU’lardır.


GPU’lar (Grafik İşlem Birimleri), başlangıçta grafik işlemleri için geliştirilmiş olsa da paralel işlem yetenekleri sayesinde yapay zekâ için vazgeçilmez hale gelmiştir. Günümüzde NVIDIA’nın A100 ve H100 gibi GPU’ları bu alanda yaygın olarak kullanılmaktadır.


Ancak bu sistemler oldukça yüksek enerji tüketir. Örneğin bir DGX A100 sistemi yaklaşık 6,5 kW güç tüketmektedir (Chip Online, 2025).


TPU’lar (Tensör İşlem Birimleri) ise Google tarafından doğrudan yapay zekâ işlemleri için geliştirilmiştir. Daha optimize bir yapı sundukları için enerji verimliliği açısından önemli avantaj sağlarlar.


Google’ın paylaştığı verilere göre, TPU optimizasyonları sayesinde enerji tüketimi 33 kat, karbon ayak izi ise 44 kat azaltılabilmiştir (Brookings Institution, 2025).



Veri Merkezleri: Dijital Dünyanın Enerji Altyapısı

Tüm bu sistemler, veri merkezleri adı verilen büyük ölçekli altyapılarda çalışır.


Uluslararası Enerji Ajansı verilerine göre, 2024 yılında veri merkezlerinin toplam enerji tüketimi yaklaşık 415 teravat-saat seviyesine ulaşmıştır. Bu değerin 2030 yılına kadar 945 teravat-saat seviyesine çıkması beklenmektedir (Dünya Ekonomik Forumu, 2025).


Bu artış, yapay zekâ ve dijital hizmetlere olan talebin hızla büyüdüğünü açıkça ortaya koymaktadır.



Enerjinin Ötesinde: Su Tüketimi

Enerji tüketiminin yanı sıra, veri merkezlerinin önemli bir diğer ihtiyacı da soğutma sistemleridir.

Bu sistemler büyük miktarda su kullanır. GPT-3 modelinin eğitimi sırasında yaklaşık 700.000 litre su tüketildiği tahmin edilmektedir. Büyük veri merkezlerinde ise günlük su tüketimi 14 ila 19 milyon litre seviyesine ulaşabilmektedir (Toolpod, 2026).



Ekonomik Boyut: Görünmeyen Maliyet

Yapay zekâ sistemlerinin kurulumu ve işletilmesi ciddi maliyetler gerektirir.


2025 yılında büyük teknoloji şirketlerinin veri merkezi yatırımlarının toplamda 364 milyar dolar seviyesine ulaştığı tahmin edilmektedir (Brookings Institution, 2025).


Bunun yanında, tek bir yüksek performanslı GPU’nun maliyetinin yaklaşık 30.000 dolar olduğu düşünüldüğünde, büyük ölçekli sistemlerin maliyetinin ne kadar yüksek olduğu daha net anlaşılmaktadır.



Daha Verimli Bir Gelecek Mümkün mü?

Artan enerji tüketimi, daha verimli çözümler geliştirilmesini zorunlu hale getirmiştir.

Bu kapsamda öne çıkan bazı yaklaşımlar şunlardır:

  • Daha küçük ve görev odaklı modeller
  • Yenilenebilir enerji kullanımı
  • Sıvı soğutma sistemleri
  • Nicemleme (quantization) teknikleri

Bu çalışmalar, yapay zekânın daha sürdürülebilir hale gelmesi açısından büyük önem taşımaktadır.



Kısacası

Yapay zekâ teknolojileri hayatımızı kolaylaştırırken, arka planda önemli bir enerji ve kaynak tüketimi oluşturur. Bu sistemler yalnızca yazılım değil; aynı zamanda büyük bir fiziksel altyapı, enerji ve mühendislik yatırımı gerektirir.


Bu gerçeğin farkında olmak, hem teknolojiyi daha bilinçli kullanmamızı sağlar hem de gelecekte daha verimli sistemler geliştirilmesine katkı sunar.

Bir sonraki yapay zekâ sorgunuzda, o cevabın arkasındaki görünmeyen sistemi hatırlamak, teknolojiye bakış açınızı değiştirebilir.

 

Kaynakça

Brookings Institution. (2025). Global energy demands within the AI regulatory landscape. https://www.brookings.edu/articles/global-energy-demands-within-the-ai-regulatory-landscape/

Chip Online. (2025). Yapay zekanın görünmeyen büyük yükü giderek artıyor. https://www.chip.com.tr/guncel/yapay-zekanin-gorunmeyen-buyuk-yuku-giderek-artiyor_173246.html

DonanımHaber. (2025). Yapay zekanın güncel durumunu açıklayan 12 grafik. https://www.donanimhaber.com/yapay-zekanin-guncel-durumunu-aciklayan-12-grafik--204630

International Energy Agency (IEA). (2025). Data Centres and AI Energy Report 2025. IEA, Paris.

Kartaca. (2025). Google Cloud TPU'ları ile yapay zekanın önündeki engeller kalkıyor. Medium. https://medium.com/kartaca/

MIT Technology Review. (2025). We did the math on AI's energy footprint. https://www.technologyreview.com/2025/05/20/1116327/

OECD.AI. (2023). How much water does AI consume? The public deserves to know. https://oecd.ai/en/wonk/how-much-water-does-ai-consume

Oman Observer. (2025). The hidden costs of AI data centres. https://www.omanobserver.om/ampArticle/1178722

Sepas. (2024). Yapay zeka ne kadar elektrik tüketiyor? https://www.sepas.com.tr/blog/yapay-zeka-ne-kadar-elektrik-tuketiyor

Skymod. (2025). Yapay zeka modellerinde enerji verimliliği: sürdürülebilir gelecek için stratejiler. https://skymod.tech/tr/yapay-zeka-modellerinde-enerji-verimliligi/

Toolpod. (2026). AI energy consumption: how much power does AI use? https://toolpod.dev/blog/ai-energy-consumption-environmental-impact

World Economic Forum. (2025). How data centres can avoid doubling their energy use by 2030. https://www.weforum.org/stories/2025/12/data-centres-and-energy-demand/

Yeşil İş Platformu. (2024). Yapay zeka sistemlerinin elektrik tüketimi hızla artıyor. https://www.yesilisplatformu.com/yapay-zeka-sistemlerinin-elektrik-tuketimi-hizla-artiyor/

Blog İşlemleri

Bu madde yapay zeka desteği ile üretilmiştir.

KÜRE'ye Sor