
InfiniBand, yüksek bant genişliği, düşük gecikme süresi ve yüksek güvenilirlik sunan bir sistem bağlantı mimarisidir. İlk olarak 2000'li yılların başında Future I/O ve Next Generation I/O girişimlerinin birleşimiyle geliştirilmiştir. PCI, PCI-X ve AGP gibi geleneksel veriyolu teknolojilerinin sınırlamalarını aşmak amacıyla tasarlanmıştır. Sunucular, depolama sistemleri ve ağ altyapısı arasında yüksek hızlı veri iletimi sağlamak amacıyla veri merkezleri, yüksek performanslı hesaplama (HPC), süper bilgisayarlar ve yapay zeka altyapılarında yaygın olarak kullanılmaktadır.
InfiniBand mimarisi, OSI modeline benzer şekilde katmanlı bir yapıya sahiptir. Bu yapı beş temel katmandan oluşur:
InfiniBand, point-to-point bağlantıların yanı sıra switch'lerle desteklenen fat-tree, mesh ve torus gibi topolojilerde de çalışabilir. Yönetim altyapısı SM (Subnet Manager) üzerinden yapılandırılır.
InfiniBand, yüksek hızlı veri iletimi ve düşük gecikme süresiyle öne çıkar. 1X, 4X, 8X ve 12X lane yapılandırmalarıyla farklı hızlar elde edilebilir. Başlangıçta SDR (Single Data Rate - 2.5 Gbps) ile başlayan InfiniBand teknolojisi, şu anda HDR (High Data Rate - 200 Gbps), NDR (Next Data Rate - 400 Gbps) ve planlanan XDR (eXtreme Data Rate - 800 Gbps) gibi gelişmiş standartları desteklemektedir.
Bu özellikleri sayesinde InfiniBand, özellikle HPC ve veri yoğun uygulamalarda tercih edilmektedir.
InfiniBand, düşük gecikme ve yüksek aktarım hızına sahip sistemlerde tercih edilirken, Ethernet daha geniş kapsamlı ve ekonomik çözümler için kullanılır.
InfiniBand teknolojisi aşağıdaki alanlarda yaygın olarak kullanılmaktadır:

Henüz Tartışma Girilmemiştir
"InfiniBand " maddesi için tartışma başlatın
Mimari Yapı
Performans ve Teknik Özellikler
InfiniBand ile Ethernet Karşılaştırması
Kullanım Alanları
Bu madde yapay zeka desteği ile üretilmiştir.