KÜRE LogoKÜRE Logo

İnce Ayarlama (Fine Tuning)

fav gif
Kaydet
kure star outline

Yapay zeka alanında ince ayar (fine-tuning), önceden eğitilmiş bir modelin belirli bir görev veya veri kümesine uyarlanması sürecidir. Bu yöntem, modelin mevcut bilgilerini koruyarak yeni verilere daha iyi yanıt vermesini sağlar. Özellikle büyük dil modelleri (LLM) ve derin öğrenme sistemlerinde yaygın olarak kullanılır.

İnce Ayarlama Tekniği

İnce Ayar, verilerden daha fazla bilgi edinmeye yardımcı olan güçlü bir tekniktir. İnce ayarlamayı anlamak için transfer öğrenmeyi anlamak gerekir. Transfer öğrenme, bir görev üzerinde eğitilen bir modelin ikinci bir ilgili görevde yeniden amaçlandığı bir makine öğrenmesi tekniğidir. Bu süreçte, eğitilmiş bir modelin bazı katmanları “dondurularak” sabit tutulur, diğer katmanlar ise yeni verilerle yeniden eğitilir. Bu sayede, modelin genel bilgisi korunurken, belirli bir göreve özgü yetenekleri geliştirilir. İnce ayarlama yöntemi, eldeki verinin bir model eğitecek kadar büyük olmadığı, nispeten küçük veri kümelerine sahip olunduğunda uygulanır.


Farklı görevler için yapay zeka kullanmak tasviri (Freepik)

Büyük Dil Modellerinde İnce Ayarlama

Büyük dil modellerinde ince ayarlama modelin önceden geniş çaplı veriyle eğitilmesinin ardından, belirli bir görev veya veri kümesine özel olarak yeniden eğitilmesi sürecidir. Bu yöntem, modelin genel dil bilgisi kapasitesini korurken, hedeflenen alanda daha yüksek doğruluk ve bağlamsal uyum sağlar. Örneğin; müşteri destek metinleriyle ince ayar yapılan bir dil modeli, teknik destek sorularına daha uygun ve yerinde yanıtlar verebilir. Bu süreçte genellikle modelin tüm parametreleri değil, sadece bir kısmı güncellenir. Böylece hem kaynak tasarrufu sağlanır hem de modelin önceki bilgilerini “unutması” önlenmeye çalışılır.


İnce ayar, önceden eğitilmiş bir büyük dil modelinin tümün parametrelerine etki etmeden belirli bir görevde mükemmelleşecek şekilde özelleştirmenizi sağlar. İstem mühendisliğine (prompt engineering) kıyasla ince ayarlama birkaç avantaj daha elde etmek için kullanılabilir:

  • Tek bir isteğin (prompt) bağlam penceresine (context window) sığabilecek olandan daha fazla örnek girdi ve çıktı sağlayarak modelin daha geniş çeşitlilikteki istemleri işlemesini sağlayabilirsiniz.
  • Daha az örnek ve bağlam verisi ile daha kısa istemler kullanabilirsiniz, bu da ölçekte token maliyetlerinden tasarruf sağlar ve daha düşük gecikme süresi olabilir.
  • Her isteğe örneklerle dahil etmek zorunda kalmadan özel veya hassas veriler üzerinde eğitim verebilirsiniz.
  • Daha büyük bir modelin uygun maliyetli olmadığı belirli bir görevde başarılı olmak için daha küçük, daha ucuz ve daha hızlı bir modeli eğitebilirsiniz.


Fine Tuning şeması Prottasha vd. (2024)

Büyük Dil Modeli İnce Ayarlama Türleri

  1. Denetimsiz  İnce Ayarlama: Bu yöntem etiketlenmiş veri gerektirmez. Bunun yerine, LLM hedef alandan geniş bir etiketlenmemiş metin külliyatına maruz bırakılarak dil anlayışını geliştirir. Bu yaklaşım hukuk veya tıp alanları gibi yeni alanlar için kullanışlıdır ancak sınıflandırma veya özetleme gibi belirli görevler için daha az kesindir.
  2. Denetimli İnce Ayar (SFT): SFT, LLM’ye hedef göreve göre uyarlanmış etiketli verilerin sağlanmasını içerir. Örneğin, bir iş bağlamında metin sınıflandırması için bir LLM'ye ince ayar yapmak, sınıf etiketleri içeren metin parçacıklarından oluşan bir veri kümesi kullanır. Bu yöntem etkili olmakla birlikte, elde edilmesi maliyetli ve zaman alıcı olabilen önemli miktarda etiketli veri gerektirir.
  3. Komut Mühendisliği ile Talimat İnce Ayarı: Bu yöntem, LLM'ye özel asistanlar oluşturmak için yararlı olan doğal dil talimatları sağlamaya dayanır. Çok miktarda etiketlenmiş veriye olan ihtiyacı azaltır ancak büyük ölçüde istemlerin kalitesine bağlıdır.

Veri Kümesi Hazırlığı

Büyük dil modelleri için ince ayarlama sürecinde en kritik adımlardan biri, veri kümesi hazırlığıdır. Bu aşama, modelin hedef görev üzerinde etkili bir şekilde performans göstermesini doğrudan etkiler. Veri kümesi, modelin eğitileceği görevle uyumlu, kaliteli ve mümkün olduğunca dengeli olmalıdır.

Görev Tanımlama ve Veri Seçimi

Veri kümesi oluşturulmadan önce, modelin eğitileceği görev açıkça tanımlanmalıdır. Örneğin, amaç bir sohbet asistanı geliştirmekse diyalog verileri; duygu analizi için ise etiketlenmiş metin verileri gerekir. Görev tanımına göre uygun kaynaklardan veri toplanır. Bu kaynaklar kamuya açık veri setleri, şirket içi belgeler, kullanıcı etkileşimleri veya insan üretimi özel metinler olabilir.

Temizlik ve Ön İşleme

Toplanan veriler, doğal dil işleme için standart bir ön işleme sürecinden geçirilir. Bu süreçte yazım hataları düzeltilir, gereksiz semboller temizlenir ve tutarsızlıklar giderilir. Eğer model yapılandırılmış veriyle eğitilecekse (örneğin, soru-cevap çiftleri), metinler uygun biçime dönüştürülür.

Etiketleme ve Görev Formatlama

Gözetimli bir ince ayar yapılacaksa, verilerin uygun şekilde etiketlenmesi gerekir. Bu etiketleme süreci manuel olarak yapılabileceği gibi, bazı durumlarda otomatik kurallar da kullanılabilir. Örneğin, bir sınıflandırma görevi için her metne ait doğru sınıf etiketinin belirlenmesi gerekir. Ayrıca, verilerin modelin girdi formatına (örn. “prompt-response” yapısı) uygun hale getirilmesi gerekir.

Veri Kalitesi ve Denge

Modelin dengeli bir şekilde öğrenebilmesi için veri kümesinde sınıf dengesine dikkat edilmelidir. Aksi takdirde model, daha fazla örneğe sahip sınıflara karşı önyargılı hale gelebilir. Ayrıca düşük kaliteli, çelişkili ya da anlamca hatalı veriler elenmelidir. Gerekirse küçük ama nitelikli bir veri kümesiyle çalışmak, büyük ama düzensiz bir veri kümesine göre daha verimli olabilir.

Anonimleştirme ve Gizlilik

Veri kümesi hazırlanırken kişisel veya hassas bilgiler içeren veriler anonimleştirilmelidir. Bu, hem etik hem de yasal açıdan önemli bir adımdır. GDPR, KVKK gibi veri koruma yasaları dikkate alınmalıdır.

Kaynakça

Google Cloud Blog. Huizenga, Erwin ve May Hu. “When to Use Supervised Fine-Tuning for Gemini.” Google Cloud Blog. Son erişim 16 Mayıs 2025. Erişim Adresi.

Microsoft. “Yapay Zeka Modeli İnce Ayarlama Kavramları.” Microsoft Learn. Son erişim 16 Mayıs 2025. Erişim Adresi.

OpenAI. “Fine-Tuning.” OpenAI Platform. Son erişim 16 Mayıs 2025. Erişim Adresi.

Prottasha, N. J., A. Mahmud, M. S. I. Sobuj, ve diğerleri. “Parameter-Efficient Fine-Tuning of Large Language Models Using Semantic Knowledge Tuning.” Scientific Reports 14, no. 30667 (2024). Erişim Adresi.

Zhang, Shengyu, vd. “Instruction Tuning for Large Language Models: A Survey.” Son erişim 16 Mayıs 2025. Erişim Adresi.

Sen de Değerlendir!

0 Değerlendirme

Yazar Bilgileri

Avatar
Ana YazarYağmur Yıldız Parıltı15 Mayıs 2025 10:00
KÜRE'ye Sor