Koleksiyonlar ile düzeninizi koruyun
İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.
Bu bir sığır.
Şekil 19. Bir öküz.
1906'da İngiltere'de ağırlık değerlendirme yarışması düzenlendi.
787 katılımcı bir öküzün ağırlığını tahmin etti. Tek tek tahminlerin medyan hatası 17 kg (%3,1 hata) idi. Ancak tahminlerin genel medyanı, öküzün gerçek ağırlığından (1198 lb) yalnızca 9 lb (4,1 kg) uzaktı.Bu da yalnızca %0,7'lik bir hata payı anlamına geliyordu.
Şekil 20. Bireysel ağırlık tahminlerinin histogramı.
Bu anekdot, kalabalığın bilgeliğini gösterir: Belirli durumlarda, toplu görüş çok iyi bir karar verir.
Kalabalığın bilgeliği matematiksel olarak merkezî limit teoremi ile modellenebilir: Gayrı resmi olarak, bir değer ile bu değerin N gürültülü tahmininin ortalaması arasındaki karesi alınmış hata, 1/N faktörüyle sıfıra yaklaşır.
Ancak değişkenler bağımsız değilse varyans daha büyüktür.
Makine öğrenimindeki küme, tahminlerinin ortalaması alınan (veya bir şekilde toplanan) modellerden oluşan bir koleksiyondur. Birlikte kullanılan modeller tek tek çok kötü olmasa da yeterince farklıysa birlikte kullanılan modellerin kalitesi genellikle her bir modelin kalitesinden daha iyidir. Bir topluluk, tek bir modele kıyasla daha fazla eğitim ve çıkarım süresi gerektirir. Sonuçta, tek bir model yerine birden fazla modelde eğitim ve çıkarım yapmanız gerekir.
Bir topluluğun en iyi şekilde çalışması için modellerin bağımsız olması gerekir. Örneğin, tam olarak aynı modellerden 10 tanesinin oluşturduğu bir topluluk (yani hiç bağımsız olmayan) tek modelden daha iyi olmaz. Diğer yandan, modelleri bağımsız olmaya zorlamak onları daha kötü hale getirebilir. Etkili bir ensembling, model bağımsızlığı ile alt modellerinin kalitesi arasında denge kurmayı gerektirir.
[[["Anlaması kolay","easyToUnderstand","thumb-up"],["Sorunumu çözdü","solvedMyProblem","thumb-up"],["Diğer","otherUp","thumb-up"]],[["İhtiyacım olan bilgiler yok","missingTheInformationINeed","thumb-down"],["Çok karmaşık / çok fazla adım var","tooComplicatedTooManySteps","thumb-down"],["Güncel değil","outOfDate","thumb-down"],["Çeviri sorunu","translationIssue","thumb-down"],["Örnek veya kod sorunu","samplesCodeIssue","thumb-down"],["Diğer","otherDown","thumb-down"]],["Son güncelleme tarihi: 2025-07-27 UTC."],[[["The \"wisdom of the crowd\" suggests that collective opinions can provide surprisingly accurate judgments, as demonstrated by a 1906 ox weight-guessing competition where the collective guess was remarkably close to the true weight."],["This phenomenon can be explained by the Central Limit Theorem, which states that the average of multiple independent estimates tends to converge towards the true value."],["In machine learning, ensembles leverage this principle by combining predictions from multiple models, improving overall accuracy when individual models are sufficiently diverse and reasonably accurate."],["While ensembles require more computational resources, their enhanced predictive performance often outweighs the added cost, especially when individual models are carefully selected and combined."],["Achieving optimal ensemble performance involves striking a balance between ensuring model independence to avoid redundant predictions and maintaining the individual quality of sub-models for overall accuracy."]]],[]]