No Free Lunch Theorems
WOLPERT, David H | وولبيرت، ديفيد هـ
No Free Lunch Theorems
نظريات "لا وجبة غداء مجانية"
Broadly speaking, there are two no free lunch theorems. One for supervised machine learning (Wolpert 1996) and one for search/optimization (Wolpert and Macready 1997). For an overview of the (no) free lunch and associated theorems, see David Wolpert’s What does dinner cost?
بشكل عام، هناك نظريتان لـ "لا وجبة غداء مجانية"؛ إحداهما للتعلم الآلي الخاضع للإشراف (Wolpert 1996)، والأخرى للبحث والتحسين (Wolpert and Macready 1997). للحصول على نظرة عامة حول هذه النظريات وما يرتبط بها، راجع مقال ديفيد وولبرت بعنوان "ما هي تكلفة العشاء؟" (What does dinner cost?).
No Free Lunch Theorems
نظريات لا غداء مجاني
Hume (1739–1740) pointed out that ‘even after the observation of the frequent or constant conjunction of objects, we have no reason to draw any inference concerning any object beyond those of which we have had experience’. More recently, and with increasing rigour, Mitchell (1980), Schaffer (1994) and Wolpert (1996) showed that bias-free learning is futile. Wolpert (1996) shows that in a noise-free scenario where the loss function is the misclassification rate, if one is interested in off-training-set error, then there are no a priori distinctions between learning algorithms.
أشار الفيلسوف ديفيد هيوم (1739-1740) إلى أنه "حتى بعد ملاحظة الاقتران المتكرر أو المستمر للأشياء، لا يوجد لدينا سبب لاستخلاص أي استدلال يتعلق بأي شيء يتجاوز تلك التي مررنا بخبرة سابقة معها". وفي الآونة الأخيرة، وبصرامة علمية متزايدة، أظهر ميتشل (1980) وشيفر (1994) ووولبرت (1996) أن التعلم الخالي من الانحياز (Bias-free learning) لا طائل منه. كما أثبت وولبرت (1996) أنه في سيناريو خالٍ من الضوضاء حيث تكون دالة الخسارة هي "معدل الخطأ في التصنيف"، إذا كان الاهتمام منصباً على "الخطأ خارج مجموعة التدريب" (off-training-set error)، فلا توجد فروق مسبقة بين خوارزميات التعلم.
More formally, where
d = training set;
m = number of elements in training set;
f = ‘target’ input-output relationships;
h = hypothesis (the algorithm's guess for f made in response to d); and
C = off-training-set ‘loss’ associated with f and h (‘generalization error’)
all algorithms are equivalent, on average, by any of the following measures of risk: E(C|d), E(C|m), E(C|f,d), or E(C|f,m).
بشكل أكثر رسمية، حيث:
d = مجموعة التدريب؛
m = عدد العناصر في مجموعة التدريب؛
f = علاقات المدخلات والمخرجات "الهدف"؛
h = الفرضية (تخمين الخوارزمية لـ f بناءً على d)؛
C = "الخسارة" خارج مجموعة التدريب المرتبطة بـ f و h ("خطأ التعميم")
تعتبر جميع الخوارزميات متكافئة، في المتوسط، وفقاً لأي من مقاييس المخاطر التالية: E(C|d)، أو E(C|m)، أو E(C|f,d)، أو E(C|f,m).
How well you do is determined by how ‘aligned’ your learning algorithm P(h|d) is with the actual posterior, P(f|d). Wolpert's result, in essence, formalizes Hume, extends him and calls the whole of science into question.
إن مدى جودة أدائك يتحدد بمدى "توافق" خوارزمية التعلم الخاصة بك P(h|d) مع الاحتمال البعدي الفعلي P(f|d). إن نتيجة وولبرت، في جوهرها، تضع أفكار هيوم في قالب رسمي وتوسع نطاقها، مما يضع المنهج العلمي بأكمله موضع تساؤل.
No Free Lunch for Search/Optimization
لا وجبة غداء مجانية في البحث والتحسين
The no free lunch theorem for search and optimization (Wolpert and Macready 1997) applies to finite spaces and algorithms that do not resample points. All algorithms that search for an extremum of a cost function perform exactly the same when averaged over all possible cost functions. So, for any search/optimization algorithm, any elevated performance over one class of problems is exactly paid for in performance over another class.
تنطبق نظرية "لا وجبة غداء مجانية" للبحث والتحسين (Wolpert and Macready 1997) على الفضاءات المحدودة والخوارزميات التي لا تعيد سحب النقاط نفسها. إن جميع الخوارزميات التي تبحث عن القيمة القصوى (عظمى أو صغرى) لدالة التكلفة تؤدي العمل نفسه تماماً عند حساب متوسط أدائها على جميع دوال التكلفة الممكنة. وبناءً على ذلك، فإن أي تفوق في الأداء لأي خوارزمية بحث أو تحسين في فئة معينة من المشكلات يقابله بالضرورة تراجع في الأداء في فئة أخرى.
Free Lunches
وجبات غداء مجانية (حالات الاستثناء)
- Second moments and higher of algorithms' generalization error
- Coevolution (Wolpert and Macready 2005)
- Confidence intervals can give a priori distinctions between algorithms
- العزوم الثانية (Second moments) وما فوق لخطأ التعميم في الخوارزميات
- التطور المشترك (Coevolution) (وولبرت وماكريدي 2005)
- فترات الثقة يمكن أن تعطي فروقاً مسبقة بين الخوارزميات
Quotes
اقتباسات
"We show that all algorithms that search for an extremum of a cost function perform exactly the same, when averaged over all possible cost functions. In particular, if algorithm A outperforms algorithm B on some cost functions, then loosely speaking there must exist exactly as many other functions where B outperforms A." Wolpert and Macready (1995)
"نحن نثبت أن جميع الخوارزميات التي تبحث عن القيمة القصوى لدالة التكلفة تؤدي الأداء نفسه تماماً عند حساب متوسط أدائها على جميع دوال التكلفة الممكنة. وبشكل خاص، إذا تفوقت الخوارزمية (أ) على الخوارزمية (ب) في بعض دوال التكلفة، فإنه وبشكل تقريبي، يجب أن يوجد تماماً عدد مماثل من الدوال الأخرى التي تتفوق فيها الخوارزمية (ب) على الخوارزمية (أ)." وولبرت وماكريدي (1995)
"A framework is developed to explore the connection between effective optimization algorithms and the problems they are solving. A number of "no free lunch" (NFL) theorems are presented that establish that for any algorithm, any elevated performance over one class of problems is exactly paid for in performance over another class." Wolpert and Macready (1997)
"تم تطوير إطار عمل لاستكشاف العلاقة بين خوارزميات التحسين الفعالة والمشكلات التي تقوم بحلها. تم تقديم عدد من نظريات 'لا وجبة غداء مجانية' (NFL) التي تثبت أنه لأي خوارزمية، فإن أي تحسن في الأداء على فئة واحدة من المشكلات يتم دفع ثمنه تماماً من خلال الأداء على فئة أخرى." وولبرت وماكريدي (1997)