WOLPERT, David H | وولبيرت ، ديفيد هـ

No Free Lunch Theorems

لا نظريات غداء مجانية

Broadly speaking, there are two no free lunch theorems. One for supervised machine learning (Wolpert 1996) and one for search/optimization (Wolpert and Macready 1997). For an overview of the (no) free lunch and associated theorems, see David Wolpert’s What does dinner cost?

بشكل عام ، هناك نوعان من نظريات لا وجبة غداء مجانية. واحد للإشراف التعلم الآلي (Wolpert 1996) وواحد للبحث / التحسين (Wolpert و ماكريدي 1997). للحصول على نظرة عامة على (لا) وجبة غداء مجانية وما يرتبط بها النظريات انظر ديفيد وولبرت ما تكلفة العشاء؟

No Free Lunch Theorems

لا نظريات غداء مجانية

Hume (1739–1740) pointed out that ‘even after the observation of the frequent or constant conjunction of objects, we have no reason to draw any inference concerning any object beyond those of which we have had experience’. More recently, and with increasing rigour, Mitchell (1980), Schaffer (1994) and Wolpert (1996) showed that bias-free learning is futile. Wolpert (1996) shows that in a noise-free scenario where the loss function is the misclassification rate, if one is interested in off-training-set error, then there are no a priori distinctions between learning algorithms.

أشار هيوم (1739 - 1740) إلى أنه "حتى بعد ملاحظة الاقتران المتكرر أو المستمر للأشياء ، ليس لدينا سبب لرسم أي شيء الاستدلال بشأن أي كائن يتجاوز تلك التي لدينا خبرة'. في الآونة الأخيرة ، وبصرامة متزايدة ، ميتشل (1980) ، أظهر Schaffer (1994) و Wolpert (1996) أن التعلم الخالي من التحيز لا طائل من ورائه. يوضح Wolpert (1996) ذلك في سيناريو خالٍ من الضوضاء حيث تكون وظيفة الخسارة هو معدل الخطأ في التصنيف ، إذا كان المرء مهتمًا بالتدريب خارج المجموعة خطأ ، فلا توجد فروق مسبقة بين خوارزميات التعلم.

More formally, where

d = training set;

m = number of elements in training set;

f = ‘target’ input-output relationships;

h = hypothesis (the algorithm's guess for f made in response to d); and

C = off-training-set ‘loss’ associated with f and h (‘generalization error’)

all algorithms are equivalent, on average, by any of the following measures of risk: E(C|d), E(C|m), E(C|f,d), or E(C|f,m).

بشكل أكثر رسمية ، أين

d = مجموعة التدريب ؛

m = عدد العناصر في مجموعة التدريب ؛

f = علاقات المدخلات والمخرجات "الهدف" ؛

h = الفرضية (تخمين الخوارزمية لـ f استجابةً لـ d) ؛

C = "خسارة" خارج مجموعة التدريب المرتبطة بـ f و h ("خطأ التعميم")

جميع الخوارزميات متكافئة ، في المتوسط ، بأي من المقاييس التالية الخطر: E (C | d) ، E (C | m) ، E (C | f ، d) ، أو E (C | f ، m).

How well you do is determined by how ‘aligned’ your learning algorithm P(h|d) is with the actual posterior, P(f|d). Wolpert's result, in essence, formalizes Hume, extends him and calls the whole of science into question.

يتم تحديد مدى جودة أدائك من خلال مدى "توافق" خوارزمية التعلم الخاصة بك P (h | d) مع الخلفية الفعلية ، P (f | d). نتيجة وولبرت ، في الجوهر ، يضفي الطابع الرسمي على هيوم ، ويوسع نطاقه ويضع العلم كله موضع تساؤل.

No Free Lunch for Search/Optimization

لا يوجد غداء مجاني للبحث / التحسين

The no free lunch theorem for search and optimization (Wolpert and Macready 1997) applies to finite spaces and algorithms that do not resample points. All algorithms that search for an extremum of a cost function perform exactly the same when averaged over all possible cost functions. So, for any search/optimization algorithm, any elevated performance over one class of problems is exactly paid for in performance over another class.

نظرية لا وجبة غداء مجانية للبحث والتحسين (Wolpert و ماكريدي 1997) على المساحات المحدودة والخوارزميات التي لا تفعل ذلك نقاط إعادة العينة. جميع الخوارزميات التي تبحث عن حد أقصى للتكلفة تؤدي الوظيفة نفس الشيء تمامًا عند حساب متوسطها على جميع التكاليف الممكنة المهام. لذلك ، لأي خوارزمية بحث / تحسين ، أي خوارزمية مرتفعة الأداء على فئة واحدة من المشاكل يتم دفع ثمنها بالضبط في الأداء على فئة أخرى.

Free Lunches

وجبات غداء مجانية

- Second moments and higher of algorithms' generalization error

- Coevolution (Wolpert and Macready 2005)

- Confidence intervals can give a priori distinctions between algorithms

- اللحظات الثانية وأعلى من خطأ التعميم للخوارزميات

- Coevolution (وولبرت وماكريدي 2005)

- يمكن أن تعطي فترات الثقة اختلافات مسبقة بين الخوارزميات

The no free lunch theorem for search and optimization (Wolpert and Macready 1997) applies to finite spaces and algorithms that do not resample points. All algorithms that search for an extremum of a cost function perform exactly the same when averaged over all possible cost functions. So, for any search/optimization algorithm, any elevated performance over one class of problems is exactly paid for in performance over another class.

نظرية لا وجبة غداء مجانية للبحث والتحسين (Wolpert و ماكريدي 1997) على المساحات المحدودة والخوارزميات التي لا تفعل ذلك نقاط إعادة العينة. جميع الخوارزميات التي تبحث عن حد أقصى للتكلفة تؤدي الوظيفة نفس الشيء تمامًا عند حساب متوسطها على جميع التكاليف الممكنة المهام. لذلك ، لأي خوارزمية بحث / تحسين ، أي خوارزمية مرتفعة يتم الدفع مقابل الأداء على فئة واحدة من المشكلات بالضبط على فئة أخرى.

Quotes

اقتباسات

"We show that all algorithms that search for an extremum of a cost function perform exactly the same, when averaged over all possible cost functions. In particular, if algorithm A outperforms algorithm B on some cost functions, then loosely speaking there must exist exactly as many other functions where B outperforms A. Starting from this we analyze a number of the other a priori characteristics of the search problem, like its geometry and its information-theoretic aspects. This analysis allows us to derive mathematical benchmarks for assessing a particular search algorithm's performance. We also investigate minimax aspects of the search problem, the validity of using characteristics of a partial search over a cost function to predict future behavior of the search algorithm on that cost function, and time-varying cost functions. We conclude with some discussion of the justifiability of biologically-inspired search methods." Wolpert and Macready (1995)

"An algorithmicist looks at no free lunch." Culberson (1996)

'The "no free lunch" theorems (Wolpert and Macready) have sparked heated debate in the computational learning community. A recent communication, (Zhu and Rohwer, 1996) attempts to demonstrate the ine fficiency of cross-validation on a simple problem. We elaborate on this result by considering a broader class of cross-validation. We show that when used more strictly, cross-validation can yield the expected results on simple examples.' Goutte (1997)

"A framework is developed to explore the connection between effective optimization algorithms and the problems they are solving. A number of "no free lunch" (NFL) theorems are presented that establish that for any algorithm, any elevated performance over one class of problems is exactly paid for in performance over another class. These theorems result in a geometric interpretation of what it means for an algorithm to be well suited to an optimization problem. Applications of the NFL theorems to information theoretic aspects of optimization and benchmark measures of performance are also presented. Other issues addressed are time-varying optimization problems and a priori "head-to-head" minimax distinctions between optimization algorithms, distinctions that can obtain despite the NFL theorems' enforcing of a type of uniformity over all algorithms." Wolpert and Macready (1997)

"Here different scenarios of optimization are presented. It is argued why the scenario on which the No Free Lunch Theorem is based does not model real life optimization. For more realistic scenarios it is argued why optimization techniques differ in their efficiency. For a small example this claim is proved." Droste, Jansen and Wegener (1998)

"We show that with a uniform prior on models having the same training error, early stopping at some fixed training error above the training error minimum results in an increase in the expected generalization error." Cataltepe, Abu-Mostafa and Magdon-Ismail (1999)

The problem with the no-free-lunch theorems in machine learning is that they are rather complicated and difficult to follow because they are proven under the most general conditions possible (Wolpert 1992, 1995, 1996). The purpose of this note is to present the idea behind them in a very simple example. Forster (1999)

"No Free Lunch theorems have shown that learning algorithms cannot be universally good. We show that No Free Lunch exists for noise prediction as well. We show that when the noise is additive and the prior over target functions is "uniform", a prior on the noise distribution cannot be updated, in the Bayesian sense, from any finite data set. We emphasize the importance of a prior over the target function in order to justify superior performance for learning systems." Magdon-Ismail (2000)

'This letter discusses the recent paper "Some technical remarks on the proof of the 'No Free Lunch' theorem". In that paper some technical issues related to the formal proof of the "No Free Lunch" (NFL) theorem for search [2], [3] were given. As a result of a discussion among the authors, this letter explores the issues raised in that paper more thoroughly. This includes the presentation of a simpler version of the NFL proof, in accord with a suggestion made explicitly in [1] and implicitly in [3]. It also includes the correction of an incorrect claim made in [1] of a limitation of the NFL theorem. Finally, some thoughts on future research directions for research into algorithm performance are given.' Köppen, Wolpert and Macready (2001)

"Wolpert proved NFL assuming uniform problem distributions - for learning in 1992 and 1994 - for optimization in 1995 (with Macready)" English (2001)

"It is seen that No Free Lunch results are independent from whether or not the set of functions over which a No Free Lunch result holds is compressible." Schumacher, Vose and Whitley (2001)

"The No Free Lunch theorem has had considerable impact in the field of optimization research. A terse definition of this theorem is that no algorithm can outperform any other algorithm when performance is amortized over all functions. Once that theorem has been proven, the next logical step is to characterize how effective optimization can be under reasonable restrictions. We operationally define a technique for approaching the question of what makes a function searchable in practice. This technique involves defining a scalar field over the space of all functions that enables one to make decisive claims concerning the performance of an associated algorithm. We then demonstrate the effectiveness of this technique by giving such a field and a corresponding algorithm; the algorithm performs better than random search for small values of this field. We then show that this algorithm will be effective over many, perhaps most functions of interest to optimization researchers. We conclude with a discussion about how such regularities are exploited in many popular optimization algorithms." Christensen and Oppacher (2001)

"In a recent paper [3] it was shown that No Free Lunch results [5] hold for any subset F of the set of all possible functions from a finite set X to a finite set Y iff F is closed under permutation of X. In this article, we prove that the number of those subsets can be neglected compared to the overall number of possible subsets. Further, we present some arguments why problem classes relevant in practice are not likely to be closed under permutation." Igel and Toussaint (2001)

"an Almost No Free Lunch (ANFL) theorem shows that for each function which can be optimized efficiently by a search heuristic there can be constructed many related functions where the same heuristic is bad. As a consequence, search heuristics use some idea how to look for good points and can be successful only for functions “giving the right hints”.' Droste, Jansen and Wegener (2002)

"The classic NFL theorems are invariably cast in terms of single objective optimization problems. We confirm that the classic NFL theorem holds for general multiobjective fitness spaces, and show how this follows from a ‘single-objective’ NFL theorem. We also show that, given any particular Pareto Front, an NFL theorem holds for the set of all multiobjective problems which have that Pareto Front. It follows that, given any ‘shape’ or class of Pareto fronts, an NFL theorem holds for the set of all multiobjective problems in that class. These findings have salience in test function design. Such NFL results are cast in the typical context of absolute performance, assuming a performance metric which returns a value based on the result produced by a single algorithm. But, in multiobjective search we commonly use comparative metrics, which return performance measures based non-trivially on the results from two (or more) algorithms. Closely related to but extending the observations in the seminal NFL work concerning minimax distinctions between algorithms, we provide a ‘Free Leftovers’ theorem for comparative performance of algorithms over permutation functions; in words: over the space of permutation problems, every algorithm has some companion algorithm(s) which it outperforms, according to a certain well-behaved metric, when comparative performance is summed over all problems in the space." Corne and Knowles (2003)

"The No-Free-Lunch (NFL) theorems hold for general multiobjective fitness spaces, in the sense that, over a space of problems which is closed under permutation, any two algorithms will produce the same set of multiobjective samples. However, there are salient ways in which NFL does not generally hold in multiobjective optimization. Previously we have shown that a ‘free lunch’ can arise when comparative metrics (rather than absolute metrics) are used for performance measurement. Here we show that NFL does not generally apply in multiobjective optimization when absolute performance metrics are used. This is because multiobjective optimizers usually combine a generator with an archiver. The generator corresponds to the ‘algorithm’ in the NFL sense, but the archiver filters the sample generated by the algorithm in a way that undermines the NFL assumptions. Essentially, if two multiobjective approaches have different archivers, their average performance may differ. We prove this, and hence show that we can say, without qualification, that some multiobjective approaches are better than others." Corne and Knowles (2003)

"The sharpened No-Free-Lunch-theorem (NFL-theorem) states that the performance of all optimization algorithms averaged over any finite set F of functions is equal if and only if F is closed under permutation (c.u.p.) and each target function in F is equally likely. In this paper, we first summarize some consequences of this theorem, which have been proven recently: The average number of evaluations needed to find a desirable (e.g., optimal) solution can be calculated; the number of subsets c.u.p. can be neglected compared to the overall number of possible subsets; and problem classes relevant in practice are not likely to be c.u.p. Second, as the main result, the NFL-theorem is extended. Necessary and sufficient conditions for NFL-results to hold are given for arbitrary, non-uniform distributions of target functions. This yields the most general NFL-theorem for optimization presented so far." Igel and Toussaint (2003)

"Genetic Algorithms (GAs) and Genetic Programming (GP) are often considered as seperate but related fields. Typically, GAs use a fixed length linear representation, whereas GP uses a variable size tree representation. This paper argues that the differences are unimportant. Firstly, variable length actually means variable length up to some fixed limit, so can really be considered as fixed length. Secondly, the representations and genetic operators of GA and GP appear different, however ultimately it is a population of bit strings in the computers memory which is being manipulated whether it is GA or GP which is being run on the computer. The important difference lies in the interpretation of the representation; if there is a one to one mapping between the description of an object and the object itself (as is the case with the representation of numbers), or a many to one mapping (as is the case with the representation of programs). This has ramifications for the validity of the No Free Lunch theorem, which is valid in the first case but not in the second. It is argued that due to the highly related nature of GAs and GP, that many of the empirical results discovered in one field will apply to the other field, for example maintaining high diversity in a population to improve performance." Woodward (2003)

"This paper has three aims. Firstly, to clarify the poorly understood No Free Lunch Theorem (NFL) which states all search algorithms perform equally. Secondly, search algorithms are often applied to program induction and it is suggested that NFL does not hold due to the universal nature of the mapping between program space and functionality space. Finally, NFL and combinatorial problems are examined. When evaluating a candidate solution, it can be discarded without being fully examined. A stronger version of NFL is established for this class of problems where the goal is to minimize a quantity." Woodward and Neil (2003)

نظهر أن جميع الخوارزميات التي تبحث عن تكلفة باهظة تؤدي الوظيفة نفس الشيء تمامًا ، عند حساب متوسطها على جميع التكاليف الممكنة المهام. على وجه الخصوص ، إذا تفوقت الخوارزمية A على الخوارزمية B في بعض الحالات التكلفة ، إذن عند الحديث بشكل فضفاض يجب أن توجد بالضبط نفس العدد وظائف أخرى حيث يؤدي B أ. ابتداء من هذا نقوم بتحليل أ عدد الآخر من الخصائص المسبقة لمشكلة البحث ، مثل هندستها وجوانبها المعلوماتية النظرية. يسمح هذا التحليل لاشتقاق معايير رياضية لتقييم بحث معين أداء الخوارزمية. نحن نحقق أيضًا في جوانب minimax للبحث مشكلة ، صلاحية استخدام خصائص البحث الجزئي على أ وظيفة التكلفة للتنبؤ بالسلوك المستقبلي لخوارزمية البحث على ذلك دالة التكلفة ، ووظائف التكلفة المتغيرة بمرور الوقت. نختتم مع بعض مناقشة مبرر طرق البحث المستوحاة من الناحية البيولوجية ". وولبرت وماكريدي (1995)

"خبير خوارزمي ينظر إلى عدم وجود وجبة غداء مجانية." كولبيرسون (1996)

اشتعلت نظريات "لا وجبة غداء مجانية" (وولبرت وماكريدي) النقاش في مجتمع التعلم الحسابي. اتصال حديث ، (Zhu and Rohwer ، 1996) يحاول إثبات كفاءة ine عبر التحقق من صحة مشكلة بسيطة. نتوسع في هذه النتيجة من خلال النظر في فئة أوسع من التحقق من الصحة. نظهر ذلك عند استخدامها بشكل أكثر صرامة ، يمكن أن يؤدي التحقق المتقاطع إلى النتائج المتوقعة بشكل بسيط أمثلة.' جوت (1997)

"تم تطوير إطار عمل لاستكشاف العلاقة بين الفاعلية خوارزميات التحسين والمشكلات التي يتم حلها. عدد من "لا غداء مجاني "(NFL) تم تقديم نظريات تثبت ذلك لأي الخوارزمية ، أي أداء مرتفع على فئة واحدة من المشاكل هو بالضبط دفعت مقابل الأداء على فئة أخرى. هذه النظريات تؤدي إلى أ التفسير الهندسي لما يعنيه أن تكون الخوارزمية على ما يرام مناسبة لمشكلة التحسين. تطبيقات نظريات اتحاد كرة القدم الأميركي ل الجوانب النظرية للمعلومات للتحسين والمعايير القياسية يتم تقديم الأداء أيضًا. القضايا الأخرى التي تم تناولها متفاوتة الوقت مشاكل التحسين والتمييزات المسبقة "وجهاً لوجه" بين خوارزميات التحسين ، الفروق التي يمكن الحصول عليها على الرغم من فرض نظريات اتحاد كرة القدم الأميركي لنوع من التوحيد على جميع الخوارزميات ". وولبرت وماكريدي (1997)

"هنا يتم عرض سيناريوهات مختلفة للتحسين. ويُناقش السبب السيناريو الذي تستند إليه نظرية "لا غذاء مجاني" غير نموذجي تحسين الحياة الواقعية. بالنسبة لسيناريوهات أكثر واقعية ، يُناقش السبب تختلف تقنيات التحسين في كفاءتها. لمثال صغير تم إثبات هذا الادعاء ". Droste، Jansen and Wegener (1998)

"نظهر ذلك بزي رسمي مسبق على العارضات اللاتي حصلن على نفس التدريب خطأ ، التوقف المبكر عند بعض أخطاء التدريب الثابتة فوق التدريب يؤدي الحد الأدنى من الخطأ إلى زيادة التعميم المتوقع خطأ. "كتالتيب ، أبو مصطفى وماجدون إسماعيل (1999)

تكمن المشكلة في نظريات عدم وجود غداء مجاني في التعلم الآلي في ذلك إنها معقدة نوعًا ما ويصعب متابعتها لأنها كذلك تم إثباته في ظل أكثر الشروط العامة الممكنة (Wolpert 1992 ، 1995 ، 1996). الغرض من هذه المذكرة هو تقديم الفكرة من وراءها في ملف مثال بسيط جدا. فورستر (1999)

"أظهرت نظريات عدم وجود غداء مجاني أن خوارزميات التعلم لا يمكن أن تكون كذلك جيد عالميا. نظهر أنه لا يوجد غداء مجاني للتنبؤ بالضوضاء أيضًا. نظهر أنه عندما تكون الضوضاء مضافة والسابق فوق الهدف وظائف "موحدة" ، لا يمكن أن يكون قبل توزيع الضوضاء محدثة ، بالمعنى البايزي ، من أي مجموعة بيانات محدودة. نؤكد على أهمية سابقة على الوظيفة الهدف من أجل التبرير أداء متفوق لأنظمة التعلم "مجدون إسماعيل (2000).

تناقش هذه الرسالة الورقة الأخيرة "بعض الملاحظات الفنية على دليل على نظرية "لا غداء مجاني" في هذه الورقة بعض المسائل الفنية المتعلقة بالإثبات الرسمي لنظرية "لا غداء مجاني" (NFL) لـ البحث [2] ، [3] أعطيت. نتيجة للمناقشة بين المؤلفين ، تستكشف هذه الرسالة القضايا التي أثيرت في تلك الورقة بمزيد من التفصيل. هذا يتضمن تقديم نسخة أبسط من إثبات اتحاد كرة القدم الأميركي ، بالتوافق مع اقتراح صريح في [1] وضمنيًا في [3]. كذلك يتضمن تصحيح مطالبة غير صحيحة تم إجراؤها في [1] من القيود من نظرية اتحاد كرة القدم الأميركي. أخيرًا ، بعض الأفكار حول اتجاهات البحث المستقبلية للبحث في أداء الخوارزمية. كوبن وولبرت و ماكريدي (2001)

"أثبت Wolpert أن اتحاد كرة القدم الأميركي يفترض توزيعات مشكلة موحدة - للتعلم في عامي 1992 و 1994 - للتحسين في عام 1995 (مع ماكريدي) "الإنجليزية (2001)

"من الواضح أن نتائج" عدم وجود غداء مجاني "مستقلة عما إذا كان ذلك أم لا مجموعة الوظائف التي تحتوي عليها نتيجة "بدون غداء مجاني" قابل للانضغاط. "Schumacher، Vose and Whitley (2001)

"كان لنظرية لا غداء مجاني تأثير كبير في مجال البحث الأمثل. التعريف المقتضب لهذه النظرية هو أنه لا يمكن أن تتفوق الخوارزمية على أي خوارزمية أخرى عندما يتم إطفاء الأداء على جميع الوظائف. بمجرد إثبات هذه النظرية ، يكون المنطق التالي الخطوة هي توصيف مدى فعالية التحسين تحت المعقول قيود. نحن نحدد عمليًا تقنية للتعامل مع سؤال حول ما الذي يجعل الوظيفة قابلة للبحث في الممارسة العملية. هذه التقنية يتضمن تحديد مجال عددي على مساحة جميع الوظائف التي تمكن المرء من تقديم مطالبات حاسمة فيما يتعلق بأداء الخوارزمية المرتبطة. ثم نظهر فعالية هذا تقنية من خلال إعطاء مثل هذا المجال والخوارزمية المقابلة ؛ ال تؤدي الخوارزمية أداءً أفضل من البحث العشوائي عن القيم الصغيرة لهذا مجال. نوضح بعد ذلك أن هذه الخوارزمية ستكون فعالة على العديد من ربما معظم الوظائف التي تهم باحثي التحسين. نحن اختتم بمناقشة حول كيفية استغلال مثل هذه الأمور المنتظمة في العديد من خوارزميات التحسين الشائعة. "كريستنسن وأوبشر (2001)

"في بحث حديث [3] تبين أنه لا توجد نتائج غداء مجانية [5] معلقة لأي مجموعة فرعية F من مجموعة جميع الوظائف الممكنة من مجموعة محدودة X إلى مجموعة محدودة Y iff F مغلقًا بموجب تبديل X. في هذه المقالة ، نثبت أنه يمكن إهمال عدد هذه المجموعات الفرعية مقارنةً بـ العدد الإجمالي للمجموعات الفرعية الممكنة. علاوة على ذلك ، نقدم بعض الحجج لماذا من غير المحتمل أن يتم إغلاق فئات المشكلة ذات الصلة في الممارسة التقليب. "إيجل وتوسان (2001)

"تُظهر نظرية لا غذاء مجاني تقريبًا (ANFL) أنه لكل وظيفة يمكن تحسينها بكفاءة عن طريق البحث عن مجريات الأمور شيدت العديد من الوظائف ذات الصلة حيث يكون نفس الاستدلال سيئًا. ك نتيجة لذلك ، تستخدم استدلالات البحث فكرة عن كيفية البحث عن نقاط جيدة ويمكن أن تكون ناجحة فقط للوظائف "إعطاء التلميحات الصحيحة". دروست ويانسن وفيجنر (2002)

"إن نظريات اتحاد كرة القدم الأميركي الكلاسيكية يتم طرحها دائمًا من حيث هدف واحد مشاكل التحسين. نحن نؤكد أن نظرية NFL الكلاسيكية تنطبق مساحات اللياقة العامة متعددة الأغراض ، وشرح كيف يتبع ذلك من نظرية NFL "أحادية الهدف". نظهر ذلك أيضًا ، في ضوء أي شيء خاص باريتو فرونت ، نظرية اتحاد كرة القدم الأميركي تحمل مجموعة من الأهداف المتعددة المشاكل التي لديها جبهة باريتو. ويترتب على ذلك ، في ضوء أي "شكل" أو فئة من جبهات باريتو ، تنطبق نظرية اتحاد كرة القدم الأميركي على مجموعة الكل مشاكل متعددة الأهداف في تلك الفئة. هذه النتائج لها أهمية في تصميم وظيفة الاختبار. يتم إلقاء هذه النتائج NFL في سياق نموذجي الأداء المطلق ، بافتراض مقياس أداء يُرجع قيمة بناءً على النتيجة الناتجة عن خوارزمية واحدة. لكن في غايات متعددة في البحث ، نستخدم عادةً المقاييس المقارنة ، والتي تُظهر الأداء مقاييس تستند بشكل غير تافه إلى نتائج من خوارزميتين (أو أكثر). يرتبط ارتباطًا وثيقًا ولكن يوسع الملاحظات في عمل اتحاد كرة القدم الأميركي الأساسي فيما يتعلق بالفروق بين الخوارزميات ، فإننا نقدم خيار "مجاني أكثر من نظرية بقايا الطعام للأداء المقارن للخوارزميات وظائف التقليب بالكلمات: على مساحة مشاكل التقليب ، تحتوي كل خوارزمية على خوارزمية (خوارزمية) مصاحبة تتفوق عليها في الأداء ، وفقًا لمقياس معين حسن التصرف ، عند مقارنة الأداء يتم تلخيصه في جميع المشكلات في الفضاء ". Corne and Knowles (2003)

"إن نظريات عدم وجود غداء مجاني (NFL) تنطبق على اللياقة العامة متعددة الأغراض المساحات ، بمعنى أنه ، على مساحة من المشاكل مغلقة تحتها التقليب ، أي خوارزميتين ستنتج نفس المجموعة من عينات متعددة الأهداف. ومع ذلك ، هناك طرق بارزة يقوم بها اتحاد كرة القدم الأميركي لا يتم الاحتفاظ بشكل عام في التحسين متعدد الأهداف. سابقا لدينا أظهر أن "وجبة غداء مجانية" يمكن أن تنشأ عند المقاييس المقارنة (بدلاً من المقاييس المطلقة) لقياس الأداء. هنا نظهر ذلك لا يتم تطبيق NFL بشكل عام في التحسين متعدد الأهداف عندما يكون مطلقًا يتم استخدام مقاييس الأداء. هذا بسبب مُحسِّن متعدد الأهداف عادة ما تجمع بين مولد وأرشيف. المولد يتوافق مع "الخوارزمية" بمعنى اتحاد كرة القدم الأميركي ، لكن أرشيفي يصفي العينة تم إنشاؤها بواسطة الخوارزمية بطريقة تقوض افتراضات اتحاد كرة القدم الأميركي. بشكل أساسي ، إذا كان هناك نهجان متعددان الأهداف لهما أرشفة مختلفة ، قد يختلف متوسط أدائهم. نحن نثبت ذلك ، وبالتالي نظهر ذلك يمكننا القول ، بدون مؤهل ، أن بعض المناهج متعددة الأهداف أفضل من الآخرين ". Corne and Knowles (2003)

"تنص نظرية لا-غداء مجانية (NFL-theorem) الحادة على أن متوسط أداء جميع خوارزميات التحسين على أي مجموعة محدودة F من الوظائف متساوية إذا وفقط إذا تم إغلاق F تحت التقليب (c.u.p.) وكل وظيفة مستهدفة في F متساوية في الاحتمال. في هذه الورقة، نلخص أولاً بعض نتائج هذه النظرية ، والتي كانت تم إثباته مؤخرًا: متوسط عدد التقييمات اللازمة للعثور على ملف يمكن حساب الحل المرغوب (على سبيل المثال ، الأمثل) ؛ عدد ال مجموعات فرعية c.u.p. يمكن إهمالها مقارنة بالعدد الإجمالي الممكن مجموعات فرعية وفئات المشاكل ذات الصلة في الممارسة من غير المحتمل أن تكون كذلك كوب. ثانيًا ، كنتيجة رئيسية ، تم تمديد نظرية اتحاد كرة القدم الأميركي. ضروري ويتم إعطاء شروط كافية لعقد نتائج NFL من أجل التعسفي ، التوزيعات غير المنتظمة للوظائف المستهدفة. هذا ينتج أكثر تم تقديم نظرية NFL العامة للتحسين حتى الآن ". Igel و Toussaint (2003)

"الخوارزميات الجينية (GAs) والبرمجة الجينية (GP) غالبًا تعتبر مجالات منفصلة ولكنها ذات صلة. عادة ، تستخدم GAs ثابت التمثيل الخطي للطول ، بينما يستخدم GP شجرة متغيرة الحجم التمثيل. تجادل هذه الورقة بأن الاختلافات غير مهمة. أولاً ، الطول المتغير يعني في الواقع طولًا متغيرًا يصل إلى بعض الطول الثابت الحد ، لذلك يمكن اعتباره طولًا ثابتًا. ثانياً ، تظهر التمثيلات والعوامل الجينية لـ GA و GP مختلفة ، ومع ذلك ، فهي في النهاية مجموعة من سلاسل البت في أجهزة الكمبيوتر الذاكرة التي يتم التلاعب بها سواء كانت GA أو GP تشغيل على الكمبيوتر. يكمن الاختلاف المهم في التفسير التمثيل إذا كان هناك تعيين واحد لواحد بين وصف الكائن والشيء نفسه (كما هو الحال مع تمثيل الأرقام) ، أو تعيين العديد إلى واحد (كما هو الحال مع تمثيل البرامج). هذا له تداعيات على الصحة من نظرية لا غداء مجاني ، وهي صالحة في الحالة الأولى ولكن ليس في الثاني. يقال أنه نظرًا لطبيعة شديدة الارتباط من GA و GP ، سيتم تطبيق العديد من النتائج التجريبية المكتشفة في مجال واحد إلى المجال الآخر ، على سبيل المثال الحفاظ على تنوع عالي بين السكان لتحسين الأداء ". Woodward (2003)

"هذه الورقة لها ثلاثة أهداف: أولا ، لتوضيح سوء الفهم لا نظرية الغداء المجاني (NFL) التي تنص على أداء جميع خوارزميات البحث بالتساوي. ثانيًا ، غالبًا ما يتم تطبيق خوارزميات البحث على البرنامج الاستقراء ويقترح أن اتحاد كرة القدم الأميركي لا يصمد بسبب العالمية طبيعة التعيين بين مساحة البرنامج ومساحة الوظيفة. أخيرًا ، يتم فحص مشاكل اتحاد كرة القدم الأميركي والاندماج. عند تقييم أ حل مرشح ، يمكن التخلص منه دون فحص كامل. أ تم إنشاء نسخة أقوى من اتحاد كرة القدم الأميركي لهذه الفئة من المشاكل حيث الهدف هو تقليل الكمية ". Woodward and Neil (2003)