The bias-variance trade-off

(source: Neural Networks and Deep Learning - Aggarwal)

The fact that more powerful models do not always win in terms of prediction accuracy with a finite data set is the key take-away from the bias-variance trade-off.

The bias-variance trade-off states that the squared error of a learning algorithm can be partitioned into three components:

  1. Bias = caused by the simplifying assumptions in the model, which causes certain test instances to have consistent errors across different choices of training data sets. Even if the model has access to an infinite source of training data, the bias cannot be removed.

  2. Variance = caused by the inability to learn all the parameters of the model in a statistically robust way, especially when the data is limited and the model tends to have a larger number of parameters. The presence of higher variance is manifested by overfitting to the specific training data set at hand. Therefore, if different choices of training data sets are used, different predictions will be provided for the same test instance.

  3. Noise = caused by the inherent error in the data.

(source: Introduction au machine learning - Azencott)

On peut décomposer l’erreur entre un terme qui découle de la qualité de l’espace des hypothèses et un autre qui découle de la qualité de la procédure d’optimisation utilisée. En pratique, sauf dans des cas très particuliers où cela est rendu possible par construction, il n’est pas possible de calculer ces termes d’erreur.

Cependant, cette écriture nous permet de comprendre le problème suivant :

Un espace des hypothèses plus large permet généralement de construire des modèles plus complexes : par exemple, l’ensemble des droites vs. l’ensemble des polynômes de degré 9. C’est une variante du principe du rasoir d’Ockham, selon lequel les hypothèses les plus simples sont les plus vraisemblables.

Il y a donc un compromis entre erreur d’approximation et erreur d’estimation : il est difficile de réduire l’une sans augmenter l’autre. Ce compromis est généralement appelé compromis biais-variance : l’erreur d’approximation correspond au biais de la procédure d’apprentissage, tandis que l’erreur d’estimation correspond à sa variance.

Plus un modèle est simple, et moins il a de chances de sur-apprendre. Pour limiter le risque de sur- apprentissage, il est donc souhaitable de limiter la complexité d’un modèle. C’est ce que permet de faire la régularisation, qui consiste à ajouter au terme d’erreur que l’on cherche à minimiser un terme qui mesure la complexité du problème (par exemple, le degré du polynôme ou le nombre de coefficients du modèle). Ainsi, un modèle complexe qui a une erreur empirique faible peut être défavorisé face à une modèle plus simple, même si celui-ci présente une erreur empirique plus élevée.

(source: Data Science par la pratique - Grus)

nombreuses erreurs pour à peu près n’importe quel jeu de données d’apprentissage => biais important deux jeux de données d’apprentissage quelconques produisent des résultats similaires => variance faible

biais élevé et variance faible sont caractéristiques d’un sous-ajustement

modèle qui correspond très exactement aux données d’apprentissage: biais faible, variance forte; typique de surajustement

un modèle est très biaisé s’il n’est pas performant avec les données d’apprentissage; peut être bénéfique d’ajouter des variables (features)

si le modèle a une faible variance, on peut essayer d’enlever des variables (ou obtenir davantage de données)

à complexité constante, plus on a de données plus il est difficile de surajuster

la mise à disposition de davantage de données reste sans effet sur le biais; si le modèle n’utilise pas assez de variables pour capter les éléments réguliers dans les données, il est inutile d’ajouter encore plus de données