Modèle additif

Malheureusement, bien que le théorème de représentation de Kolmogorov – Arnold affirme l`existence d`une fonction de cette forme, il ne donne aucun mécanisme par lequel on pourrait être construit. Certaines preuves constructives existent, mais elles ont tendance à nécessiter des fonctions très compliquées (c.-à-d. fractales), et ne conviennent donc pas aux approches de modélisation. Par conséquent, le modèle additif généralisé [1] supprime la somme externe et exige plutôt que la fonction appartienne à une classe plus simple. Cependant, le succès des réseaux neuronaux et leurs propriétés d`approximation universelle ont montré que des alternatives plus générales existent à GAM. En d`autres termes, le but des modèles additifs généralisés est de maximiser la qualité de prédiction d`une variable dépendante Y à partir de diverses distributions, en estimant des fonctions non spécifiques (non paramétriques) des variables prédictifs qui sont «connectées» à la variable dépendante via une fonction de liaison. La pénalisation a plusieurs effets sur l`inférence, par rapport à un GLM régulier. D`une part, les estimations sont sujettes à un certain biais de lissage, qui est le prix qui doit être payé pour limiter l`estimateur variance par pénalisation. Toutefois, si les paramètres de lissage sont sélectionnés de manière appropriée, le biais de lissage (au carré) introduit par la pénalisation doit être inférieur à la réduction de la variance qu`il produit, de sorte que l`effet net est une réduction de l`erreur d`estimation quadratique moyenne, par rapport à ne pénalise pas. Un effet connexe de la pénalisation est que la notion de degrés de liberté d`un modèle doit être modifiée pour tenir compte de l`action des sanctions pour réduire la liberté de variation des coefficients. Par exemple, si W {displaystyle W} est la matrice diagonale des pondérations IRLS à la convergence, et X {displaystyle X} est la matrice de modèle GAM, alors les degrés de liberté effectifs du modèle sont donnés par trace (F) {displaystyle {text{trace}} (F)} où nous considérons un exemple spécifique des modèles additifs généralisés: une généralisation du modèle logistique (logit) pour les valeurs variables dépendantes binaires. Comme décrit en détail dans le contexte de l`estimation non linéaire et des modèles linéaires/non linéaires généralisés, le modèle de régression logistique pour les réponses binaires peut être écrit comme suit: les modèles additifs généralisés vous permettent de choisir parmi une grande variété de distributions pour la variable dépendante, et les fonctions de liaison pour les effets des variables prédictitrices sur la variable dépendante (voir McCulloch et Nelder, 1989; Hastie et Tibshirani, 1990; Voir aussi présentation d`introduction GLZ-approche computationnelle pour une discussion sur les fonctions de liaison et les distributions): à l`aide de la sélection des paramètres de lissage REML, et nous attendons que f 1 {displaystyle f_ {1}} soit une fonction relativement compliquée que nous aimerions modèle avec une spline de régression cubique pénalisée.

This entry was posted in Uncategorized by . Bookmark the permalink.

Comments are closed.