1 of 35

Méthode et Algorithme

  • de
  • Newton-Gauss

Présenté par: AIT SAID Ayoub BAHASSOU Mohamed Amine

ELHANSALI Mouaad ID LAHCEN El Mahdi

KHALIL Elhoussine RGUIBI Mohamed Mouad

Encadré par: LAHROUZ Adil

2 of 35

Plan

  1. Introduction
    1. Optimisation et Apprentissage machine(Machine Learning)
    2. Avantages de NG par rapport aux autres méthodes
  2. Méthode de Newton
  3. Approximation de Gauss
  4. Exemple
  5. Pratique

3 of 35

Introduction

OPTIMISATION ET MACHINE LÉARNING

LIMITES DES AUTRES MÉTHODES

4 of 35

En tant qu'informaticien, en quoi l'optimisation nous aide-t-elle

5 of 35

Optimisation sert à quoi? (Machine Learning et IA)

  • la relation entre le machine learning et l'optimisation est fondamentale. L'optimisation intervient à plusieurs niveaux:
  • l'ajustement des paramètres du modèle.
  • la minimisation des fonctions de coût.
  • l'optimisation des hyperparamètres.
  • la sélection de modèles
  • l'apprentissage par renforcement.
  • Ces processus d'optimisation sont essentiels pour améliorer les performances des modèles d'apprentissage automatique et les adapter efficacement à des tâches spécifiques plus notablement pour le domaine d’Intelligence Artificielle.

6 of 35

Avantages par rapport aux autres

  • Lorsqu’on compare la méthode de Newton-Gauss avec les autres méthodes d’optimisation comme la méthode de descent de gradient, methode du gradient conjugué et aussi la méthode du Newton-Raphson on peut distinguer que on a plusieurs avantages lesquelles:�- Cette méthode est spécifiquement utilisée pour résoudre des problèmes d'optimisation non linéaires, souvent rencontrés dans le contexte de la régression non linéaire.
  • - Il est adaptée aux cas où la fonction objectif est une somme de carrés (comme dans la régression).
  • - Il utilise une approximation linéaire des résidus (Approximation du Gauss) au lieu de calculer la hessienne complète.
  • - Il est souvent utilisée dans le contexte de la minimisation des moindres carrés.

7 of 35

Introduction

  • Comme problématique:
  • 1) La méthode du gradient à pas fixe :
          • convergence lente,
          • pas toujours garantie.
  • 2) Les méthodes du gradient à pas optimal:
          • convergence moyenne
          • convergence est garantie

Découvrons la méthode Newton-Gauss!

8 of 35

Partie 2

MÉTHODE DE NEWTON, INTERPRÉTATIONS ET RÉSULTATS

9 of 35

Méthode de Newton

 

10 of 35

Généralisation

  •  

11 of 35

Partie 3

APPROXIMATION, MÉTHODE DE GAUSS-NEWTON , EXEMPLE ET SIMULATION GRAPHIQUE

12 of 35

Méthode de Gauss-Newton

  • l'algorithme de Gauss-Newton est une méthode de résolution des problèmes de moindres carrés non linéaires.
  • Elle peut être vue comme une modification de la méthode de Newton dans le cas multidimensionnel afin de trouver le minimum d'une fonction (à plusieurs variables).
  • Mais l'algorithme de Gauss-Newton est totalement spécifique à la minimisation d'une somme de fonctions au carré et présente le grand avantage de ne pas nécessiter les dérivées secondes, parfois complexes à calculer.

13 of 35

Méthode de Gauss-Newton

 

 

14 of 35

Approximation de gauss

H

 

15 of 35

Méthode de Gauss- Newton

  •  

 

16 of 35

Méthode de newton gauss

  •  

17 of 35

Exemple

  •  

18 of 35

Représentation graphique de f

 

19 of 35

Exemple

  •  

 

20 of 35

Exemple

  •  

 

 

21 of 35

Exemple

  •  

22 of 35

Introduction à MATLAB

SYNTAXE DE BASE & REPRÉSENTATION GRAPHIQUES

23 of 35

Syntaxe de base

VARIABLES

VECTEUR

MATRICE

24 of 35

Les Variables symboliques « syms »

    • Les variables symboliques sont utilisées pour effectuer des calculs symboliques plutôt que numériques. Cela signifie que MATLAB traite les expressions avec des symboles (comme x, y, etc.) de manière symbolique, sans

Variable symbolique

Variable numérique

25 of 35

Les Fonction sur les matrices

L’inverse de matrice

Matrice tronspose

Matrice jacobian

26 of 35

Des autre fonction

    • norm()
    • sub()

 

 

    • matlabFunction()

27 of 35

Représentation graphiques

FONCTION DE REPRESENTATION FUNCTION 2D

    • plot( f , x )

FONCTION DE REPRÉSENTATION FONCTION 3D

    • plot3( X , Y , Z )
    • surf( X ,Y , Z)

28 of 35

FONCTION DE REPRESENTATION DES POINTS�

  • scatter3(x, y, z);

29 of 35

Partie 5

APPLICATION DE LA PARTIE THÉORIQUE SUR MATLAB.

30 of 35

Algorithme:

  1. Définir la fonction f(x, y) à optimiser

  • Calculer les dérivées partielles de f par rapport à x et y (gradient)
  • Calculer la matrice Jacobienne J pour les dérivées partielles
  • Calculer la valeur de f(x, y)
  • Calculer la mise à jour de x et y

  • Retourner les valeurs optimales de x et y trouvées

31 of 35

Partie 6

PROBLÈME

32 of 35

PROBLEME:

  • Dans cet exemple, l'algorithme de Gauss–Newton est utilisé pour ajuster un modèle en minimisant la somme des carrés entre les observations et les prévisions du modèle.
  • Dans une expérience de biologie, on étudie la relation entre la concentration du substrat [S] et la vitesse de réaction (rate) dans une réaction enzymatique à partir de données reportées dans le tableau suivant.

33 of 35

On souhaite ajuster les données à la courbe de la forme :

La courbe représentative du tableau:

34 of 35

On note xi et yi les valeurs de [S] et la vitesse de la réaction,pour i=1,…..,7.

on pose et on les initialisent par on cherche alors les valeurs de ces paramètres qui minimisent la somme des carrés des résidus.

Le résidu est identifié par:

La jacobienne J du vecteur des résidus ri par rapport aux paramètres est une matrice de 7 * 2

exprimée par: pour chaque i=1,…..7.

35 of 35

Itération

Estimation

Somme des carrés des résidus

1

[0,9;0,2]

1,4455000

2

[0,33266;0,26017]

0,0150721

3

[0,34281;0,42608]

0,0084583

4

[0,35778;0,52951]

0,0078643

5

[0,36141;0,55366]

0,0078442

6

[0,3618;0,55607]

0,0078440

Tableau des estimations des paramètres calculés théoriquement: