Gradient Stochastique
L'algorithme LMS approche la solution de Wiener par descente de gradient, avec un pas d'apprentissage μ réglable.
e(n) = d(n) − wTu(n)
w(n+1) = w(n) + μ·e(n)·u(n)
Implémentation et étude comparative des algorithmes LMS, RLS et Kalman sur deux problématiques : annulation de bruit et identification de système.
L'algorithme LMS approche la solution de Wiener par descente de gradient, avec un pas d'apprentissage μ réglable.
e(n) = d(n) − wTu(n)
w(n+1) = w(n) + μ·e(n)·u(n)
L'algorithme RLS minimise un critère pondéré exponentiellement avec un facteur d'oubli λ, convergence rapide.
k(n) = P(n-1)u(n) / [λ + uTP(n-1)u(n)]
w(n) = w(n-1) + k(n)·α(n)
Le filtre de Kalman modélise les coefficients comme un état stochastique, optimal pour les systèmes variants.
K(n) = P⁻(n)u(n) / [uTP⁻u + σ²_v]
w(n) = w⁻(n) + K(n)·e(n)
Extraction du signal utile s(n) d'un signal bruité x(n) = s(n) + b(n) à l'aide d'un bruit de référence corrélé b'(n).
Estimation des coefficients h = [0.8, −0.5, 0.3, 0.1] d'un filtre RIF inconnu, puis suivi lors d'un saut.