zoukankan      html  css  js  c++  java
  • LM拟合算法

    一、  Levenberg-Marquardt算法

    (1)y=a*e.^(-b*x)形式拟合

    clear all
    % 计算函数f的雅克比矩阵,是解析式
    syms a b y x real;
    f=a*exp(-b*x);
    Jsym=jacobian(f,[a b]);
    % 拟合用数据。参见《数学试验》,p190,例2
    % data_1=[0.25 0.5 1 1.5 2 3 4 6 8];
    % obs_1=[19.21 18.15 15.36 18.10 12.89 9.32 7.45 5.24 3.01];
    load fla
    % data_1=[0.25 0.5 1 1.5 2 3 4 6 8];
    % obs_1=[19.21 18.15 15.36 18.10 12.89 9.32 7.45 5.24 3.01];
    data_1=1:26;
    obs_1=fla3_1;%y轴的值
    
    % 2. LM算法
    % 初始猜测s
    a0=1e+09; b0=0;
    y_init = a0*exp(-b0*data_1);
    % 数据个数
    Ndata=length(obs_1);
    % 参数维数
    Nparams=2;
    % 迭代最大次数
    n_iters=50;
    % LM算法的阻尼系数初值
    lamda=0.01;
    % step1: 变量赋值
    updateJ=1;
    a_est=a0;
    b_est=b0;
    %% 
    % step2: 迭代
    for it=1:n_iters %迭代次数
       if updateJ==1
           % 根据当前估计值,计算雅克比矩阵
           J=zeros(Ndata,Nparams);%数据的维度,系数的维度
           for i=1:length(data_1)
               J(i,:)=[exp(-b_est*data_1(i)) -a_est*data_1(i)*exp(-b_est*data_1(i))];%雅克比矩阵的生成
                                                                                     % 对系数a和b求导
           end
           % 根据当前参数,得到函数值
           y_est = a_est*exp(-b_est*data_1);
           % 计算误差
           d=obs_1-y_est;
           % 计算(拟)海塞矩阵
           H=J'*J;
           % 若是第一次迭代,计算误差
           if it==1
               e=dot(d,d);%向量点乘
           end
       end
       % 根据阻尼系数lamda混合得到H矩阵
       H_lm=H+(lamda*eye(Nparams,Nparams)); % J'*J+lamda*I
       % 计算步长dp,并根据步长计算新的可能的参数估计值
       dp=inv(H_lm)*(J'*d(:)); %deltp=[J'*J+lamda*I]^(-1)*(J'*εk)矩阵求逆
       g = J'*d(:);
       a_lm=a_est+dp(1);
       b_lm=b_est+dp(2);
       % 计算新的可能估计值对应的y和计算残差e
       y_est_lm = a_lm*exp(-b_lm*data_1);
       d_lm=obs_1-y_est_lm;
       e_lm=dot(d_lm,d_lm);
       % 根据误差,决定如何更新参数和阻尼系数
       if e_lm<e
           lamda=lamda/10;
           a_est=a_lm;
           b_est=b_lm;
           e=e_lm;
           disp(e);
           updateJ=1;
       else
           updateJ=0;
           lamda=lamda*10;
       end
    end
    %% 
    %显示优化的结果
    a_est
    b_est
    %从图形上观察拟合程度
    plot(data_1,obs_1,'*')
    hold on
    x=1:54;
    y=a_est*exp(-b_est*x);
    plot(x,y,'o-')
    

    (2)y=a*x.^b+c形式

    注意公式变化后,求导的变化 

    clear all
    % 计算函数f的雅克比矩阵,是解析式
    syms a b c x ;
    f=a*x.^b+c;
    Jsym=jacobian(f,[a b c]);
    % 拟合用数据。参见《数学试验》,p190,例2
    % data_1=[0.25 0.5 1 1.5 2 3 4 6 8];
    % obs_1=[19.21 18.15 15.36 18.10 12.89 9.32 7.45 5.24 3.01];
    load fla
    % data_1=[0.25 0.5 1 1.5 2 3 4 6 8];
    % obs_1=[19.21 18.15 15.36 18.10 12.89 9.32 7.45 5.24 3.01];
    data_1=1:length(fla3_1);
    obs_1=fla3_1;%y轴的值
    
    % 2. LM算法
    % 初始猜测s
    a0=1e+09; b0=0;c0=1.4e+09;
    y_init = a0*data_1.^b0+c0;
    % 数据个数
    Ndata=length(obs_1);
    % 参数维数
    Nparams=3;
    % 迭代最大次数
    n_iters=50;
    % LM算法的阻尼系数初值
    lamda=0.01;
    % step1: 变量赋值
    updateJ=1;
    a_est=a0;
    b_est=b0;
    c_est=c0;
    %% 
    % step2: 迭代
    for it=1:n_iters %迭代次数
       if updateJ==1
           % 根据当前估计值,计算雅克比矩阵
           J=zeros(Ndata,Nparams);%数据的维度,系数的维度
           for i=1:length(data_1)
               J(i,:)=[data_1(i).^b_est a_est*log(data_1(i))*data_1(i).^b_est 0];%雅克比矩阵的生成
                                                                                     % 对系数a和b求导
           end
           % 根据当前参数,得到函数值
           y_est =a_est*data_1.^b_est+c_est ;
           % 计算误差
           d=obs_1-y_est;
           % 计算(拟)海塞矩阵
           H=J'*J;
           % 若是第一次迭代,计算误差
           if it==1
               e=dot(d,d);%向量点乘
           end
       end
       % 根据阻尼系数lamda混合得到H矩阵
       H_lm=H+(lamda*eye(Nparams,Nparams)); % J'*J+lamda*I
       % 计算步长dp,并根据步长计算新的可能的参数估计值
       dp=inv(H_lm)*(J'*d(:)); %deltp=[J'*J+lamda*I]^(-1)*(J'*εk)矩阵求逆
       g = J'*d(:);
       a_lm=a_est+dp(1);
       b_lm=b_est+dp(2);
       c_lm=c_est+dp(3);
       % 计算新的可能估计值对应的y和计算残差e
       y_est_lm = a_lm*data_1.^b_lm+c_lm;
       d_lm=obs_1-y_est_lm;
       e_lm=dot(d_lm,d_lm);
       % 根据误差,决定如何更新参数和阻尼系数
       if e_lm<e
           lamda=lamda/10;
           a_est=a_lm;
           b_est=b_lm;
           e=e_lm;
           disp(e);
           updateJ=1;
       else
           updateJ=0;
           lamda=lamda*10;
       end
    end
    %% 
    %显示优化的结果
    a_est
    b_est
    c_est
    %从图形上观察拟合程度
    plot(data_1,obs_1,'*')
    hold on
    x=1:length(data_1);
    y=a_est*data_1.^b_est+c_est;
    plot(x,y,'o-')
    

    拟合不是很好

    更改初始参数c0=1.42e+09后,变为如下图,拟合效果好很多,所以参数调整很重要。

    LM函数

    function [a_est,b_est,c_est]=LM(data)
        data_1=1:length(data);
        obs_1=data;%y轴的值
    
        % 2. LM算法
        % 初始猜测s
        a0=1; b0=0;c0=1.42e+09;
        y_init = a0*data_1.^b0+c0;
        % 数据个数
        Ndata=length(obs_1);
        % 参数维数
        Nparams=3;
        % 迭代最大次数
        n_iters=500;
        % LM算法的阻尼系数初值
        lamda=0.01;
        % step1: 变量赋值
        updateJ=1;
        a_est=a0;
        b_est=b0;
        c_est=c0;
        %% 
        % step2: 迭代
        for it=1:n_iters %迭代次数
           if updateJ==1
               % 根据当前估计值,计算雅克比矩阵
               J=zeros(Ndata,Nparams);%数据的维度,系数的维度
               for i=1:length(data_1)
                   J(i,:)=[data_1(i).^b_est a_est*log(data_1(i))*data_1(i).^b_est 0];%雅克比矩阵的生成
                                                                                         % 对系数a和b求导
               end
               % 根据当前参数,得到函数值
               y_est =a_est*data_1.^b_est+c_est ;
               % 计算误差
               d=obs_1-y_est;
               % 计算(拟)海塞矩阵
               H=J'*J;
               % 若是第一次迭代,计算误差
               if it==1
                   e=dot(d,d);%向量点乘
               end
           end
           % 根据阻尼系数lamda混合得到H矩阵
           H_lm=H+(lamda*eye(Nparams,Nparams)); % J'*J+lamda*I
           % 计算步长dp,并根据步长计算新的可能的参数估计值
           dp=inv(H_lm)*(J'*d(:)); %deltp=[J'*J+lamda*I]^(-1)*(J'*εk)矩阵求逆
           g = J'*d(:);
           a_lm=a_est+dp(1);
           b_lm=b_est+dp(2);
           c_lm=c_est+dp(3);
           % 计算新的可能估计值对应的y和计算残差e
           y_est_lm = a_lm*data_1.^b_lm+c_lm;
           d_lm=obs_1-y_est_lm;
           e_lm=dot(d_lm,d_lm);
           % 根据误差,决定如何更新参数和阻尼系数
           if e_lm<e
               lamda=lamda/10;
               a_est=a_lm;
               b_est=b_lm;
               e=e_lm;
               disp(e);
               updateJ=1;
           else
               updateJ=0;
               lamda=lamda*10;
           end
        end
    

     

     二、nlinfit拟合

    clear;clc
    x=[36 39 45 48 53 61 73 97 108 121 140 152];
    y=[10000 7000 6500 5500 4500 3500 2000 300 750 1000 250 100];
    a0=[0 0 0];
    a=nlinfit(x,y,'gx',a0);
    s=30:0.01:160;
    plot(x,y,'*',x,gx(a,x),'--r')
    a=vpa(a,5)
    
    function q=gx(a,x)
    q=a(1)*x.^a(2)+a(3);
    end
    

     

     三、最小二乘法

    %最小二乘法
    function [a,b]=Least_sqr(data)%%
        x=1:length(data);
        y=data;
        s_xy=sum(x.*y);
        s_xx=sum(x.*x);
        s_sxy=sum(x)*sum(y)/length(x);
        s_sx=sum(x).*sum(x)/length(x);
        ave_x=sum(x)/length(x);
        ave_y=sum(y)/length(y);
        a=(s_xy-s_sxy)/(s_xx-s_sx);
        b=ave_y-a*ave_x;
    end
    

     

     四、对LM算法的介绍

    LM算法的实现并不算难,它的关键是用模型函数 f 对待估参数向量p在其邻域内做线性近似,忽略掉二阶以上的导数项,从而转化为线性最小二乘问题,它具有收敛速度快等优点。LM算法属于一种“信赖域法”——所谓的信赖域法,此处稍微解释一下:在最优化算法中,都是要求一个函数的极小值,每一步迭代中,都要求目标函数值是下降的,而信赖域法,顾名思义,就是从初始点开始,先假设一个可以信赖的最大位移s,然后在以当前点为中心,以s为半径的区域内,通过寻找目标函数的一个近似函数(二次的)的最优点,来求解得到真正的位移。在得到了位移之后,再计算目标函数值,如果其使目标函数值的下降满足了一定条件,那么就说明这个位移是可靠的,则继续按此规则迭代计算下去;如果其不能使目标函数值的下降满足一定的条件,则应减小信赖域的范围,再重新求解。

    事实上,你从所有可以找到的资料里看到的LM算法的说明,都可以找到类似于“如果目标函数值增大,则调整某系数再继续求解;如果目标函数值减小,则调整某系数再继续求解”的迭代过程,这种过程与上面所说的信赖域法是非常相似的,所以说LM算法是一种信赖域法。

     

    LM算法需要对每一个待估参数求偏导,所以,如果你的目标函数f非常复杂,或者待估参数相当地多,那么可能不适合使用LM算法,而可以选择Powell算法——Powell算法不需要求导。

     

    至于这个求导过程是如何实现的,我还不能给出建议,我使用过的方法是拿到函数的方程,然后手工计算出其偏导数方程,进而在函数中直接使用,这样做是最直接,求导误差也最小的方式。不过,在你不知道函数的形式之前,你当然就不能这样做了——例如,你提供给了用户在界面上输入数学函数式的机会,然后在程序中解析其输入的函数,再做后面的处理。在这种情况下,我猜是需要使用数值求导算法的,但我没有亲自试验过这样做的效率,因为一些优秀的求导算法——例如Ridders算法——在一次求导数值过程中,需要计算的函数值次数也会达到5次以上。这样的话,它当然要比手工求出导函数(只需计算一次,就可以得到导数值)效率要差得多了。不过,我个人估计(没有任何依据的,只是猜的):依赖于LM算法的高效,就算添加了一个数值求导的“拖油瓶”,整个最优化过程下来,它仍然会优于Powell等方法。

    关于偏导数的求取

    个人认为:在条件允许、对速度和精度任何以方面都有一定要求的前提下,如果待求解的函数形式是显式的,应当尽量自己计算目标函数的偏导数方程。原因在于,在使用数值法估计偏导数值时,尽管我们可以控制每一步偏导数值的精度,但是由于求解过程需要进行多次迭代,特别是收敛过程比较慢的求解过程,需要进行很多次的求解,每一次求解的误差偏差都会在上一步偏差的基础上不断累积。尽管在最后依然可以收敛,但是得到的解已经离可以接受的解偏离比较远了。因此,在求解函数形式比较简单、偏导数函数比较容易求取时,还是尽量手动计算偏导数,得到的结果误差相对更小一些。

     

    这篇解释信赖域算法的文章中,我们已经知道了LM算法的数学模型:

    可以证明,此模型可以通过解方程组(Gk+μI)s=−gk确定sk来表征。
    即:LM算法要确定一个μ≥0,使得Gk+μI正定,并解线性方程组(Gk+μI)sk=−gk求出sk。
    下面来看看LM算法的基本步骤:

    ·从初始点x0,μ0>0开始迭代

    ·到第k步时,计算xk和μk

    ·分解矩阵Gk+μkI,若不正定,令μk=4μk并重复到正定为止

    ·解线性方程组(Gk+μkI)sk=−gk求出sk并计算rk

    ·若rk<0.25,令μk+1=4μk;若rk>0.75,令μk+1=μk2;若0.25≤rk≤0.75,令μk+1=μk

    ·若rk≤0,说明函数值是向着上升而非下降的趋势变化了(与最优化的目标相反),这说明这一步走错了,而且错得“离谱”,此时,不应该走到下一点,而应“原地踏步”,即xk+1=xk,并且和上面rk<0.25的情况一样对μk进行处理。反之,在rk>0的情况下,都可以走到下一点,即xk+1=xk+sk

    ·        迭代的终止条件:∥gk∥<ε,其中ε是一个指定的小正数(大家可以想像一下二维平面上的寻优过程(函数图像类似于抛物线),当接近极小值点时,迭代点的梯度趋于0)

    从上面的步骤可见,LM求解过程中需要用到求解线性方程组的算法,一般我们使用高斯约当消元法,因为它非常稳定——虽然它不是最快最好的算法。
    同时,上面的算法步骤也包含对矩阵进行分解的子步骤。为什么要先分解矩阵,再解线性方程组?貌似是这样的(数学不好的人再次泪奔):不分解矩阵使之正定,就无法确定那个线性方程组是有解的。矩阵分解有很多算法,例如LU分解等,这方面我没有看。

    https://www.cnblogs.com/shhu1993/p/4878992.html 

    三,程序实现

    推导过程的博客 https://www.cnblogs.com/monoSLAM/p/5249339.html

    clear all
    % 计算函数f的雅克比矩阵,是解析式
    syms a b c x ;
    f=a*x.^b+c;%函数形式
    Jsym=jacobian(f,[a b c]);
    data=[1425204748.0, 1425204757.0, 1425204759.0, 1425204766.0,...
           1425204768.0, 1425206629.0, 1425209138.0, 1425209139.0,...
           1425209159.0, 1425209167.0, 1425219290.0, 1425219298.0,...
           1425219307.0, 1425219307.0, 1425219381.0, 1425219382.0,...
           1425219390.0,1425223403.0, 1425223411.0, 1425223420.0,...
           1425225096.0, 1425479571.0, 1425479580.0, 1427109036.0,...
           1427109038.0, 1427115143.0, 1427449736.0, 1427449755.0,...
           1427449763.0, 1427449774.0, 1427449775.0, 1427717884.0];
    data_1=1:length(data);
    obs_1=data;%y轴的值
    
    % 2. LM算法
    % 初始猜测s
    a0=1; b0=0;c0=data(1);  %设置初始值
    y_init = a0*data_1.^b0+c0;
    % 数据个数
    Ndata=length(obs_1);
    % 参数维数
    Nparams=3;
    % 迭代最大次数
    n_iters=200;
    % LM算法的阻尼系数初值
    lamda=0.01;
    % step1: 变量赋值
    updateJ=1
    a_est=a0;
    b_est=b0;
    c_est=c0;
    %% 
    % step2: 迭代
    for it=1:n_iters %迭代次数
        if updateJ==1
           % 根据当前估计值,计算雅克比矩阵
           J=zeros(Ndata,Nparams);%数据的维度,系数的维度
           for i=1:length(data_1)
               J(i,:)=[data_1(i).^b_est a_est*log(data_1(i))*data_1(i).^b_est 0];%雅克比矩阵的生成,32*3矩阵
                                                                                     % 对系数a、b、c求导
           end
           % 根据当前参数,得到函数值
           y_est =a_est*data_1.^b_est+c_est ;%32个预测值
           % 计算误差
           d=obs_1-y_est;
           % 计算(拟)海塞矩阵,是一个多元函数的二阶偏导数构成的方阵,描述了函数的局部曲率,对称矩阵
           H=J'*J;
           % 若是第一次迭代,计算误差
           if it==1
               e=dot(d,d);%向量点乘
           end
        end
        
       % 根据阻尼系数lamda混合得到H矩阵
       H_lm=H+(lamda*eye(Nparams,Nparams)); % J'*J+lamda*I
       % 计算步长dp,并根据步长计算新的可能的参数估计值
       dp=inv(H_lm)*(J'*d'); %deltp=[J'*J+lamda*I]^(-1)*(J'*εk)矩阵求逆
       g = J'*d(:);
       
       a_lm=a_est+dp(1);%新的系数值
       b_lm=b_est+dp(2);
       c_lm=c_est+dp(3);
       
       % 计算新的可能估计值对应的y和计算残差e
       y_est_lm = a_lm*data_1.^b_lm+c_lm;
       d_lm=obs_1-y_est_lm;
       e_lm=dot(d_lm,d_lm);
       
       % 根据误差,决定如何更新参数和阻尼系数
       if e_lm<e  %误差变小
           lamda=lamda/10;
           a_est=a_lm;
           b_est=b_lm;
           c_est=c_lm;
           e=e_lm;
           disp(e);
           updateJ=1;
       else
           updateJ=0;
           lamda=lamda*10;
       end
    end
    %% 
    %显示优化的结果
    a_est
    b_est
    c_est
    %从图形上观察拟合程度
    plot(data_1,obs_1,'*')
    hold on
    x=1:length(data);
    y=a_est*data_1.^b_est+c_est;
    plot(x,y,'o-')
    

      

  • 相关阅读:
    [转]如何从无到有建立推荐系统
    sql语句查询重复值
    推荐系统开发中十个关键点整理
    mongodb中的副本集搭建实践
    Unicode对象
    5W1H
    Python中实现switch分支结构
    数据结构-跳跃表
    redis入门笔记(3)
    redis入门笔记(2)
  • 原文地址:https://www.cnblogs.com/ruo-li-suo-yi/p/8619150.html
Copyright © 2011-2022 走看看