一种不等长受限批次过程的鲁棒优化迭代学习控制方法

本发明涉及一种不等长受限批次过程的鲁棒优化迭代学习控制方法,属于迭代学习控制。
背景技术:
1、随着经济的发展和市场需求的快速变化,小批量、多品种的柔性工业生产方式和高附加值、精细化的产品越来越受到青睐,因而,批次(间歇)过程在工业生产中的地位日趋重要,这类过程在有限时间内,遵循一定的操作工序,并通过重复操作获得更多同种产品。批次过程已经被广泛应用于食品(发酵)、化工、制药、塑料加工等行业中。
2、迭代学习控制正是一种基于过程重复特性的控制算法,在批次过程广泛应用,能提高系统性能和产品质量。为了获得完美的跟踪性能,传统迭代学习控制要求系统每个批次的运行时长相同,这个限制条件保证了ilc算法能获取完整的历史信息用于提升/改善下一批次的控制性能,但是,在实际的应用中,由于安全、物理限制和环境变化等原因,系统批次时长会发生变化。例如,注塑成型过程通过不断注射、保压、冷却这三个操作工序将热塑料制造为塑料产品。从注射时段到保压时段的切换由喷嘴压力决定,当压力大于某个值,过程自动从注射时段切换到保压时段,会导致每批次的时长不相等。因此,研究不等长批次过程的迭代学习控制具有重要意义。
3、针对不等长批次过程的迭代学习控制问题,大多数采用传统结构的p型和平均算子迭代学习控制方法,这种固定结构的控制算法限制了收敛速度;另外,实际工业过程中,模型不确定和物理约束必然存在,因此,系统的鲁棒性能和约束处理能力还有待提高。
技术实现思路
1、本发明的目的在于公开一种利用修正的系统误差更新模型定义二次性能指标本技术提出一种利用修正的系统误差更新模型定义二次性能指标,同时采用线性矩阵不等式技术,将性能指标最小化问题转化为包含多个线性矩阵不等式约束的凸优化方法,并在每批次结束时得到优化迭代输入修正信号,进而提高系统收敛速度的不等长受限批次过程的鲁棒优化迭代学习控制方法
2、为实现上述目的,提供一种不等长受限批次过程的鲁棒优化迭代学习控制方法,包括以下步骤:
3、步骤1,在不等长批次过程控制系统中建立状态空间模型,
4、
5、其中,k为批次,代表该模型的第k次运行,t∈[0,nk]为采样时刻,nk是第k个批次的实际长度,xk(t)∈rn为该模型的状态,uk(t)∈r为该模型的输入,yk(t)∈r为该模型的输出,a,b,c为具有相应维数的模型矩阵,且cb≠0,x0是该模型的初始状态;
6、步骤2,将步骤1的状态空间模型转换为批次表示的提升模型,具体为:
7、基于步骤1中的状态空间模型,若每个批次长度都能达到期望批次长度n,则设定此时的状态空间模型的输出期望轨迹为yd(t),将其转换为批次表示的提升模型:
8、yk=guk+dk (2),
9、其中,
10、yk=[yk(1)yk(2)…yk(n)]t,为模型的输出;
11、uk=[uk(0)uk(1)…uk(n-1)]t,为模型的输入;
12、dk=[ca ca2 … can-1]tx0,为模型的扰动向量;
13、为提升过程矩阵;
14、定义误差提升向量为:
15、
16、实际批次长度nk∈[nm,n],nm为批次长度最小值,则存在τ=n-nm+1种批次长度,每种批次长度时间发生概率为p1,p2,…,pτ,若实际批次长度不足n时,需要将实际批次长度补到n,将每批次缺失的输出使用期望轨迹yd(t)补齐,修改后的误差提升向量表示为:
17、
18、其中,为一个随机矩阵;
19、接着,引入随机变量γk(t),表示第k批次t时刻模型是否有输出,γk(t)=1表示第k批次t时刻状态空间模型有输出数据,且假定此事件发生的概率为p(t);γk(t)=0表示第k批次t时刻状态空间模型没有输出数据,此事件发生的概率为1-p(t);p(t)通过批次长度的概率来表示为:
20、
21、进一步,计算随机矩阵mk的数学期望:
22、
23、得到状态空间模型的误差传递提升模型:
24、
25、其中,δuk+1=uk+1-uk,表示批次方向的输入增量;
26、步骤3,根据提升模型将饱和约束、批次方向的增量约束、时间方向的增量约束输入至提升模型中;
27、步骤4,确定并获得误差传递提升模型中存在的不确定模型;
28、步骤5,通过定义带有步骤3中约束条件的性能指标,并将误差传递提升模型代入性能指标中,得到优化迭代输入更新信号所需求解的优化问题;
29、步骤6,通过将步骤4中的不确定模型的解代入至步骤5中的优化问题中,得到含有线性矩阵不等式约束的最小化问题,求解该问题得到鲁棒优化迭代学习控制输入更新信号。
30、作为本发明的进一步改进,所述步骤3中:
31、根据提升模型对应输入约束条件包括:
32、输入饱和约束
33、umin≤uk+1≤umax (8),
34、其中,umax和umin分别是uk+1的上下界,
35、批次方向输入增量约束:
36、δumin≤δuk+1≤δumax (9),
37、其中,δumax和δumin分别是δuk+1的上下界,
38、时间方向输入增量约束:
39、δumin≤δuk+1≤δumax (10),
40、其中,δumax和δumin分别是δuk+1的上下界,δuk+1表示时间方向输入增量;
41、将输入饱和约束、批次方向输入增量约束和时间方向输入增量约束合并为统一的矩阵约束形式:
42、
43、其中,
44、作为本发明的进一步改进,所述步骤4中,
45、式2中的提升模型中的提升过程矩阵根据不确定参数向量θ变化,具体为:
46、g(θ)=g0+θ1g1+θ2g2+…+θpgp (12),
47、其中,θ=[θ1θ2θp]t是不确定参数向量,g0,g1,…,gp表示控制系统中的p个已知提升过程矩阵;
48、所述提升过程矩阵g(θ)中的不确定模型包括:多面体不确定模型,椭球不确定模型;
49、其中,当不确定参数向量为:
50、
51、此时,确定提升过程矩阵g(θ)不确定模型为多面体不确定模型;
52、当不确定参数向量为:
53、
54、此时,确定提升过程矩阵g(θ)不确定模型为椭球不确定模型;
55、其中,是椭球中心,矩阵w的上下界代表椭球的大小和方向。
56、作为本发明的进一步改进,所述步骤5中,根据步骤3中的约束条件定义如下二次性能指标:
57、
58、然后,定义如下含约束条件的最大-最小优化问题,q为误差加权矩阵,r为输入增量加权矩阵,
59、
60、接着,将误差传递模型代入上述性能指标,得到优化问题式
61、
62、通过求解该式的优化问题,从而得到优化的迭代输入更新信号δuk+1。
63、作为本发明的进一步改进,所述步骤6中,将步骤4的不确定性集合代入至步骤5所需求解的优化问题中具体为:
64、针对多面体不确定性模型θa的优化问题,利用三角不等式,具体为
65、
66、因此,该优化问题改写为:
67、
68、利用schur补引理,得到如下含有线性矩阵不等式约束的最小化问题:
69、
70、通过求解该式的最小化问题,得到多面体不确定性约束下的鲁棒优化迭代学习控制输入更新信号δuk+1;
71、针对椭球不确定性模型θb的优化问题中,具体为:
72、
73、其中,g(δuk+1)=-q1/2[g1g2gp]δuk+1,h(δuk+1)=r1/2δuk+1,
74、此时,需要求解的优化问题为:
75、
76、进一步利用schur补引理和s-procedure引理,得到如下含有线性矩阵不等式约束的最小化问题:
77、
78、最后,求解该式的最小化问题,得到椭球不确定性约束下的鲁棒优化迭代学习控制输入更新信号δuk+1。
79、与现有技术相比,本发明的有益效果是:
80、(1)优化迭代学习控制方法作为一种无固定结构的控制算法,结合以前批次的信息和系统不确定模型的知识,能在每一批次结束后得到迭代控制输入的优化修正信息,可以有效提高系统收敛速度和约束处理能力。
81、(2)该方法通过结合输入约束和不确定模型的描述,能够保证了本方法的具有足够的鲁棒性能和约束处理能力。
技术研发人员:丁健,沈宇扬,李元哲,叶茜
技术所有人:无锡职业技术学院
备 注:该技术已申请专利,仅供学习研究,如用于商业用途,请联系技术所有人。
声 明 :此信息收集于网络,如果你是此专利的发明人不想本网站收录此信息请联系我们,我们会在第一时间删除
