基于机器学习的扬声器异音检测方法、系统及存储介质与流程

本发明涉及音频信号处理,尤其是指基于机器学习的扬声器异音检测方法、系统及存储介质。
背景技术:
1、随着智能手机、智能音箱、车载音响及家庭影院等电子设备的普及,扬声器市场需求激增,我国已成为扬声器生产和出口大国。面对市场对高品质音频体验的不断提升,扬声器生产企业面临着在扩大产量的同时,还需提升产品质量的挑战。然而,在扬声器制造过程中,常出现影响音质的结构和机械故障,这些故障直接影响用户体验。
2、当前,扬声器异音检测主要依赖传统方法,即通过专业听音员在隔音环境中以人耳判断扬声器声音是否正常。此方法存在显著弊端:一是高度依赖听音员的主观感受,易受年龄、健康状况及疲劳程度等个体因素影响,导致检测结果的主观性和不确定性;二是缺乏统一的评价标准,难以被自动化装置替代;三是对于大规模生产而言,不仅劳动成本高,且长时间重复性工作易导致人员疲劳和误判,增加了产品不合格风险。
3、因此,探索一种更加精准高效、客观且标准化的扬声器异音检测方法显得尤为迫切,以满足市场对高质量扬声器的需求,同时降低生产成本,提高生产效率。
技术实现思路
1、为解决上述技术问题,本发明提供了一种基于机器学习的扬声器异音检测方法,包括以下步骤:
2、s1:采集扬声器音频信号,对所述音频信号进行预处理,得到多视图数据集;
3、s2:对所述多视图数据集进行无监督特征选择,得到特征选择后的数据集;
4、s3:将所述特征选择后的数据集划分成训练集和测试集,通过所述训练集对分类器进行迭代训练,得到训练后的分类器;
5、s4:基于所述训练后的分类器对待测扬声器进行异音检测,得到检测结果。
6、在本发明的一个实施例中,在s1中,所述得到多视图数据集的方法如下:
7、s11:对所述音频信号x(t)进行归一化处理,将所述音频信号x(t)的幅度缩放至指定范围内,得到归一化后的音频信号x′(t):
8、
9、s12:对所述归一化后的音频信号进行预加重分帧加窗处理,得到多个加窗后的帧信号;
10、s13:对所述加窗后的帧信号进行短时傅里叶变换,得到音频信号的线性频谱x(k),取所述音频信号的线性频谱x(k)的模的平方,得到每帧的功率谱;其中,所述音频信号的线性频谱x(k)的计算公式如下:
11、
12、其中,k≤n-1,n表示加窗后的帧信号的总数量,j表示虚数单位,x(n)表示第n个加窗后的帧信号;
13、s14:基于所述音频信号的线性频谱x(k),通过mel滤波器组进行加权求和,将给定频率f转换成所对应的梅尔刻度频谱mel(f):
14、
15、s15:对所述梅尔刻度频谱mel(f)取对数,得到对数频谱,对所述对数频谱进行离散余弦变换,得到梅尔频率倒谱系数特征;对所述音频信号的线性频谱x(k)的模的平方除以帧长度,得到功率谱,对所述功率谱取平方,得到语谱图特征;
16、s16:对所述梅尔频率倒谱系数特征和所述语谱图特征进行均值归一化处理后组合,得到所述多视图数据集。
17、在本发明的一个实施例中,在s2中,所述得到特征选择后的数据集的方法如下:
18、s21:对于所述多视图数据集中的每个视图,计算数据点之间的相似度矩阵,将多个视图的相似度矩阵融合成一个相似度矩阵,在融合后的相似度矩阵上应用谱聚类算法,得到聚类结果,聚类结果将作为数据点的伪标签,以此为各个数据点分配伪标签,生成伪标签矩阵;
19、s22:基于所述伪标签矩阵,通过特征选择矩阵的l2,1稀疏正则化项构建特征选择损失函数,将所述伪标签矩阵的训练过程和所述特征选择矩阵的训练过程集成到同一学习框架中,构建无监督特征选择目标函数;
20、s23:以最小化所述无监督特征选择目标函数值为目标,求解所述无监督特征选择目标函数,得到伪标签矩阵和特征选择矩阵的最优解;
21、s24:基于所述特征选择矩阵的最优解,计算每个特征的重要值,即计算特征选择矩阵的每行的l2范数,并对每个特征重要值进行排序,选择前k个特征构成多视图特征子集,多个所述多视图特征子集组合得到所述特征选择后的数据集。
22、在本发明的一个实施例中,所述无监督特征选择目标函数floss包括伪标签学习的损失项loss1和特征选择矩阵学习的损失项loss2,其表达式如下:
23、
24、其中,α(v)均为可迭代权值参数,v为视图的索引号,v取1~v之间的整数,v为所述多视图数据集中每个样本的视图总数。
25、在本发明的一个实施例中,所述伪标签学习的损失项loss1基于非负约束条件下构造而成,其表达式为:
26、
27、其中,p(v)∈rn×c表示第v个视图的伪标签矩阵,v取1~v之间的整数,v为所述多视图数据集中每个样本的视图总数,i∈rc×c是单位矩阵,c是类别数,tr(·)为求取矩阵的迹的运算操作;l(v)表示拉普拉斯矩阵。
28、在本发明的一个实施例中,所述特征选择矩阵学习的损失项loss2的表达式为:
29、
30、其中,β(v)为可迭代权值参数,为第v个视图的音频数据集,dv表示第v个视图的维度,p(v)∈rn×c表示第v个视图的伪标签矩阵,n为所述多视图数据集的样本数,c是类别数,q(v)为第v个视图的特征选择矩阵,为求取f范数的平方的运算操作,||q(v)||2,1表示q(v)的l2,1范数,λ为预设参数。
31、在本发明的一个实施例中,所述得到伪标签矩阵和特征选择矩阵的最优解的方法如下:
32、由于所述特征选择矩阵学习的损失项loss2不可微,将所述特征选择矩阵学习的损失项loss2的表达式转化为以下等价表达式:
33、
34、其中,d(v)表示对角矩阵,第i个对角元素为表示对角矩阵d(v)的第i个样本;
35、固定p(v)、α(v)、β(v)的值,对所述等价表达式进行求导并将导数设为0,得到q(v)的求解公式:
36、
37、固定q(v)、α(v)、β(v)的值,将所述伪标签学习的损失项loss1转换为以下等价表达式:
38、
39、其中,ρ表示权重参数;
40、根据所述q(v)的求解公式,所述等价表达式(9)可以转换成如下表达式:
41、
42、其中,i表示单位矩阵;
43、公式(10)的拉格朗日函数为:
44、
45、其中,ψ(v)是拉格朗日乘子,根据卡鲁什-库恩-塔克条件,可得对公式(11)进行求导并将导数设为0,得到更新伪标签矩阵p(v)中第i行j列的元素的公式如下:
46、
47、固定p(v)、q(v)、β(v)的值,更新α(v)的公式为:
48、
49、固定p(v)、q(v)、α(v)的值,更新β(v)的公式为:
50、
51、以最小化所述无监督特征选择目标函数值为目标,不断调整伪标签矩阵和特征选择矩阵的元素,得到伪标签矩阵和特征选择矩阵的最优解。
52、在本发明的一个实施例中,在s3中,所述得到训练后的分类器的方法如下:
53、以线性支持向量机作为分类器的基本框架,其超平面使用分类函数为:
54、f(x)=ω·x+b (15)
55、其中,ω表示超平面的法向量,b为分类偏值,x为由所述特征选择后的数据集划分出的训练集;
56、引入拉格朗日乘子α对公式(15)中ω和b进行求解,定义拉格朗日函数为:
57、
58、其中,xi为所述特征选择后的数据集中第i个样本,i取1~n之间的整数,n为所述特征选择后的数据集中的样本总数;
59、固定拉格朗日乘子α的值,分别计算公式(16)对ω和b的偏导数,并将其结果置为0,可以得到以下公式:
60、
61、将公式(17)代入公式(16),化简后可得:
62、
63、将公式(18)转化成对偶问题,通过求解以下公式(19),得到αi的最优解:
64、
65、
66、基于所述αi的最优解,即可代入公式(16)依次求解,得到ω、b的最优解,根据αi、ω、b的最优解,最终得到一个最优的分类平面和分类函数。
67、基于同一发明构思,本发明还提供了一种基于机器学习的扬声器异音检测系统,用于所述的基于机器学习的扬声器异音检测方法,包括以下模块:
68、数据预处理模块,所述数据预处理模块用于采集扬声器音频信号,对所述音频信号进行预处理,得到多视图数据集;
69、特征选择模块,所述特征选择模块用于对所述多视图数据集进行无监督特征选择,得到特征选择后的数据集;
70、分类器训练模块,所述分类器训练模块用于将所述特征选择后的数据集划分成训练集和测试集,通过所述训练集对分类器进行迭代训练,得到训练后的分类器;
71、异音检测模块,所述异音检测模块用于基于所述训练后的分类器对待测扬声器进行异音检测,得到检测结果。
72、本发明还提供了一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述的基于机器学习的扬声器异音检测方法的步骤。
73、本发明的上述技术方案相比现有技术具有以下优点:
74、1、多视图数据处理:通过从音频信号中提取梅尔频率倒谱系数和语谱图等多种特征,形成多视图数据集,这种方法能够更全面地捕捉音频信号中的信息,提高异音检测的准确性和鲁棒性。多视图特征的结合有助于从不同角度解析音频信号,减少单一特征可能带来的信息缺失或误导。
75、2、无监督特征选择:将伪标签学习与特征选择融合在同一个学习框架中,采用无监督特征选择方法,能够在没有标签信息的情况下,自动选择对分类任务最有用的特征,旨在保留原始数据中的判别信息,剔除冗余以及信息含量低的特征,用于提高后续分类模型的性能以及训练速度。
76、3、高度自动化与低人工干预:整个检测流程高度自动化,从数据预处理、特征提取到分类器训练,大部分检测步骤都可以自动完成,减少了人工干预的需求,提高了检测效率和可靠性。
技术研发人员:王莲芝,金东方
技术所有人:苏州东原电子有限公司
备 注:该技术已申请专利,仅供学习研究,如用于商业用途,请联系技术所有人。
声 明 :此信息收集于网络,如果你是此专利的发明人不想本网站收录此信息请联系我们,我们会在第一时间删除
