奚建峰 史柏迪 庄曙东,3 陈天翔 陈 威 (1.瓦卢瑞克天大(安徽)股份有限公司常州公司 常州 213033)(2.河海大学机电工程学院 常州 213022)(3.南京航空航天大学江苏省精密仪器重点实验室 南京 213009) 表面粗糙度直接决定零件的装配精度[1]与使用寿命[2~3],为加工中必须被约束的重要参数。在当前中国制造2025 的趋势之下对零件表面质量提出了更高的要求。传统试切法[4]、经验切法加工效率较低,且当切削参数配置不合理时极易造成零件粗糙度发散,导致资源浪费。 当前表面粗糙度预测模型以回归模型为主可以分为如下类型:线性回归模型、机器学习及深度学习模型。目前国内外已经有了诸多成果,Kong等[5]在其论文中提出了一种改进的统计学回归模型,通过对线性回归模型引入贝叶斯矩阵分解,在一定程度内提高了模型预测精确性; 本模型为降低模型误差上界,使用集成学习中Stacking[16]方法基于三折交叉验证原则依次训练PSO-SVM、Xgboost、KNN 模型(注:KNN 为惰性学习算法只需设置近邻个数(k)无需训练),并引入加权平均法通过平衡偏差来提高模型泛化性能力。 2.1 试验工况与数据预处理本模型使用U71Mn 高锰钢为测试材料,其具有较好的抗冲击与耐磨性能[17],被广泛运用于轨道交通项目。但当切削参数配置不合理时容易导致材料表面马氏体粗大,力学性能急速下降[18],为典型的难加工材料。使用M-V5CN 组合机床图1,4齿硬质合金平底立铣刀图2进行铣削加工。 为避免随机采样误差,该零件表面粗糙度由光电轮廓仪任选零件加工后表面三处均匀表面测量取均值获得。最终获取1000组试验样本,表1为部分试验数据。 表1 样本数据 表中,n相对f、ap、ae数据量波动较大,为避免数值波动对模型带来的影响,使用式(1)对试验样本金钟标准化处理。 式中,nor为标准化数据; 图1 样本划分 图中,Test 为实现预留的100 个测试集样本用于检测最终Stacking 集成模型。Set1、Set2、Set3 平分余下900 个样本,为最大化集成Stacking 模型泛化性能力,三折交叉验证下的3 种样本划分形式依次用于训练PSO-SVM、RF、KNN。 2.2 基于Xgboost检验Xgboost 算法通过在T轮迭代中集成回归树f优化每轮残差使模型逼近观测值。此外引入正则化项目Ω(f)约束回归树的深度及叶子节点分裂数目有效避免模型产生过拟合现象。Xgboost模型由目标函数与正则化项组成可表示为式(2): 式中,x=[n,f,ap,ae]; 式中,为在第t-1轮对样本i的输出预测值; 式中,Ij为叶子节点j所划分的样本集; 式中,g,h为基于式(5)求得样本i 的特征的梯度与偏置; 图2 输入特征权重 图中,x轴方向为各特征对表面粗糙度的F 检验得分; 图3 RF模型测试误差 RF 模型误差可稳定约束于0.08(μm),最终模型 决 定 系 数r(0.894),MAE(0.0374μm),errmax(0.076μm)。 3.1 GA-SVM基模型的建立SVM 通过核函数将低维不可分数据映射至高维空间寻求决策边界向量,具有良好的鲁棒性与泛化性。但因使用非线性高斯内核,无法解得模型全局最优超参数(gamma 系数γ与软间隔系数C),本模型使用遗传算法进行参数调优,设置种群数目N为100,迭代次数T为100。GA-SVM流程如下: 1)初始化参数。种群NP由N个二进制编码的个体pop={γ,C}组成。 2)迭代准备。基于NP参数建立SVM 模型,计算种群初始适应度y,记录最优适应度个体pb; 3)遗传进化。对种群NP基于精英策略进行选择(赌盘法)、交叉、变异,同时将满足精度的个体加入下轮循环,不满足精度的个体进行剔除。 4)迭代终止。当迭代次数达到上限T时,输出NP中最优个体,并基于此参数建立SVM模型。 最终迭代求解出SVM 模型参数gamma 为0.74,C为0.47,图4为GA寻优误差波动。 图4 GA参数寻优 图中,通过GA 迭代优化超参数在模型训练之前便显著降低模型均方误差。通过后续训练,最终模型测试集性能如表2。 表2 GA-SVM 3.2 KNN基模型的建立KNN 算法作为经典机器学习算法,仅有最近邻数目k一项超参数。其算法思想如下:基于特定算法在样本集中寻找与待测输入特征最相似的k个样本取其均值进行输出,除近邻查找外无需进行任何超参数调优。本模型使用欧几里得距离作为相似度评判标准,k值在区间[3,25]内设置步长为1 穷竭搜索法取得,表3 为筛选出的4 个最优备选解。 表3 备选最优k值 当k设置为9模型取得最小的errmax、MAE,且决定系数最大。下基于Stacking方法进行模型集成。 3.3 基于加权投票法的Stacking模型基于k折交叉验证原则已经依次训练了KNN、Xgboost、GA-SVM 模型。Stacking 集成思想[19]为:基于k折交叉验证划分k种样本组合来训练k个异质的模型作为一级学习器,将k个一级学习器的输入作为二级学习器,将二级学习器输出为预测输出。可由如下伪代码描述本Stacking模型流程。 伪代码算法流程: 其中,T为基学习器数目,t为其索引。m为样本数目,i为其索引。D,为基学习器(b1,…,bT)的输出(zi1,…,ziT)与样本真实标签y组成的向量,其值作为二级集成学习器b输入,ℎ′为其输出。 本Stacking 模型基学习器(b1,b2,b3) 依次为Xgboost、GA-SVM 和KNN 模型; 式中,w满足wt≥0 且。结合算法中二级学习器包含样本真实标签y,可得集成误差式(7): 当不考虑正则化系数w时式(7)使用拉格朗日乘子法可直接求解权重系数。但为避免因部分基学习器所占权重过大产生稀疏学习现象,对各项基学习器权重wt引入l1 正则化系数γ,可得最终Stacking模型优化目标式(8): 式中,待寻优参数为正则化系数γ与基学习器权重w; 式中,t为当前迭代次数; 表4 伪代码算法流程 表中,最终w依次对应GA-SVM、Xgboost、KNN 模型; 表5 模型对比 表中,Stacking 模型通过集成KNN、Xgboost、GA-SVM 模型,最终平均绝对误差显著降低,且有着最好的预测决定系数。但因KNN 近邻特性,且KNN 迭代权重数值解较小,最大误差依旧高于KNN,但对比Xgboost、GA-SVM 均有效降低。综上依旧可以表明Stacking模型集成有效性。 1)使用Xgboost 算法样本集特征增益分析表明,使用M-V5CN 铣削U71Mn 高锰钢表面粗糙度影响因素由大到小依次为主轴转速、铣削深度、每齿进给量、铣削宽度。 2)基于GA 算法可以有效优化SVM 初始超参数,在SVM训练之前便显著降低模型均方误差。 3)使用SGD 算法可以有效迭代求解Stacking模型加权投票法中各基模型权重。 4)基于加权投票法的Stacking 模型相对其基模型可以更加精确地预测零件表面粗糙度。 猜你喜欢正则粗糙度权重青藏高原高寒草甸的空气动力学粗糙度特征成都信息工程大学学报(2022年4期)2022-11-18J-正则模与J-正则环怀化学院学报(2021年5期)2021-12-01π-正则半群的全π-正则子半群格兰州理工大学学报(2021年3期)2021-07-05Virtually正则模兰州理工大学学报(2021年3期)2021-07-05权重常思“浮名轻”当代陕西(2020年17期)2020-10-28基于无人机影像的岩体结构面粗糙度获取甘肃科技(2020年20期)2020-04-13冷冲模磨削表面粗糙度的加工试验与应用模具制造(2019年4期)2019-06-24剩余有限Minimax可解群的4阶正则自同构数学年刊A辑(中文版)(2019年1期)2019-01-31为党督政勤履职 代民行权重担当人大建设(2018年5期)2018-08-16基于BP神经网络的面齿轮齿面粗糙度研究制造技术与机床(2017年12期)2017-02-02 |