2. 郑州大学化工学院, 郑州 450000;
3. 安徽大学化学化工学院, 合肥 230601
2. School of Chemical Engineering and Technology, Zhengzhou University, Zhengzhou 450000, China;
3. College of Chemistry & Chemical Engineering, Anhui University, Hefei 230601, China
高剪切混合器作为一种新型的过程强化装备,已广泛应用于化工、食品、制药以及农业领域。高剪切混合器核心部件为定转子,不同的生产过程与操作工况需要采用不同定转子构型及组合方式,这导致高剪切混合器的定转子结构及组合形式复杂多样[1]。高剪切混合器的结构参数、操作参数与物性参数对其流动、功耗、乳化和传质特性的影响错综复杂,至今仍未形成对上述特性清晰而系统的认识。目前,高剪切混合器的设计、选型、工业放大和操作参数调控仍然主要依赖于工程经验和反复实验,这导致其存在开发与使用成本偏高,放大困难等问题[2]。因此,急需建立高剪切混合器设计与优化模型。
近些年来,机器学习飞速发展,机器学习建模方法越来越多地应用于模型预测及系统优化。例如,在微波固化材料技术中,由于微波腔内不均匀的电磁场导致物体表面温度不均匀,严重阻碍了固化材料技术的发展;Zhou等利用机器学习卷积神经网络(Neural Network, NN)实现了温度智能控制,使表面温度的均匀性有了明显地提高,解决了温度不均匀的痛点,满足了航空航天材料的高质量要求[3]。Wu等利用机器学习的迁移学习方法,让计算机从高分子数据库中学习已有数据建立模型,并用实验数据微调机器学习模型,极大改善了因实验数据太少不能使用机器学习的缺点,设计了新型高导热聚酰亚胺,其导热系数比传统的提高了80%[4]。由于神经网络容易陷入局部极值,孙永利等使用机器学习神经网络和遗传算法结合的方法改善了神经网络容易陷入局部极值的缺点,精确预测了螺旋折流板换热器的壳程换热系数和压降[5]。李文鹏等使用反向传播神经网络机器学习算法对管线式高剪切反应器建模,减少了实验次数,获得了反应器的最优结构[6]。
可见基于人工智能和机器学习的建模和优化技术在化工方向发挥越来越重要的作用。然而高剪切混合器设计仅使用了一种机器学习算法,还有多种算法未尝试。因此本工作采用多种机器学习算法对叶片-网孔管线式高剪切混合器的结构参数、操作参数和物性参数对其功耗、液液传质和乳化性能进行建模,以期为叶片-网孔管线式高剪切混合器的设计与优化提供工具。从而减少实验次数,获得高剪切反应器的最优结构,降低成本,缩短开发周期。
1 机器学习算法 1.1 反向传播神经网络算法反向传播(Back Propagation,BP)神经网络方法,在神经元足够多的情况下,可以在任意精度的情况下,逼近非线性的映射关系[7]。
BP神经网络是多层的神经网络,含有输入层、隐含层和输出层。前面1层神经元与后1层神经元各个相连接,但是本层神经元互不相连。调整权重和阈值,使用梯度下降法的策略,使预测值与实际值的误差最小。
1.2 循环神经网络算法循环神经网络(Recurrent Neural Network,RNN)是一种深度学习神经网络[8]。在神经网络中加入反馈连接层,能够对过去的数据留下印象并且建立不同时间段数据的关系。可认为是同一单元重复构成的链式结构网络,其输出不仅受当前数据的影响而且受以前所有数据的影响。伴随着时间和神经元数量增加,RNN往往会出现梯度消失和爆炸的现象。
长短时记忆(Long Short Term Memory,LSTM)神经网络也是一种神经网络,它是RNN的一种改进模型[9]。LSTM利用记忆模块代替普通的神经元,一个记忆模块由输入门、遗忘门和输出门构成。由于遗忘门的存在,LSTM可以忘记一些不重要的信息,有效防止梯度的消失和爆炸。
门控循环单元(Gated Recurrent Unit,GRU)神经网络是LSTM的改进版本[10]。GRU比LSTM少一个门控单元,优化了LSTM内部结构,由于参数的减少,从而大幅提高了训练速度。
1.3 基于树的机器学习算法决策树(Decision Tree, DT)作为一种机器学习方法,可以进行数据分类和回归[11]。使用一个基于树的模型,以香农熵的大小为划分依据。因为它的方法非常简单、但却有非常明确的物理含义,可以轻松的变成“如果-那么”的规则,能够生成具有可解释的类似于流程图的树状结构的准确预测模型,从而使用户能够快速提取有用的信息。
极端随机树(Extremely Randomized Trees, ET)由Pierre Geurts等于2006年提出[12]。通过对多个决策树进行打分,根据各个决策树预测值的平均值来预测。
极端梯度提升(Extreme Gradient Boosting, XGBOOST)由陈天齐博士提出[13]。内部是决策回归树,能处理大量的数据,自定义损失函数。采用弱分类器迭代计算,从而提高预测精确性。
梯度提升回归树(Gradient Boosting Regressor, GBR)每次迭代生成一个弱学习器用于拟合损失函数以前累积模型的梯度,之后将弱学习器加入累积模型,从而逐渐降低模型的损失[14]。
2 实验 2.1 PyCaret程序PyCaret是一个开源的程序,它对计算硬件资源的要求不是很高,8 GB的运行内存就可以运行[15];操作系统为Windows 10,程序语言为Python,在Jupyter Notebook软件下运行。PyCaret程序十分方便机器学习初学者使用。
PyCaret具有简洁的、可以方便设置的程序界面,内置25种不同的机器学习算法,仅仅用几行代码就可以完成从数据预处理到实现模型部署的整个流程。它包含了如今很多流行的机器学习算法,如:决策树算法、随机森林算法、支持向量机算法和最近邻算法等。PyCaret可以进行有监督和无监督模型的训练,能够实现分类、回归、异常检测、聚类、自然语言处理和关联规则挖掘6大类功能。
2.2 数据预处理除PyCaret以外,本研究所有机器学习模型的输入数据均采用归一化的方法[式(1)],将输入数据变为-1~1的值,将有量纲的数据变为无量纲的数据,变成纯量数据后,更有利于机器学习的训练。输出数据采用对数的方法[式(2)]平滑输出数据,使其更符合高斯分布,也更方便机器学习的训练。最后使用式(3)将式(2)的输出数据变为最终的拟合数据。
$ x_{\max\min }=\frac{2\left(x_{\mathrm{in}}-x_{\min }\right)}{x_{\max }-x_{\min }}-1 $ | (1) |
式(1)中:xmax为每个特征的最大值,xmin为每个特征的最小值。
$ y_{\text {mid }}=\ln \left(y_{\text {in }}+1\right) $ | (2) |
$ y_{\text {out }}=e^{y_{\text {mid }}}-1 $ | (3) |
流体净功耗数据来自程芹和秦宏云的实验,共有141组数据[16, 17]。输入参数为转子叶片弯曲角度、定转子剪切间隙、转子叶片个数、转子转速、流体流量、流体密度、连续相黏度、分散相黏度、外层直径和层数,输出参数为Pfluid,总计10个输入变量,1个输出变量。表 1为部分流体净功耗数据。
角度/ (°) | 间隙/ m | 叶片/ 个 | 转速/ (r·min-1) | 流量/ (m3·h-1) | 密度/ (kg·m3) | 连续相黏度/ (mPa·s) | 分散相黏度/ (mPa·s) | 转子外径/ m | 层数/ 层 | Pfluid/ W |
-15 | 0.000 5 | 9 | 1 000 | 0.202 0 | 998 | 1.2 | 1.5 | 0.060 | 2 | 6.06 |
15 | 0.000 5 | 6 | 1 000 | 0.202 0 | 998 | 1.2 | 1.5 | 0.060 | 2 | 6.61 |
-15 | 0.000 5 | 6 | 1 000 | 0.202 0 | 998 | 1.2 | 1.5 | 0.075 | 3 | 10.32 |
-15 | 0.000 5 | 6 | 2 000 | 0.202 0 | 998 | 1.2 | 1.5 | 0.075 | 3 | 25.79 |
-15 | 0.000 5 | 6 | 3 000 | 0.202 0 | 998 | 1.2 | 1.5 | 0.075 | 3 | 36.36 |
0 | 0.000 5 | 6 | 3 000 | 0.202 0 | 998 | 1.2 | 1.5 | 0.060 | 2 | 37.50 |
-15 | 0.000 5 | 6 | 1 000 | 0.173 1 | 1 204 | 33.7 | 0 | 0.060 | 2 | 51.33 |
-15 | 0.000 5 | 6 | 1 500 | 0.056 4 | 1 243 | 260.0 | 0 | 0.060 | 2 | 160.54 |
-15 | 0.000 5 | 6 | 2 000 | 0.312 3 | 1 241 | 212.5 | 0 | 0.060 | 2 | 218.71 |
-15 | 0.004 0 | 6 | 3 000 | 0.202 0 | 998 | 1.2 | 1.5 | 0.060 | 2 | 30.78 |
液液总体积传质系数KLa数据来自秦宏云的实验,共有35组数据[17]。输入参数为定转子剪切间隙、层数、转子叶片个数、转子叶片弯曲角度、转子转速,输出参数为KLa,总计5个输入变量,1个输出变量。表 2为部分液液KLa数据。
间隙/ m | 层数/ 层 | 叶片/ 个 | 转速/ (r·min-1) | 角度/ (°) | KLa/ s-1 |
0.004 0 | 2 | 6 | 100 0 | -15 | 0.044 0 |
0.000 5 | 2 | 6 | 200 0 | 0 | 0.081 6 |
0.000 5 | 3 | 6 | 500 | -15 | 0.040 3 |
0.004 0 | 2 | 6 | 500 | -15 | 0.025 8 |
0.004 0 | 2 | 6 | 200 0 | -15 | 0.075 8 |
0.000 5 | 2 | 3 | 500 | -15 | 0.024 2 |
0.000 5 | 2 | 9 | 500 | -15 | 0.025 7 |
0.000 5 | 2 | 6 | 0 | 15 | 0.009 5 |
0.000 5 | 2 | 6 | 100 0 | -15 | 0.048 6 |
0.000 5 | 2 | 6 | 200 0 | 15 | 0.076 1 |
乳化液滴的d32数据来自秦宏云的实验,共有28组数据[17]。输入参数为定转子剪切间隙、层数、转子叶片个数、转子转速、转子叶片弯曲角度,输出参数为液滴的d32[17]。总计5个输入变量,1个输出变量。表 3为部分液液乳化液滴d32数据。
间隙/ m | 层数/ 层 | 叶片/ 个 | 转速/ (r·min-1) | 角度/ (°) | 液滴d32/ μm |
0.000 5 | 2 | 9 | 300 0 | -15 | 10.56 |
0.000 5 | 2 | 6 | 250 0 | 0 | 16.41 |
0.000 5 | 3 | 6 | 300 0 | -15 | 10.34 |
0.004 0 | 2 | 6 | 200 0 | -15 | 23.38 |
0.000 5 | 2 | 6 | 300 0 | -15 | 13.79 |
0.000 5 | 2 | 6 | 350 0 | -15 | 9.53 |
0.004 0 | 2 | 6 | 350 0 | -15 | 12.77 |
0.000 5 | 2 | 6 | 250 0 | -15 | 16.78 |
0.000 5 | 3 | 6 | 350 0 | -15 | 8.16 |
0.000 5 | 2 | 6 | 300 0 | 15 | 12.18 |
GRU-BP神经网络是在算法层面对2个网络的结合。将GRU层的输出作为BP神经网络的输入层,接着是BPNN的隐含层,最后是输出层。
$ y=\frac{1}{1+\mathrm{e}^{-x}} $ | (4) |
$ z_{\mathrm{t}}=\sigma\left(W_{\mathrm{x}} x_{\mathrm{t}}+U_{\mathrm{z}} h_{\mathrm{t}-1}\right) $ | (5) |
$ r_{\mathrm{t}}=\sigma\left(W_{\mathrm{r}} x_{\mathrm{t}}+U_{\mathrm{r}} h_{\mathrm{t}-1}\right) $ | (6) |
$ \tilde{h}_{\mathrm{t}}=\tan h\left(W_{\mathrm{h}} x_{\mathrm{t}}+r_{\mathrm{t}} U_{\mathrm{h}} h_{\mathrm{t}-1}\right) $ | (7) |
$ h_{\mathrm{t}}=z_{\mathrm{t}} h_{\mathrm{t}-1}+\left(1-z_{\mathrm{t}}\right) \tilde{h}_{\mathrm{t}} $ | (8) |
图 1是GRU单元内部结构,式(4)是sigmoid激活函数。式(5)中zt为更新门,σ为sigmoid激活函数,xt表示t时刻输入,ht-1表示上一隐藏节点输出;式(6)中rt为重置门;式(7)中
将叶片-网孔管线式高剪切混合器流体净功耗的141组数据中的119组数据为训练集,22组数据为测试集。训练时使用式(2)和式(3)对输出数据进行数据变换。使用GRU-BP模型Adam算法训练数据,得到输入层10个神经元,1层深度为2的GRU单元后接3个神经元的全连接层,全连接层使用sigmoid函数激活,输出层为1个神经元的GRU-BP模型(图 2)。式(9)~式(11)为评价模型平均绝对误差(MAE)、平均相对误差(MRE)和决定系数(R2)。模型训练后的MAE、MRE、R2如表 4所示。图 3为GRU-BP模型预测值与实验值的对比,最大相对误差为24.94%。
$ {\rm{MAE}} = \frac{1}{M}\sum\limits_{e = 1}^M {\left| {{Y_{{\rm{sim}}, e}} - {Y_{{\rm{rea}}, {\rm{e}}}}} \right|} $ | (9) |
$ {\rm{MRE}} = \frac{{100\% }}{{M \cdot {Y_{{\rm{rea}}, {\rm{e}}}}}}\sum\limits_{e = 1}^M {\left| {{Y_{{\rm{sim}}, {\rm{e}}}} - {Y_{{\rm{rea}}, {\rm{e}}}}} \right|} $ | (10) |
$ {R^2} = 1 - \frac{{\sum\nolimits_1^M {{{\left( {{Y_{{\rm{sim}}, {\rm{e}}}} - {Y_{{\rm{rea}}, {\rm{e}}}}} \right)}^2}} }}{{\sum\nolimits_1^M {{{\left( {{Y_{rea, {\rm{e}}}} - {Y_{{\rm{rea}}}}} \right)}^2}} }} $ | (11) |
式(9)~式(11)中:Ysim为预测值,Yrea为实验值。
3.1.2 流体净功耗树模型使用PyCaret程序默认设置对流体净功耗数据进行拟合,在141组数据中119组数据为训练集,22组数据为测试集。输入数据和输出数据均不作任何数据变换。在PyCaret程序创建的25种常用的机器学习模型中,选出MAE较小的3个模型,按照MAE从小到大排列与GRU-BP模型比较,模型的MAE、MRE和R2如表 5所示。从表 5可以看到,经过PyCaret优化的ET模型不仅其MRE为1.48%小于GRU-BP模型的2.96%,而且其MAE为1.111 9也小于GRU-BP模型的2.375 8。由此可见,自动机器学习模型对于仅有少数机器学习背景的科研人员和工程师还是非常有用的,可以用于大数据量的建模与预测。
模型简称 | MAE | MRE/% | R2 |
ET | 1.111 9 | 1.48 | 0.998 7 |
GBR | 1.143 1 | 4.99 | 0.998 7 |
XGBOOST | 2.324 1 | 1.65 | 0.998 6 |
GRU-BP | 2.375 8 | 2.96 | 0.998 7 |
将叶片-网孔管线式高剪切混合器的液液总体积传质系数KLa共计35组数据,分为28组训练数据和7组测试数据;使用BP算法,激活函数为sigmoid函数,在输入层、隐含层和输出层之间进行数据传输。最终得到了输入层5个神经元、隐含层3个神经元、输出层1个神经元的5-3-1网络结构的BP1模型。模型训练后的MAE、MRE、R2如表 6所示,模型在所有数据集上的最大相对误差为19.74%。
数据集 | MAE | MRE/% | R2 |
BP1训练集 | 0.002 4 | 6.34 | 0.982 6 |
BP1测试集 | 0.003 5 | 7.18 | 0.971 0 |
RNN1训练集 | 0.002 8 | 6.40 | 0.980 1 |
RNN1测试集 | 0.003 9 | 9.94 | 0.978 3 |
使用和BP1模型同样的训练集和测试集,采用RNN模型Adam算法训练数据,得到输入层5个神经元,1层RNN单元,RNN单元的深度为3,输出层1个神经元的RNN1模型。模型训练后的MAE、MRE、R2如表 6所示,模型在所有数据集上的最大相对误差为19.70%。
使用模型融合方法,将不同模型的输出乘以权重值加和后作为融合模型的输出,可以减轻神经网络容易过拟合,泛化能力差的问题。不同融合模型的预测精度如图 4所示。图 4中除BP1、RNN1外,其余模型名称的命名规则与MK55相同;MK55中的M是Model的简写,K是KLa的简写,第1个5表示BP1模型的权重为0.5、第2个5表示RNN1模型的权重为0.5。从图 4中可以看出,MK55模型有最小的平均相对误差,其平均相对误差为6.36%;因此,选取MK55作为叶片-网孔管线式高剪切混合器KLa的最终预测模型[式(12)]。图 5为MK55模型预测不同结构参数和操作参数对KLa的影响,图 5中的圆球形表示的是实验数据。由图 5知,KLa随着转子叶片个数先增大后减小;随着转子叶片弯曲角度增大而减小;低转速下,层数增加,KLa增加。改变高剪切混合器的结构参数和操作参数,可以形成107 632个组合,在此范围内利用MK55模型进行参数寻优,发现:定转子剪切间隙为0.000 5 m、转子层数为2层、转子有6个叶片、转子叶片弯曲角度为-15°、转子转速为3 000 r·min-1时,可以获得最高的KLa值;此条件下,经GRU-BP模型预测的流体净功耗为35.02 W。
$ {\rm{MK55 = 0}}{\rm{.5}} \times {\rm{B}}{{\rm{P}}_1} + 0.5 \times {\rm{RN}}{{\rm{N}}_1} $ | (12) |
使用PyCaret程序默认设置对总体积传质系数35组数据进行拟合,在35组数据中28组数据为训练集,7组数据为测试集。输入数据和输出数据均不作任何数据变换。在PyCaret程序创建的25种常用的机器学习模型中,选取2个MAE较小的模型与MK55模型比较,模型的MAE、MRE和R2如表 7所示。表 7的DT模型和ET模型对高剪切混合器性能的拟合均优于MK55模型。
模型简称 | MAE | MRE/% | R2 |
DT | 0.000 590 | 1.58 | 0.996 3 |
ET | 0.000 757 | 1.83 | 0.992 1 |
MK55 | 0.002 739 | 6.36 | 0.980 1 |
图 6是表 7决策树模型DT估算不同剪切间隙和转速时KLa值的变化情况。通过图 5与图 6比较,MK55模型输出值是平滑的,决策树模型输出值是阶跃的。因此,虽然决策树的MRE和MAE都优于MK55模型,但在数据量较小的情况下,决策树模型由于其输出不能平滑变化,不能对高剪切混合器进行较好地优化。
3.3 乳化液滴d32模型将叶片-网孔管线式高剪切混合器的乳化液滴d32共计28组数据分为23组训练数据和5组测试数据,使用BP模型Adam算法训练数据,得到5-2-1网络结构的BP2模型。模型训练后的MAE、MRE、R2如表 8所示,模型在所有数据集上的最大相对误差为10.34%。
数据集 | MAE | MRE/% | R2 |
BP2训练集 | 0.289 2 | 1.98 | 0.992 7 |
BP2测试集 | 0.699 9 | 5.53 | 0.980 3 |
RNN2训练集 | 0.663 3 | 4.42 | 0.963 5 |
RNN2测试集 | 0.569 7 | 4.56 | 0.985 4 |
使用和BP2模型同样的训练集和测试集,使用RNN模型Adam算法训练数据,得到输入层5个神经元,1层RNN单元,RNN单元的深度为1,输出层1个神经元的RNN2模型。模型训练后的MAE、MRE、R2如表 8所示,模型在所有数据集上的最大相对误差为12.10%。
图 7是不同乳化液滴d32模型的比较,除BP2、RNN2外,其余模型的命名规则与MD91相同;MD91模型名称的命名规则为:M代表Model、D代表d32,9表示BP2模型的权重为0.9,1表示RNN2模型的权重为0.1。
从图 7中可以看出,各个模型MRE变化相对于其最大相对误差变化比较小,MD91模型有最小的平均相对误差,其平均相对误差为2.69%;因此,选取MD91作为乳化液滴d32的最终预测模型(式13)。改变高剪切混合器的结构参数和操作参数,可以形成55 552个组合,在此范围内利用MD91模型进行参数寻优,发现:定转子剪切间隙为0.000 5 m,转子层数为3层,转子有9个叶片,转子叶片弯曲角度为15°,在转速3 500 r·min-1下,可以获得最小的d32。在此条件下,经GRU-BP模型预测的流体净功耗为57.26 W。
$ {\rm{MD}}91 = 0.9 \times {\rm{B}}{{\rm{P}}_2} + 0.1 \times {\rm{RN}}{{\rm{N}}_2} $ | (13) |
1) BPNN、RNN、GRU-BP算法可以准确预测高剪切混合器的功耗、液液传质和乳化性能,通过对不同机器学习模型进行融合,可以使预测模型的最大相对误差继续下降,模型精度进一步提升。经过模型融合液液KLa模型最大相对误差由19.74%下降至19.53%,平均相对误差由7.11%下降至6.36%。乳化液滴d32模型最大相对误差由12.10%下降至10.00%,平均相对误差由4.44%下降至2.69%。从而为高剪切混合器的结构与操作参数设计提供工具。
2) 为了获得最适宜的液液传质和乳化性能,利用机器学习模型对高剪切混合器的操作与结构参数进行了优化设计。最适宜参数组合为:定转子剪切间隙为0.000 5 m,转子层数为2层,转子叶片数为6个,转子叶片弯曲角度为-15°,转子转速为3 000 r·min-1时,可以获得最高的KLa值;定转子剪切间隙为0.000 5 m,转子层数为3层,转子叶片数为9个,转子叶片弯曲角度为15°,转子转速为3 500 r·min-1时,可以获得最小的乳化液滴d32。
3) 基于自动机器学习的PyCaret程序能够准确拟合数据,但在数据量较小的情况下,其优化能力较差。
[1] |
ZHANG J, XU S, LI W. High shear mixers: A review of typical applications and studies on power draw, flow pattern, energy dissipation and transfer properties[J]. Chemical Engineering and Processing: Process Intensification, 2012, 57/58: 25-41. DOI:10.1016/j.cep.2012.04.004 |
[2] |
QIN H, ZHANG C, XU Q, et al. Geometrical improvement of inline high shear mixers to intensify micromixing performance[J]. Chemical Engineering Journal, 2017, 319: 307-320. DOI:10.1016/j.cej.2017.02.150 |
[3] |
ZHOU J, LI Y, LI D, et al. Online learning based intelligent temperature control during polymer composites microwave curing process[J]. Chemical Engineering Journal, 2019, 370: 455-465. DOI:10.1016/j.cej.2019.03.204 |
[4] |
WU S, KONDO Y, KAKIMOTO M A, et al. Machine-learning-assisted discovery of polymers with high thermal conductivity using a molecular design algorithm[J]. Npj Computational Materials, 2019. DOI:10.1038/s41524-019-0203-2 |
[5] |
孙永利, 王华金, 郝丽, 等. 基于神经网络和遗传算法的螺旋折流板换热器性能预测[J]. 化学工业与工程, 2016, 33(4): 49-55. SUN Yongli, WANG Huajin, HAO Li, et al. Performance prediction of shell-and-tube heat exchangers with helical baffles using multilayer perception neural networks optimized with genetic algorithm[J]. Chemical Industry and Engineering, 2016, 33(4): 49-55. (in Chinese) |
[6] |
LI W, XIA F, ZHAO S, et al. Mixing performance of an inline high-shear mixer with a novel pore-array liquid distributor[J]. Industrial & Engineering Chemistry Research, 2019, 58(44): 20213-20225. |
[7] |
REN C, AN N, WANG J, et al. Optimal parameters selection for BP neural network based on particle swarm optimization: A case study of wind speed forecasting[J]. Knowledge-Based Systems, 2014, 56: 226-239. DOI:10.1016/j.knosys.2013.11.015 |
[8] |
SONG J, GUO Y, GAO L, et al. From deterministic to generative: Multimodal stochastic RNNs for video captioning[J]. IEEE Transactions on Neural Networks and Learning Systems, 2019, 30(10): 3047-3058. DOI:10.1109/TNNLS.2018.2851077 |
[9] |
YUAN X, LI L, WANG Y. Nonlinear dynamic soft sensor modeling with supervised long short-term memory network[J]. IEEE Transactions on Industrial Informatics, 2020, 16(5): 3168-3176. DOI:10.1109/TII.2019.2902129 |
[10] |
CHE Z, PURUSHOTHAM S, CHO K, et al. Recurrent neural networks for multivariate time series with missing values[J]. Scientific Reports, 2018. DOI:10.1038/s41598-018-24271-9 |
[11] |
YU Z, HAGHIGHAT F, FUNG B C M, et al. A decision tree method for building energy demand modeling[J]. Energy and Buildings, 2010, 42(10): 1637-1646. DOI:10.1016/j.enbuild.2010.04.006 |
[12] |
GEURTS P, ERNST D, WEHENKEL L. Extremely randomized trees[J]. Machine Learning, 2006, 63(1): 3-42. DOI:10.1007/s10994-006-6226-1 |
[13] |
CHEN T, GUESTRIN C. XGBoost: A scalable tree boosting system[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York, USA: ACM, 2016
|
[14] |
FRIEDMAN J H. Stochastic gradient boosting[J]. Computational Statistics & Data Analysis, 2002, 38(4): 367-378. |
[15] |
PyCaret. org. PyCaret[EB/OL]. https://pycaret.org/about. PyCaret version 1.0.0, 2020-04-30
|
[16] |
CHENG Q, XU S, SHI J, et al. Pump capacity and power consumption of two commercial in-line high shear mixers[J]. Industrial & Engineering Chemistry Research, 2013, 52(1): 525-537. |
[17] |
秦宏云. 管线型高剪切混合器的几何构型优化[D]. 天津: 天津大学, 2018
|