(19)国家知识产权局
(12)发明 专利申请
(10)申请公布号
(43)申请公布日
(21)申请 号 202211189803.7
(22)申请日 2022.09.28
(71)申请人 广西大学
地址 530005 广西壮 族自治区南宁市西乡
塘区大学东路10 0号
(72)发明人 殷林飞 赵明珊 胡立坤
(74)专利代理 机构 南宁东智知识产权代理事务
所(特殊普通 合伙) 45117
专利代理师 裴康明
(51)Int.Cl.
G06Q 10/04(2012.01)
G06Q 50/06(2012.01)
G06F 16/215(2019.01)
G06N 3/04(2006.01)
G06N 3/08(2006.01)
(54)发明名称
一种卷积注意力融合置信域强化迁移的风
电出力预测方法
(57)摘要
本发明提出一种卷积注意力融合置信域强
化迁移的风电出力预测方法, 该卷积注意力融合
置信域强化迁移的风电出力预测方法的步骤为:
首先, 进行数据预处理, 将数据集分割为数据集1
和数据集2; 其次, 使用数据集1训练基于缩放注
意力机制和Inception模块的记忆卷积网络, 并
使用置信域策略优化方法对网络参数进行调优;
最后, 基于迁移操作, 使用已训练完成的基于缩
放注意力机制和Inc eption模块的记忆卷积网络
根据数据集2对风电场出力进行预测。 所述卷积
注意力融合置信域强化迁移的风电出力预测方
法能够完成对风电场出力数据的精确预测, 提高
能源利用率, 减少碳 排放。
权利要求书3页 说明书5页 附图3页
CN 115526399 A
2022.12.27
CN 115526399 A
1.一种卷积注意力融合置信域强化迁移的风电出力预测方法, 其特征在于, 将强化学
习、 迁移学习和基于注意力机制的卷积网络进行结合, 用于风电场出力的预测, 所述方法具
备根据实时数据的变化对超参数进行调整的能力, 能够提高模型的泛用性以及 对风电场出
力预测结果的准确性, 有利于对风电场出力进行更精准的规划, 提高风能利用率, 以便节约
能源, 减少碳 排放; 在使用过程中的步骤为:
步骤(1): 输入风电场原始数据, 包括风电场的原始出力数据、 历史运行数据、 场站基本
数据、 气象预测数据和气象实测数据;
步骤(2): 对所输入 的风电场原始数据进行数据清洗, 然后按比例ω:1进行随机分割,
分割后的数据集分别记为数据集1与数据集2;
步骤(3): 输入基于缩放注意力机制和Inception模块的记忆卷积网络参数, 包括权重
Wnetwork和偏置bnetwork; 记循环编号i=1, 输入置信域策略优化方法的参数, 包括初始策略参
数θ0和相对熵约束 δ, 策略参数θ 为 一集合:
θ =[Wnetwork,bnetwork] (1)
步骤(4): 基于缩放注意力机制和Inception模块的记忆卷积网络使用数据集1进行训
练, 所述基于缩放注意力机制和Inception模块的记忆卷积网络中的数据处理流程为: 首先
将数据同时输入缩放注意力机制架构和Inception V3模块进行处理, Inception V3模块即
为Inception V3神经网络; 然后两个处理结果同时依次输入门循环单元和全连接层 进行处
理, 最后输出 预测结果, 其中全连接层对数据的处 理过程为:
Mfc=Wfc·Nfc+bfc (2)
其中, Nfc为输入矩阵; Mfc为输出矩阵; Wfc为权重矩阵; bfc为偏置向量;
所述缩放注意力机制的架构如下: 由一个stem模块和一个Inception ‑A模块按顺序连
接组成一个S ‑A结构, 四个S ‑A结构同时接收输入基于缩放注意力机制和Inception模块的
记忆卷积网络的数据, 并进行处理; 第一个S ‑A结构和第二个S ‑A结构的输出经过一次乘法
运算和一个softmax处理后, 与第三个S ‑A结构的输出一起进行乘法运算, 并在经过一个卷
积层的处 理后, 与第四个S ‑A结构的输出一同依次进入 缩放处理层和全连接层进行处 理;
在所述stem模块和Inception ‑A模块中涉及到卷积模块和阈值运算操作, 其中, 所述卷
积模块包括一个卷积操作, 一个批量归一化操作和一个阈值运算操作, 所述批量归一化操
作对数据的处 理过程如式(3)和式(4)所示;
其中ε是一个常数; μB为输入的平均值; σ2
B为输入元素的方差; B代表当前层的第B个维
度, 即第B个神经元节点; xBatch,o为任意输入元素;
为xBatch,o归一化后的对应元素; o为
编号; β 为偏移量; ρ 为因子; yBatch,o为
进行处理后的对应元 素;
所述阈值 运算操作对数据的处 理过程如式(5)所示;
其中, q代 表所述阈值 运算操作的输入, z(q)代 表所述阈值 运算操作的输出;
所述softmax处 理的过程 为:权 利 要 求 书 1/3 页
2
CN 115526399 A
2其中xsoftmax,u,xsoftmax,v分别为第u个和第v个输入元素; Su为xsoftmax,u的softmax值; exp
(xsoftmax,v)为自然数 e的xsoftmax,v次方; j为输入元 素总数; u和v均为编号;
所述缩放处 理层的处 理过程为:
yscaling,p=lscalingxscaling,p+c (7)
其中lscaling为缩放因子; c为偏置因子; xscaling,p为第p个输入元素, yscaling,p为第p个输出
元素, p为编号;
步骤(5): 计算所述基于缩放注意力机制和Inception模块的记忆卷积网络的预测值与
真实值的均方根误差RMS E, 判断均方根误差的值是否小于 设定值, 如满足条件, 则认 为所述
基于缩放注 意力机制和Inception模块的记忆卷积网络训练完成, 进入步骤(13); 如不满足
条件, 则认 为所述基于缩放注 意力机制和Inception模块的记忆卷积网络尚未训练完成, 进
入步骤(6);
步骤(6): 设置置信域策略方法的奖励R和状态s如式(8)和式(9)所示, 动作 a代表是否
使用置信域策略方法对权重Wnetwork和偏置bnetwork进行更新; 使用置信域策略方法对权重
Wnetwork和偏置bnetwork进行策略学习和参数调优, 记寻优次数编号 k=1;
R=‑RMSE (8)
其中θk, θk‑1, θ1分别为第k, k ‑1, 1次寻优中的策略参数; ‖ ‖2为2范数;
步骤(7): 在环境中执行策略πk=π( θk), 收集轨迹Dk={τt}, 其中π为策略, πk为第k次寻
优中的策略, τt为具体轨 迹, 包括动作和状态, t为时间步;
步骤(8): 计算当前 奖励
和优势函数
其中
为动作价值函数,
状态价值函数, at和at+1分别为t时间步和t+1时间步的动
作, st+1为t+1时间步 的状态,
为t+1时间步 的奖励, γ为奖励折扣系数, α为γ的指数, α
∈N*;
表示从st+1和at+1开始, 直到s∞和a∞, 对
求期望;
表示从st+1和at开始, 直到s∞和a∞, 对
求期望; s∞和a∞分别
为∞时间步的状态与动作;
步骤(9): 计算策略梯度
πk(at|st)=P(a=at|s=st) (14)
其中st为t时间步的状态;
为梯度算子; logπk(at|st)表示以10为底πk(at|st)的对数;
表示在θ=θk的情况下进行梯度算子的运算; P(a=at|s=st)为s=st条件
下a=at的概率;权 利 要 求 书 2/3 页
3
CN 115526399 A
3
专利 一种卷积注意力融合置信域强化迁移的风电出力预测方法
文档预览
中文文档
12 页
50 下载
1000 浏览
0 评论
0 收藏
3.0分
温馨提示:本文档共12页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
本文档由 SC 于 2024-02-24 00:59:12上传分享