<>2022美国大学生数学建模竞赛的一点反思

看到官网的评奖结果,我的心情从诧异到愤愤不平,最后终于得以平静下来思考论文中存在的诸多的问题。以下是我们对于A题的求解思路与反思,欢迎大家指正和探讨。

<>第一问:定义骑手的功率曲线

基于已有文献的三参数代谢模型(公式(1)),疯狂检索各个论文找到合适的数据用最小二乘拟合。

<>第二问:求解个人计时赛功率分配策略

基于文献建模,恒功率->恒速度模型,没有考虑加速减速的微分方程。赛道以100m为分段离散化,每一段认为恒功率。考虑两类模型,一类是骑手骑车的动力学模型构建骑手功率与自行车速度的关系,一类是骑手输出功率与自身体力消耗的关系。

模型的求解相当于序贯决策问题。我们最主要的问题出现在了求解思路上,把序贯决策当成了组合优化,用模拟退火求解。

但实际上SA GA等智能算法并不适合求解此类问题,尤其是在问题规模较大的情况下,
动作空间的维度非常高,很难进行充分的搜索,并且泛化能力较弱。如果问题规模或者赛道信息稍加变动之后又得重新花费大量算力计算,并不能提供实时策略。除此之外,模拟退火提供的求解结果并不能形成一种直观的策略。对于六人团队计时赛,嵌套优化+智能算法又把动作空间维度拓展了六倍,更难以进行搜索了。

所以我认为最好的方法是将此问题看作序贯决策问题,具有马尔可夫性
,赛道信息和骑手信息已知可以确定模型,然后动态规划或者强化学习求解。这样的话不仅用较少的算力获得了更精确的结果,也能获得较强的泛化能力。具体的求解思路在赛后写在了笔记本上了

用马尔可夫决策过程(Markov Desicion Process,MDP)来描述个人计时赛的序贯决策过程

<>第三问:团队计时赛策略

可以从多智能体强化学习优化方向出发,但是目前我没想到具体解法。也可以就在第二问的马尔可夫过程的基础上加一维是否换位的动作空间,继续动态规划。

<>灵敏度分析

分析了一下赛道信息灵敏度和策略灵敏度,但是发现如果一直匀速骑行其实效果还比模拟退火搜索要好,这也说明了这类智能算法还是属于启发式搜索,并不能保证解的良好。而不同与启发式算法的强化学习方法,个人认为强化学习最大的优势在于能够学会一个策略,形成一个决策系统比如QTable或者Q
Neural Network,而在新数据到来时能够以很少的算力代价取得良好的解。

<>总结

总之,比赛已过,美赛也并不是一个有决定意义的比赛,这一纸证书说明不了什么,也否定不了我们在其中做出的努力与知识上的收获。同时,看到网上也有国奖变S奖的经历,以及“美术大赛”的嘲讽,也就释然了。在这里,也祝大家在之后的建模比赛中取得好成绩。

技术
下载桌面版
GitHub
Gitee
SourceForge
百度网盘(提取码:draw)
云服务器优惠
华为云优惠券
腾讯云优惠券
阿里云优惠券
Vultr优惠券
站点信息
问题反馈
邮箱:[email protected]
吐槽一下
QQ群:766591547
关注微信