参加数学建模竞赛时候, 你有没有发现每次接触到一道数模题的时候,由于自己现有的数学知识匮乏,几乎无从入手,于是就自然而然地上网查找资料,看看前人做过的论文。结果看过之后以后自己做这道题就不知不觉地被之前看过的论文牵着鼻子走了,做出来的结果也有很多之前参考过的论文的影子,感觉自己像是在抄袭。到底如何做才能让自己的数学建模有属于自己的创新点,突出自己的特点呢?
一般来说,只要论文格式规范,行文逻辑清楚,句子读着舒服不会让人觉得很难受(尤其是美赛),那么只要你能完整地把论文写完,国赛当地一等,美赛一等是基本没问题的,即使你的模型很普通很一般没有狂拽酷炫屌炸天也没有任何关系。
但是,如果你想更进一步拿到国赛国奖级别,那还是很有挑战性的。这里我不想深入谈怎么样的论文才叫好论文,但是,不得不承认,要想拿到国奖的级别,一是队伍里三个人人人牛逼没有短板(除了极个超级牛人),队伍配置合理。
二是运气要好。事实上,回到题主最担忧的问题,数学建模比赛从来不指望你对理论本身有所突破,而是如何更好地将理论与现实结合起来。套用别人的理论是必然,你所需要关注的是,如何说服别人,你套用的理论是适合你所研究的问题的。换句话说,比起说这是个数学建模,我事实上更愿意叫它论文写作大赛。
所以,总结来说,练好科技论文的写作能力,包括论文格式的规范性,学会如何写出简洁明了有说服力的语言,是提升数学建模大赛水平最基本也是最有效的方法。
提高数模成绩关键点
慎用启发式算法
包括模拟神经网络、退火算法、遗传算法、蚁群算法等等,这些方法在近些年的数学建模竞赛中出现严重的滥用问题。
启发式算法是在无法直接求出严格最优解的情况下,去求一个近似的可行解。(详细内容可以去看数据结构与算法的书籍中的NP-hard问题和启发式算法)。
有些评审老师很烦动不动就建个神经网络的论文,所以一定要注意,如果问题有好模型和算法的话,就不要用启发式算法。
当然也不是完全不能用,还是要根据实际情况来,错误做法是不分情况的滥用。其实数学建模国赛阅卷老师大部分是数学老师,对神经网络和机器学习不感冒也是正常的。在美赛中,通过阅读了一些论文,我觉得其实影响神经网络不适合在建模比赛中使用的问题主要是时间短不适合炼丹,另外很多人根本不懂深度学习。比如要做一个两层的MLP,需要调整的参数就非常多了,一次训练时间也不短,导致神经网络短时间很难跑出好的结果,相反可以尝试一些简单的机器学习方法。然后在看论文的时候,很多人对神经网络的一些概念都不清楚,怎么划分测试集训练集,怎么看各种评估指标等等。就遇到过随便跑了个网络,说Acc到99的,大胆猜测是过拟合了,这些都是硬伤。