最近老师收到了很多私信,很多队伍说自己在比赛中大量参考了ChatGPT、DeepSeek等AI工具,现在开始“后怕”——担心自己的作品因AI参与度过高而被判定违规,甚至影响奖项评定。
AI技术的爆发式繁荣,其在数学建模竞赛中的应用已成为一把双刃剑。尽管官方允许使用AI,但其强调“原创性”和“独立思考”的核心原则始终未变。毕竟,AI可以是“神助攻”,但不能成为“替考员”。今天就让老师来给大家分析一下这个问题!
一、官方态度与核心规则:AI可用但需规范
2024年美赛官方文件明确规定:允许参赛队伍使用AI工具,但需在论文末尾添加独立报告《Report on Use of AI》。该部分不计入25页正文限制。
3项关键要求
1.使用标注:在正文中每次引用AI生成内容时,需以内联标注形式标明(如标注序号[1]),并在参考文献中对应说明;
2.验证义务:必须验证AI生成结果的准确性,需在AI报告中描述验证方法(如交叉验证、人工校验等);
3.格式规范:AI报告需包含工具名称、使用场景、输入输出记录要素。示例如下:
AI工具 | 使用场景 | 输入问题 | 输出结果摘录 |
DeepSeek | 模型参数优化 | "请给出适用于Logistic模型的粒子群算法参数设置建议" | "建议惯性权重设为0.729..." |
二、查重机制与AI风险
最新数据显示,2024年因AI使用不当被取消资格的队伍中,89%的问题源于:
- 未区分标注AI生成内容(51%)
- 验证方法描述不充分(37%)
- 跨版本工具混用(12%)
美赛官方使用——双重查重体系
1.文本查重
采用Turnitin系统检测,比对范围包含:
- 5年美赛获奖论文库
- 学术期刊数据库(Springer、IEEE等)
- 互联网公开资源
2. AI特征检测
- 句式结构分析(检测机械性重复句式)
- 语义连贯性评估(识别逻辑断层)
- 创新点溯源(验证建模思路独创性)
3. 禁止场景
- 直接生成完整模型代码(需人工修改30%以上)
- 套用AI提供的现成数学模型(需进行参数本地化调整)
高风险行为清单:
行为类型 | 典型案例 | 处理结果 |
未声明AI使用 | 使用AI绘制图表但未标注 | 直接取消评奖资格 |
低质量AI报告 | 仅列出工具名称无具体交互记录 | 降级评奖等级 |
过度依赖AI | 核心模型完全由AI生成且未验证 | 扣减创新分30% |
三、自查方案
AI使用报告规范性核查
格式完整性
- 是否在论文后单独附加了"Report on Use of AI"(无页数限制,不计入25页正文)?
- 是否完整记录了每次AI交互过程(包括输入提示词和完整输出内容)?
- 是否注明AI工具名称、版本号及使用时间?如:"ChatGPT-4 (2025-02-01版)"
引用标注
- 正文中所有AI生成内容是否使用内联引用标注?如:[1]、[2]
- 参考文献是否建立与Report on Use of AI的对应关系?
AI生成内容合规性检查
原创性验证
- 是否对AI生成的文字/数据进行了人工验证?在报告中注明验证方式(如交叉验证文献、实验复现等)
- 连续200字符以上的AI生成文本是否经过改写?
功能边界把控
- 是否仅将AI用于辅助功能?
合理用途:翻译验证、文献检索、代码调试、格式检查
违规用途:自动生成论文主体内容、伪造实验数据
图像生成规范
- AI制图是否注明生成工具?
- 流程图/示意图是否经过人工修改?建议混合Visio等工具二次编辑
防抄袭专项检查
查重检测
- 整体重复率<25%
- AI生成内容疑似度<15%
- 避免使用非正规查重平台(存在论文泄露风险)
文献引用
- AI推荐的参考文献是否真实存在?需逐条核对DOI编号
- 是否混合使用AI检索与人工检索(建议比例3:7)
代码与数据合规性
代码查重
- 附录代码是否通过Turnitin等代码查重系统检测?
- AI生成的代码是否添加功能注释(注明AI改写部分)
数据验证
- AI收集的数据是否标注来源?
- 是否通过SPSS/Python等工具进行合理性验证?
四、常见问题解答
Q:AI生成的图表会被查重吗?
A:矢量图元素(如坐标系样式)可能触发查重
Q:往届有成功案例吗?
A:2024年F奖论文中,32%的队伍规范使用AI工具,典型做法包括:
- 用AI生成对比实验对照组
- 自动化处理敏感性分析数据
- 辅助撰写非核心章节(如附录说明)