QBUS6810 26S1|65%的分数禁止AI 但30%的项目鼓励你用——这个矛盾才是课程设计的核心
📝 入场门槛比你想象的高
QBUS6810 的前置要求写得很明确:QBUS5001 或 ECMT5001(统计基础),加上 BUSS6002 或 COMP5310 且拿到 65 分以上(编程基础)。不是"或",是"且"。统计和编程两条腿缺一不可。
65 分这个门槛卡掉了相当一部分人。BUSS6002 作为商学院的编程入门课,平均分大概在 65-70 之间,也就是说差不多有三分之一到一半的 BUSS6002 学生连选这门课的资格都没有。能坐在 QBUS6810 教室里的人,编程能力至少是 BUSS6002 的中上水平。
但即便如此,Week 1 的 Tutorial 就直接让你跑 ML 模型了。没有 Python 复习环节,没有 Jupyter Notebook 入门指南。课程默认你已经能独立写代码、处理数据、跑回归。如果你的 65 分是靠期末突击拿的,开学第一周就会感受到压力。
💡 AI 政策的分裂设计说明了一切
这门课的 AI 政策不是简单的"允许"或"禁止",而是一个精心设计的分裂结构:
| 考核 | AI 政策 | 占比 | 考察重点 |
|---|---|---|---|
| Engagement | ✅ 允许 | 5% | 课堂参与 |
| Group Project | ✅ 允许 | 30% | 用 Python 做数据分析,写报告 |
| Mid-sem Exam | ❌ 禁止 | 20% | 理论理解(闭卷) |
| Final Exam | ❌ 禁止 | 45% | 全范围理论(闭卷) |
允许 AI 的部分(35%)全是"做":做项目、写代码、跑模型。禁止 AI 的部分(65%)全是"懂":解释原理、对比方法、推导结论。
这个设计在说:我知道你做项目会用 ChatGPT 帮你写代码,没关系,但我要确保你理解代码背后的统计原理。Group Project 允许 AI 不是因为老师心大,是因为 Final 那 45% 会兜底——你用 AI 写的 XGBoost 代码,Final 会问你 Boosting 的损失函数为什么用梯度下降来优化。
🎬 13 周的内容排布像一条单行道
| 周次 | 内容 | 你的感受(如果有 QBUS5001 基础) |
|---|---|---|
| 1-2 | ML 入门、Workflow、Regression | "这不是 5001 讲过的吗" |
| 3-4 | Feature Engineering、Classification | "换了个 Python 库,逻辑差不多" |
| 5-6 | Overfitting、Regularisation | "Cross-validation 又来了" |
| 7 | ML 系统诊断 + Mid-sem | "考试不难,但用词不一样" |
| 8 | Nonlinear Modelling | "等一下,这个没见过" |
| 9 | Decision Trees + Random Forests | "一周塞两个模型?" |
| 10 | Gradient Boosting | "XGBoost 参数也太多了" |
| 11-12 | 优化理论、训练动态 | "突然开始推公式了" |
| 13 | Neural Networks + 项目截止 | "最后一周教 NN 然后项目就交?" |
Week 1-7 像复习,Week 8 开始像新课。这个节奏的问题是:当你意识到"这门课不只是 QBUS5001 升级版"的时候,已经到了学期的后半段。
Week 9-10 教的 Decision Trees、Random Forests、Gradient Boosting 是 Group Project 的核心建模工具。但 Week 13 项目就截止了,中间只有三周时间让你从"刚学会"到"能用在项目里"。而这三周里 Week 11-12 还在教新的理论内容(优化和训练动态),你的注意力会被 Lecture 和 Project 同时拉扯。
💰 Final 45% 的隐藏逻辑
Final 占 45%,2小时,覆盖13周全部内容。没有 Hurdle(不及格线),但这个权重意味着:
- Mid-sem 20% + Engagement 5% + Project 30% = 55%,你在 Final 前最多拿 55 分
- 如果前面全拿满(不现实),Final 考 0 分你还有 55——刚好过
- 但如果你 Project 拿了 20/30、Mid-sem 拿了 14/20、Engagement 拿了 4/5,你进 Final 只有 38 分
- 你需要在 Final 里拿 至少 27/45(60%) 才能及格
Final 没有 Hurdle 不代表你可以放。45% 的权重在没有 Hurdle 的情况下反而更危险——因为你没有一个明确的"最低线"来给自己施压,很容易在 Project 截止后放松,结果 Final 准备不充分。
而且 Final 禁止 AI,2小时要覆盖13周内容。后半学期的模型对比题("Random Forest 和 Gradient Boosting 在什么场景下各有优势")、优化理论推导题(Week 11-12 内容),这些不是靠做过 Project 就能答的,需要系统复习。
⚠️ 这门课的真正定位:统计学习的工程化
回到课名——Machine Learning for Business。关键词不是 Machine Learning,是 Business。这门课不会教你从零推导 Backpropagation,但会教你在面对一个业务问题时,怎么选模型、怎么评估、怎么解释给非技术人员听。
主教材 ISLR 的全名是 "Introduction to Statistical Learning"——注意,不是 Machine Learning。这门课本质上是用 ML 的包装讲统计学习的方法论,目标受众是将来要跟数据团队合作的商科人,不是要自己写算法的工程师。
理解这个定位很重要,因为它决定了你复习 Final 的策略:不要死记模型公式,要理解每个模型的适用场景和局限性。 考试不会让你手推 Gradient Descent,但一定会问你"在什么情况下 Lasso 比 Ridge 更适合"以及"为什么 Random Forest 通常不需要调太多超参数"。






