QBUS5011 26S1|AI帮你做完Homework 但80%的分它帮不了你
📝 一个很舒服的开局
QBUS5011 的编程作业允许用 AI。两周交一次,把题目丢给 ChatGPT,代码能跑就交,20% 到手。
整个前半学期,你可能觉得这门课也就那样。Python 基础嘛,if else 写写,函数调调,OOP 的概念 AI 帮你理一理,交上去就完事了。舒服到你甚至会产生一种"我好像挺适合编程的"错觉。
然后 Week 8,你坐进考场。面前一张纸,一支笔,一个小时。没有网络,没有 IDE,没有 AI。30% 的 Mid-term,全部手写。
这时候你才发现:之前做作业的时候,写代码的是 AI,点提交的是你。
💡 温水煮蛙的考核设计
| 考核 | 占比 | AI 政策 | 频率 | 真实角色 |
|---|---|---|---|---|
| Homework | 20% | ✅ 允许 | 两周一次 ≈ 6次 | 练习场,但容易变观众席 |
| Mid-term | 30% | ❌ 禁用 | Week 8 | 照妖镜 |
| Final | 50% | ❌ 禁用 | 期末 | 终极审判,13周全覆盖 |
Homework 允许 AI 本身不是问题——它的设计初衷是降低零基础的门槛,让你在安全环境里试错。但当 AI 可以替你写出能跑的代码时,"做完作业"和"学会了"之间就裂开了一道缝。你在提交的那个瞬间觉得自己掌握了,但掌握的是 AI,不是你。
更微妙的是频率。两周交一次,一学期大约 6 次 Homework。每次覆盖两周的内容。编程不像背单词能突击——隔两周碰一次 Python 和每天写,是完全不同的肌肉记忆。而如果这 6 次里有 3 次是 AI 做主力,你的真实有效练习量大概只剩学期总量的一半。
🎬 Mid-term 照出来的不是分数 是能力真相
Week 8 的 Mid-term 考前 7 周全部内容:控制流 (Control Flow)、函数 (Functions)、面向对象编程 (OOP)、数据结构 (Data Structures)、文件读写 (File IO)。选择题加简答,1 小时,手写代码。
如果之前 Homework 是 AI 在帮你扛,这场考试会非常直接地告诉你一个事实——你到底能不能独立写出一段跑得通的代码。
30% 的分,考砸了还有理论上的挽救空间。但问题不在分数本身,在于它传递的信号。Mid-term 之后,课程画风直接转向数据应用:Pandas 清洗数据、Matplotlib 可视化、SQL 数据库操作、Web API 调用。这些东西全部建立在前半学期的编程基础上——for loop 写不利索的人,Pandas 的 groupby 和 merge 根本无从下手。
💰 这 20% 的正确打开方式
Homework 是你唯一可以安全犯错的环节。正确用法不是让 AI 替你写,而是把它当陪练用:
| 阶段 | 做法 | 目的 |
|---|---|---|
| 先自己写 | 哪怕只写出框架和伪代码 | 建立你自己的思维路径 |
| 再看 AI 方案 | 对比它的思路和你的差异 | 找到你的具体盲区 |
| 手动改代码 | 理解之后亲手修改 | 把"看懂了"变成"写得出" |
你在 Homework 里偷的每一分钟思考时间,都会在考场上以卡壳的方式精确地还给你。6 次作业的练习量本来就不算多,如果再打个对折,你带进考场的就不是能力,是运气。
⚠️ 真实难度藏在考场里
QBUS5011 的表面友好度很高:零基础可选、作业能用 AI、两周交一次不催命。但把考核结构一摊开——80% 的分数在两场 AI 禁用的闭卷考试里。
这门课的真实难度不在于 Python 有多难——对商科研究生来说,编程入门的内容本身不算高深。难度在于你有没有真正练过。Homework 满分和考试满分之间的距离,可能比你想象的大得多。前者说明你能找到答案,后者说明你脑子里有答案。这两个东西在交作业的时候看起来一模一样,但从 Week 8 走进考场那一刻开始,差距会以一种非常具体的方式显现出来。






