引言
本文将以教育行政化体系作为论述的大环境背景,提取 1 教师Y,教师F,教师D 2 学生犹大,学生黑曼巴,学生P,学生Y,学生C13 3 心理老师 4 学校领导 的家庭背景,性格特征,以及行为模式。把「人类决策」拆成可计算的变量 → 评分 → 概率 / 结果。并分析不同决策产生的政策风险和结果, 根据不同的角色定位,研究探讨最佳策略,并尽可能地为学校领导设计一个最佳的时间激励函数。
形式逻辑和定义
教育行政化:学生对老师负责,老师受校长管理,校长对学校负责。 学校政绩以学生平均成绩和本科升学率作为量化。
踢貓效應(英語:Kick the cat):也稱為踢狗效應(kick the dog)[1],是一種隱喻,描述在組織或是家庭中位階較高的人,可能會藉由責罰位階較低的人來轉移其挫折或不滿,而位階較低的人也會以類似的方式將挫折發泄給位階更低的人,因此產生了連鎖反應。
收益函数:教师以学生平均成绩和本科升学率作为收益函数;学生以个人高考成绩作为收益函数,学生最终的高考成绩,跟过往3年的成绩正相关。
收益函数(Payoff)定义
-
教师收益 (U_{\text{teacher}}):以学生平均成绩 (\bar{S}) 和本科升学率 (r) 为自变量
[U_{\text{teacher}} = w_{\text{avg}} \cdot \bar{S} + w_{\text{enroll}} \cdot r]
实现中取 (w_{\text{avg}}=0.6),(w_{\text{enroll}}=0.4)。政绩(领导层激励)与教师收益同构。 -
学生高考成绩预测 (G):与过往 3 年年末成绩正相关,近期权重更大
[G = w_1 S_{t-3} + w_2 S_{t-2} + w_3 S_{t-1},\quad w_1+w_2+w_3=1,\; w_1\le w_2\le w_3]
实现中取 (w_1=0.2,\,w_2=0.3,\,w_3=0.5)。 -
学生收益 (U_{\text{student}}):以个人高考成绩(预测值)为收益;未参考高考则无高考收益
[U_{\text{student}} = \begin{cases} G & \text{若在高考参考池} \ 0 & \text{否则} \end{cases}]
量化公式
公式1:学生平均成绩 = 学生总成绩 / 学生人数
公式2:本科升学率 = 本科录取人数 / 参加高考人数 × 100%
人物建模分析
教师Y:以公式1作为决策量化的依据。公式1中的学生人数可以减少(使用PUA策略,让学生休学退学); 使用罚站、电话家长、班会公开点名批评等方式减少学生人数; 使用撒谎和躲避监控策略,应付上级道德和法律审查。
教师F:以公式1和公式2作为决策量化的依据。公式1中的学生人数不变,但是从本科升学率出发,参加高考的人数可以减少。
教师D:以公式1和公式2作为决策量化的依据。以学生平均成绩最大化作为目标,但不采取剔除学生策略。
学生犹大:富裕中产阶级,攀附教师F获得了群管理。通过网络暴力的形式,攻击其他学生,意图在减少学生数量。
学生黑曼巴:家里非常有钱,可以直接使用钞能力购买澳门科技大学本科学位。因此高考只是一种选项,他本人可以不参加高考。
学生P:学习能力比较差,IQ比较低,对于教师Y的PUA策略,采取回避态度,使用休学作为消极对抗策略。
学生Y:高度近视的高IQ运动员。通过运动员加分策略让自己在高考中获得加分,但获取加分需要学校领导同意。
学生C13:家里很穷,但是一个 IQ>160 的天才学生。
心理老师:教育系统中的平衡人士。负责降低学生心理压力,安抚学生负面情绪。
学校领导:负责分配学校资源(比如谁加分,哪位学生休学退学),安排心理老师定向辅导学生的领导。
以时间序列作为元编程模型,将家庭背景、IQ、EQ、PUA、法律法规道德风险等因素量化分析,并根据不同的角色,对不同的社会成员建模,模拟实验不同学生和教师采取的策略和对应后果。编程语言使用 Go,程序位于本目录(function/local/n/china/shantou/)。
时间序列元编程模型(与 function/time.md 对齐)
- 第一性原理:时间是第一维度。所有时序对象的时间必须为第一成员,时序函数的时间必须为第一参数。
- 时序对象:
Factor(量化因子)、Agent(社会成员)、SimState(仿真状态)均以Birth或Current为第一成员。 - 时序函数:
Incentive(t, ...)、ChooseStrategy(t, ...)、ApplyStrategy(t, ...)等均以时间t为第一参数。 - 时序日志:所有事件记录为「时间 + 内容」格式(
LogTS),满足时间序列日志规范。 - 时序可视化:激励函数采样为
(t, 政绩值)点列,时间作为 x 轴可绘制政绩随时间演化。
量化因子定义
| 因子 | 符号/字段 | 取值范围 | 含义 |
|---|---|---|---|
| 家庭背景 | FamilyBackground | [0,1] | 0=极贫,1=极富;影响资源与升学路径(如钞能力、运动员投入) |
| 智力 | IQ | [0,1] | 映射智力分数,影响学业表现与策略理解 |
| 情绪智力 | EQ | [0,1] | 影响抗压与踢猫链中的情绪传播 |
| PUA 暴露 | PUAExposure | [0,1] | 教师 PUA 策略对该个体的暴露强度 |
| PUA 抵抗力 | PUAResistance | [0,1] | 个体对 PUA 的抵抗力 |
| 法律法规道德风险 | LegalMoralRisk | [0,1] | 个体/行为触发的法规与道德追责风险 |
净 PUA 压力可定义为:PUAExposure × (1 - PUAResistance),用于驱动休学/回避等策略。
角色与策略建模
| 角色 | 激励依据 | 可选策略 | 策略选择逻辑(简述) |
|---|---|---|---|
| 教师Y | 公式1(平均分) | PUA减员、撒谎躲避、正常教学 | 平均分低且人数多→PUA;法规风险高→撒谎躲避 |
| 教师F | 公式1+公式2 | 减少高考参考人数、撒谎躲避、正常教学 | 参考人数多且升学率低→减参考人数 |
| 教师D | 公式1+公式2 | 撒谎躲避、正常教学(不采取剔除学生策略) | 法规风险高→撒谎躲避;否则正常教学,不以PUA/减参考人数提高政绩 |
| 学生犹大 | 攀附教师F | 网络暴力、努力学习 | 人数多且自身法规风险低→网络暴力 |
| 学生黑曼巴 | 钞能力 | 无(不参与高考) | — |
| 学生P | 低IQ、高PUA暴露 | 休学退学、回避对抗 | 净PUA高且压力大→休学 |
| 学生Y | 运动员加分 | 运动员加分 | 稳定选择加分策略 |
| 学生C13 | 高IQ贫困 | 努力学习 | 稳定选择努力学习 |
| 心理老师 | 系统平衡 | 减压安抚 | 平均压力高→减压 |
| 学校领导 | 政绩=激励函数 | 向下施压、设计激励函数 | 政绩低→向下施压(踢猫);政绩高→设计激励 |
策略与后果量化
| 策略 | 后果(增量/布尔) | 作用对象 |
|---|---|---|
| PUA施压减员 | ΔStress↑, LegalRisk↑ | 随机目标学生 |
| 减少高考参考人数 | LeaveExam, LegalRisk↑ | 随机目标学生 |
| 撒谎躲避监控 | LegalRisk↓(短期) | 行为者 |
| 休学退学 | Dropout, LeaveExam | 行为者本人 |
| 网络暴力 | ΔStress↑, LegalRisk↑ | 随机目标学生 |
| 运动员加分/努力学习/回避对抗 | ΔScore, ΔStress | 行为者本人 |
| 减压安抚 | ΔStress↓ | 随机目标学生 |
| 向下施压 | ΔStress↑ | 随机目标学生 |
时间激励函数
政绩(领导层感知的激励值)与教师收益同构,定义为时间 t 的激励函数:
1
Incentive(t) = TeacherPayoff(平均成绩, 本科升学率) = 0.6 × 平均成绩 + 0.4 × 本科升学率
其中平均成绩与本科升学率由当前在校学生、参考人数、达线人数在 t 时刻的状态计算得到。仿真中每步对 Incentive(t) 采样,得到时间序列点列,可用于绘制「时间–政绩」曲线(时间轴为 x 轴)。学生高考成绩预测在每年末用当前成绩更新 ScoreHistory(过往 3 年),用于 GaokaoScore 与 StudentPayoff。
纳什均衡与各方最佳策略
在以上收益函数与策略空间下,可得到如下均衡与推荐策略(仿真与理论一致):
| 角色 | 收益/目标 | 纳什均衡下的策略 | 最佳策略建议 |
|---|---|---|---|
| 教师 | (U_{\text{teacher}}=\bar{S}) 与升学率 | 平均分低且人数多时倾向 PUA/减参考人数(背叛);法规风险高或上期已背叛则正常教学(合作) | 在重复博弈中:多数时期正常教学以维持声誉;仅在平均分明显偏低且学生数多时考虑减员,并注意法规道德风险 |
| 学生 | (U_{\text{student}}=G)(与 3 年成绩正相关) | 高 IQ、低 PUA 暴露:努力学习;高 PUA 暴露且压力大:休学或回避 | 以最大化 3 年成绩为主:优先「努力学习」;高压力或高 PUA 暴露时「回避对抗」或必要时休学以保护长期收益 |
| 心理老师 | 系统稳定(降低总压力) | 平均压力高于阈值时减压安抚,否则不行动 | 当 AvgStress > 阈值 时采取减压安抚,其余时期不行动 |
| 学校领导 | 政绩 = (U_{\text{teacher}}) | 政绩低于阈值时向下施压(踢猫),否则设计激励 | 政绩低时向下施压;政绩高时设计激励、批准加分等资源分配 |
纳什均衡要点:教师与学生存在重复博弈关系。教师若长期背叛(PUA/减参考人数),会触发学生报复(如网络暴力)或回避/休学,从而损害平均成绩与升学率,最终降低教师自身收益。在均衡下,教师多数时候选择正常教学,学生在无极端压力下选择努力学习,使双方在长期内都更接近各自收益最大化。心理老师与领导的行为由聚合指标(平均压力、政绩)驱动,其最佳策略为上述阈值反应。
仿真实验设计
- 步长:按日(或可配置)推进。
- 每步:先根据当前状态更新聚合指标(学生数、参考数、升学率、平均压力等),再对每个在册成员按角色调用
ChooseStrategy(t, agent, ctx),得到策略后调用ApplyStrategy(t, strategy, ...)得到后果,将后果施加于行为者或目标学生,并追加「时间+内容」日志。 - 输出:① 时间序列日志(每一条为「时间+内容」);② 激励函数采样序列(时间→政绩);③ 终态统计(在校人数、参考人数、本科录取数、平均成绩、本科升学率、政绩)。
实现文件
源代码位置:zeusro/system — function/local/n/china/shantou/y
| 文件 | 内容 |
|---|---|
| model.go | 时间序列对象:Factor、Event、Point、NLine;时间第一成员(Birth/T) |
| roles.go | 角色 Role 与策略 Strategy 枚举;Agent 构造(Birth 第一成员)、NewAgent;Agent 含 Factor、InSchool、InExamPool、Score、ScoreHistory、Stress、LegalRisk、StrategyCount、LastStrategy |
| incentive.go | IncentiveParams(时间第一成员);时间激励函数 Incentive(t, …)、IncentiveAt;教师收益 TeacherPayoff(平均成绩, 升学率);高考成绩预测 GaokaoScore(ScoreHistory);学生收益 StudentPayoff(GaokaoScore, InExamPool) |
| strategy.go | ChooseStrategy(t, agent, ctx) 按角色分派;各角色策略函数(教师Y/F、犹大、黑曼巴、P、Y、C13、普通学生、心理老师、领导);Consequence 后果结构;ApplyStrategy(t, strategy, agent, ctx, rng) 及后果量化 |
| sim.go | SimContext(聚合状态含 StepsRemaining、LastRoundTeacherDefection);SimState(Birth、Current、Agents、Events、Points、Duration);LogTS、UpdateContext、Run(步进、每年末更新 ScoreHistory、激励采样、重复博弈两阶段选策略与施加后果);pickStudentTarget |
| y.go | 主仿真入口 Y(base, end, randomCount, seed);newNamedAgents 构造教师与命名学生;输出时间序列日志、激励采样、终态统计、收益函数采样、学生策略分组统计、C13 建议 |
| y_test.go | TestY 完整仿真(可 -short 跳过);TestY_shortParams、TestY_shortRun 短仿真与 Run 单元测试 |
参考
[1] 踢貓效應 — https://zh.wikipedia.org/wiki/踢貓效應
Incentive Function Design under Education Bureaucracy
Introduction
This article takes the education bureaucracy system as the macro context, and extracts family background, personality traits, and behaviour patterns of: (1) Teachers Y, F, D; (2) Students Judas, Black Mamba, P, Y, C13; (3) the school psychologist; (4) school leadership. It breaks “human decisions” into computable variables → scores → probability / outcome, analyses policy risks and consequences of different decisions, studies optimal strategies by role, and designs a time-based incentive function for school leadership as far as possible.
Formal Logic and Definitions
Education bureaucracy: Students answer to teachers, teachers are managed by the principal, the principal answers to the school. School performance is quantified by average student score and undergraduate enrolment rate.
Kick the cat (also “kick the dog”) [1]: A metaphor for higher-ranking people in an organisation or family displacing frustration or dissatisfaction by punishing lower-ranking people, who in turn pass it down the chain, producing a cascade.
Payoff functions: Teachers’ payoff is average student score and undergraduate enrolment rate; students’ payoff is individual college-entrance exam score; final exam score is positively correlated with the past three years’ scores.
Payoff (Payoff) Definitions
-
Teacher payoff (U_{\text{teacher}}): Arguments are average student score (\bar{S}) and undergraduate enrolment rate (r)
[U_{\text{teacher}} = w_{\text{avg}} \cdot \bar{S} + w_{\text{enroll}} \cdot r]
Implementation uses (w_{\text{avg}}=0.6), (w_{\text{enroll}}=0.4). Performance (leadership incentive) is isomorphic to teacher payoff. -
Predicted student exam score (G): Positively correlated with year-end scores of the past 3 years, with higher weight on recent years
[G = w_1 S_{t-3} + w_2 S_{t-2} + w_3 S_{t-1},\quad w_1+w_2+w_3=1,\; w_1\le w_2\le w_3]
Implementation uses (w_1=0.2,\,w_2=0.3,\,w_3=0.5). -
Student payoff (U_{\text{student}}): Payoff is predicted individual exam score; no exam payoff if not in the exam pool
[U_{\text{student}} = \begin{cases} G & \text{if in exam pool} \ 0 & \text{otherwise} \end{cases}]
Quantitative Formulas
Formula 1: Average student score = Total student score / Number of students
Formula 2: Undergraduate enrolment rate = Number admitted to undergraduate / Number taking exam × 100%
Character Modelling
Teacher Y: Uses Formula 1 for decisions. Can reduce the denominator (student count) via PUA tactics (pressuring students to leave or drop out); uses standing punishment, calling parents, public criticism in class meetings; uses lying and avoiding oversight to cope with moral and legal scrutiny.
Teacher F: Uses Formula 1 and Formula 2. Keeps student count in Formula 1 fixed but can reduce the number of exam takers to improve enrolment rate.
Teacher D: Uses Formula 1 and Formula 2. Maximises average score without removing students.
Student Judas: Affluent middle class, curries favour with Teacher F and gets a management role. Uses online harassment to attack other students to reduce headcount.
Student Black Mamba: Very wealthy; can buy an undergraduate place (e.g. Macau). The exam is optional; he may not sit it.
Student P: Low academic ability and IQ; responds to Teacher Y’s PUA with avoidance and withdrawal (leave of absence) as passive resistance.
Student Y: Highly myopic, high-IQ athlete. Uses athlete bonus in the exam; bonus requires school leadership approval.
Student C13: Poor family, genius with IQ > 160.
School psychologist: Balancer in the system; reduces student stress and negative emotion.
School leadership: Allocates resources (e.g. who gets bonus, who leaves), assigns the psychologist to targeted counselling.
A time-series meta-programming model quantifies family background, IQ, EQ, PUA exposure, legal/moral risk, etc., and models agents by role to simulate strategies and consequences. Implementation is in Go under function/local/n/china/shantou/.
Time-Series Meta-Programming Model (aligned with function/time.md)
- First principle: Time is the first dimension. All time-series objects have time as the first member; time-series functions have time as the first parameter.
- Time-series objects:
Factor,Agent,SimStatehaveBirthorCurrentas the first member. - Time-series functions:
Incentive(t, ...),ChooseStrategy(t, ...),ApplyStrategy(t, ...)take timetas the first parameter. - Time-series log: All events are logged as “time + content” (
LogTS). - Visualisation: Incentive function sampled as
(t, performance); time on x-axis.
Factor Definitions
| Factor | Symbol/Field | Range | Meaning |
|---|---|---|---|
| Family background | FamilyBackground | [0,1] | 0=very poor, 1=very rich; affects resources and paths (e.g. “money power”, athlete investment) |
| Intelligence | IQ | [0,1] | Maps to score; affects academic performance and strategy understanding |
| Emotional intelligence | EQ | [0,1] | Affects stress resistance and emotion propagation in the kick-the-cat chain |
| PUA exposure | PUAExposure | [0,1] | Intensity of teacher PUA on this agent |
| PUA resistance | PUAResistance | [0,1] | Agent’s resistance to PUA |
| Legal/moral risk | LegalMoralRisk | [0,1] | Risk of legal/moral accountability for agent/action |
Net PUA pressure: PUAExposure × (1 - PUAResistance), driving leave/avoidance strategies.
Roles and Strategy Modelling
| Role | Incentive basis | Strategies | Selection logic (brief) |
|---|---|---|---|
| Teacher Y | Formula 1 (avg) | PUA to reduce headcount, lie/evade, normal teaching | Low avg and many students → PUA; high legal risk → lie/evade |
| Teacher F | Formulas 1+2 | Reduce exam takers, lie/evade, normal teaching | Many takers and low rate → reduce takers |
| Teacher D | Formulas 1+2 | Lie/evade, normal teaching (no removal) | High legal risk → lie/evade; else normal teaching |
| Student Judas | Curries Teacher F | Online harassment, study hard | Many students and low own risk → harassment |
| Student Black Mamba | Money | None (no exam) | — |
| Student P | Low IQ, high PUA | Leave/drop out, avoid | High net PUA and stress → leave |
| Student Y | Athlete bonus | Athlete bonus | Stable: choose bonus |
| Student C13 | High IQ, poor | Study hard | Stable: study hard |
| Psychologist | System balance | Reduce stress, soothe | High avg stress → soothe |
| Leadership | Performance = incentive | Pressure down (kick cat), design incentives | Low performance → pressure; high → design incentives |
Strategy and Consequence Quantification
| Strategy | Consequence (delta/boolean) | Target |
|---|---|---|
| PUA to reduce headcount | ΔStress↑, LegalRisk↑ | Random target student |
| Reduce exam takers | LeaveExam, LegalRisk↑ | Random target student |
| Lie/evade oversight | LegalRisk↓ (short term) | Actor |
| Leave/drop out | Dropout, LeaveExam | Self |
| Online harassment | ΔStress↑, LegalRisk↑ | Random target student |
| Athlete bonus / study hard / avoid | ΔScore, ΔStress | Self |
| Soothe / reduce stress | ΔStress↓ | Random target student |
| Pressure down | ΔStress↑ | Random target student |
Time Incentive Function
Performance (leadership incentive) is isomorphic to teacher payoff, as an incentive function of time (t):
1
Incentive(t) = TeacherPayoff(avg score, enrolment rate) = 0.6 × avg score + 0.4 × enrolment rate
Avg score and enrolment rate are computed from current in-school students, exam takers, and admittees at time (t). Each step samples Incentive(t) to get a time series for a “time–performance” plot. Predicted exam score is updated at year-end from ScoreHistory (past 3 years) for GaokaoScore and StudentPayoff.
Nash Equilibrium and Best Strategies
Under the above payoff functions and strategy sets, the equilibrium and recommendations (simulation and theory agree):
| Role | Payoff/goal | Strategy at Nash | Recommended best strategy |
|---|---|---|---|
| Teachers | (U_{\text{teacher}}=\bar{S}) and rate | When avg low and many students → PUA/reduce takers (defect); when legal risk high or previous defect → normal teaching (cooperate) | In repeated game: mostly normal teaching to keep reputation; consider reduction only when avg clearly low and headcount high, mind legal/moral risk |
| Students | (U_{\text{student}}=G) (3-year correlation) | High IQ, low PUA: study hard; high PUA and stress: leave or avoid | Maximise 3-year score: prefer “study hard”; under high stress or PUA use “avoid” or leave to protect long-term payoff |
| Psychologist | System stability (lower total stress) | Soothe when avg stress above threshold, else no action | When AvgStress > threshold soothe; else no action |
| Leadership | Performance = (U_{\text{teacher}}) | When performance below threshold pressure down (kick cat); else design incentives | Low → pressure; high → design incentives, approve bonuses, allocate resources |
Nash equilibrium summary: Teachers and students are in a repeated game. Persistent defection (PUA/reduce takers) triggers student retaliation (e.g. harassment) or avoidance/leave, hurting average score and rate and thus teacher payoff. At equilibrium, teachers mostly teach normally and students without extreme stress study hard, so both approach maximum payoff over time. Psychologist and leadership act on aggregate indicators (avg stress, performance) with threshold responses as above.
Simulation Design
- Step: Advance by day (or configurable).
- Per step: Update aggregates (student count, exam takers, rate, avg stress); for each agent call
ChooseStrategy(t, agent, ctx), thenApplyStrategy(t, strategy, ...), apply consequences, append “time + content” log. - Output: (1) Time-series log; (2) incentive function sample (time → performance); (3) final stats (in-school, exam takers, admits, avg score, rate, performance).
Implementation Files
Source code location: zeusro/system — function/local/n/china/shantou/y
| File | Content |
|---|---|
| model.go | Time-series types: Factor, Event, Point, NLine; time first member (Birth/T) |
| roles.go | Role and Strategy enums; Agent (Birth first), NewAgent; Factor, InSchool, InExamPool, Score, ScoreHistory, Stress, LegalRisk, StrategyCount, LastStrategy |
| incentive.go | IncentiveParams; Incentive(t,…), IncentiveAt; TeacherPayoff; GaokaoScore(ScoreHistory); StudentPayoff |
| strategy.go | ChooseStrategy(t, agent, ctx) by role; Consequence; ApplyStrategy(t, strategy, …) |
| sim.go | SimContext, SimState; LogTS, UpdateContext, Run; pickStudentTarget |
| y.go | Main entry Y(…); newNamedAgents; outputs log, incentive sample, final stats, C13 advice |
| y_test.go | TestY (full run, -short to skip); TestY_shortParams, TestY_shortRun |
Reference
[1] Kick the cat — https://en.wikipedia.org/wiki/Displaced_aggression
教育行政化体系下における激励関数の設計
はじめに
本稿は教育行政化体系をマクロな背景として、(1)教師Y・F・D、(2)生徒ユダ・ブラックマンバ・P・Y・C13、(3)心理教師、(4)学校領導の家庭環境・性格・行動パターンを抽出する。「人間の意思決定」を計算可能な変数→スコア→確率/結果に分解し、異なる決定の政策リスクと結果を分析し、役割ごとの最適戦略を検討し、学校領導のための時間激励関数を可能な限り設計する。
形式論理と定義
教育行政化:生徒は教師に、教師は校長に、校長は学校に責任を負う。学校の業績は生徒の平均成績と本科進学率で定量化される。
蹴り猫効果(Kick the cat、蹴り犬効果)[1]:組織や家庭で上位者が下位者を罰して不満を転嫁し、下位者も同様にさらに下位に伝播させる連鎖の比喩。
利得関数:教師の利得は生徒の平均成績と本科進学率。生徒の利得は個人の大学入試成績。最終成績は過去3年の成績と正の相関。
利得(Payoff)の定義
-
教師利得 (U_{\text{teacher}}):生徒平均成績 (\bar{S}) と本科進学率 (r) を変数とする
[U_{\text{teacher}} = w_{\text{avg}} \cdot \bar{S} + w_{\text{enroll}} \cdot r]
実装では (w_{\text{avg}}=0.6)、(w_{\text{enroll}}=0.4)。業績(領導層の激励)は教師利得と同型。 -
生徒の入試成績予測 (G):過去3年の年末成績と正の相関、近年ほど重み大
[G = w_1 S_{t-3} + w_2 S_{t-2} + w_3 S_{t-1},\quad w_1+w_2+w_3=1,\; w_1\le w_2\le w_3]
実装では (w_1=0.2,\,w_2=0.3,\,w_3=0.5)。 -
生徒利得 (U_{\text{student}}):個人の入試成績(予測値)が利得。受験プール外なら入試利得なし
[U_{\text{student}} = \begin{cases} G & \text{受験プールに在籍時} \ 0 & \text{それ以外} \end{cases}]
定量公式
公式1:生徒平均成績 = 生徒総得点 / 生徒数
公式2:本科進学率 = 本科合格者数 / 受験者数 × 100%
人物モデリング
教師Y:公式1を意思決定の根拠とする。公式1の生徒数を減らせる(PUA戦略で休学・退学させる)。罰則・保護者連絡・班会での公開名指し批判で生徒数を減らす。嘘と監視回避で上級の道徳・法審査に対応。
教師F:公式1・公式2を根拠とする。公式1の生徒数は変えず、本科進学率のため受験者数を減らせる。
教師D:公式1・公式2を根拠とする。平均成績の最大化を目指すが、生徒の排除は行わない。
生徒ユダ:富裕な中産階級。教師Fに取り入って群管理を獲得。ネットいじめで他生徒を攻撃し、人数削減を図る。
生徒ブラックマンバ:非常に裕福。マカオ科技大学などの本科を「金の力」で購入可能。受験は選択肢の一つで、受験しないこともある。
生徒P:学力・IQが低い。教師YのPUAに対して回避的態度を取り、休学で消極的抵抗。
生徒Y:強度近視の高IQアスリート。入試でスポーツ加分を利用。加分は学校領導の承認が必要。
生徒C13:貧しい家庭だが IQ>160 の天才。
心理教師:システムのバランサー。生徒の心理圧力と負の感情を軽減。
学校領導:資源配分(誰に加分、誰を休学・退学させるか)、心理教師の個別指導割り当てを担当。
時系列メタプログラミングモデルで家庭背景・IQ・EQ・PUA・法規・道徳リスクなどを定量化し、役割ごとにエージェントをモデル化して戦略と結果をシミュレート。実装はGo、function/local/n/china/shantou/ に配置。
時系列メタプログラミングモデル(function/time.md と整合)
- 第一原理:時間が第一次元。時系列オブジェクトの第一メンバは時間、時系列関数の第一引数は時間。
- 時系列オブジェクト:
Factor、Agent、SimStateはBirthまたはCurrentを第一メンバに持つ。 - 時系列関数:
Incentive(t, ...)、ChooseStrategy(t, ...)、ApplyStrategy(t, ...)は時間tを第一引数に取る。 - 時系列ログ:全イベントは「時間+内容」形式(
LogTS)。 - 可視化:激励関数を
(t, 業績値)でサンプリングし、時間をx軸にプロット。
量化因子の定義
| 因子 | 記号/フィールド | 範囲 | 意味 |
|---|---|---|---|
| 家庭背景 | FamilyBackground | [0,1] | 0=極貧、1=極富。資源と進路(金の力・アスリート投資)に影響 |
| 知能 | IQ | [0,1] | スコアに写像。学業と戦略理解に影響 |
| 情動知能 | EQ | [0,1] | 耐圧性と蹴り猫連鎖の感情伝播に影響 |
| PUA暴露 | PUAExposure | [0,1] | 教師のPUAが当該個体に及ぶ強度 |
| PUA耐性 | PUAResistance | [0,1] | PUAへの耐性 |
| 法規・道徳リスク | LegalMoralRisk | [0,1] | 個体/行為が引き起こす追及リスク |
純 PUA 圧力:PUAExposure × (1 - PUAResistance)。休学・回避戦略の駆動に使用。
役割と戦略モデリング
| 役割 | 激励の根拠 | 選択可能な戦略 | 選択ロジック(概要) |
|---|---|---|---|
| 教師Y | 公式1(平均) | PUA減員・嘘/回避・通常授業 | 平均低かつ人数多→PUA;法リスク高→嘘/回避 |
| 教師F | 公式1+2 | 受験者削減・嘘/回避・通常授業 | 受験者多かつ進学率低→受験者削減 |
| 教師D | 公式1+2 | 嘘/回避・通常授業(排除なし) | 法リスク高→嘘/回避;否則通常授業 |
| 生徒ユダ | 教師Fに取り入る | ネットいじめ・勉強 | 人数多かつ自身の法リスク低→いじめ |
| 生徒ブラックマンバ | 金の力 | なし(受験不参加) | — |
| 生徒P | 低IQ・高PUA暴露 | 休学・退学・回避 | 純PUA高かつ圧力大→休学 |
| 生徒Y | スポーツ加分 | スポーツ加分 | 安定:加分選択 |
| 生徒C13 | 高IQ・貧困 | 勉強 | 安定:勉強 |
| 心理教師 | システム平衡 | 減圧・安抚 | 平均圧力高→減压 |
| 学校領導 | 業績=激励 | 下への圧力・激励設計 | 業績低→圧力(蹴り猫);高→激励設計 |
戦略と結果の定量化
| 戦略 | 結果(増分/ブール) | 対象 |
|---|---|---|
| PUA減員 | ΔStress↑, LegalRisk↑ | ランダム対象生徒 |
| 受験者削減 | LeaveExam, LegalRisk↑ | ランダム対象生徒 |
| 嘘/監視回避 | LegalRisk↓(短期) | 行為者 |
| 休学・退学 | Dropout, LeaveExam | 本人 |
| ネットいじめ | ΔStress↑, LegalRisk↑ | ランダム対象生徒 |
| スポーツ加分/勉強/回避 | ΔScore, ΔStress | 本人 |
| 減压・安抚 | ΔStress↓ | ランダム対象生徒 |
| 下への圧力 | ΔStress↑ | ランダム対象生徒 |
時間激励関数
業績(領導層が知覚する激励)は教師利得と同型。時間 (t) の激励関数として:
1
Incentive(t) = TeacherPayoff(平均成績, 本科進学率) = 0.6 × 平均成績 + 0.4 × 本科進学率
平均成績と進学率は、時刻 (t) の在籍者・受験者・合格者から計算。各ステップで Incentive(t) をサンプリングし「時間–業績」曲線を描く。入試成績予測は毎年末に ScoreHistory(過去3年)で更新し、GaokaoScore と StudentPayoff に用いる。
ナッシュ均衡と各主体の最適戦略
上記利得関数と戦略空間のもとで、均衡と推奨(シミュレーションと理論は一致):
| 役割 | 利得/目標 | ナッシュ下の戦略 | 最適戦略の提案 |
|---|---|---|---|
| 教師 | (U_{\text{teacher}}=\bar{S}) と進学率 | 平均低かつ人数多→PUA/受験者削減(裏切り);法リスク高または前回裏切り→通常授業(協力) | 繰り返し博弈では主に通常授業で評判維持;平均が明らかに低く人数が多いときのみ減員を検討し、法・道徳リスクに注意 |
| 生徒 | (U_{\text{student}}=G)(3年相関) | 高IQ・低PUA→勉強;高PUAかつ圧力大→休学または回避 | 3年成績の最大化を主に:優先は「勉強」;高圧力・高PUA時は「回避」または必要なら休学で長期利得を守る |
| 心理教師 | システム安定(総圧力低減) | 平均圧力が閾値超で減压・安抚、否則無行動 | AvgStress > 閾値 のとき減压、それ以外は無行動 |
| 学校領導 | 業績 = (U_{\text{teacher}}) | 業績が閾値未満で下へ圧力(蹴り猫);否則激励設計 | 低→圧力;高→激励設計・加分承認・資源配分 |
ナッシュ均衡の要点:教師と生徒は繰り返し博弈の関係。教師が長期に裏切り(PUA/受験者削減)すると生徒の報復(いじめ等)や回避・休学を招き、平均成績と進学率を損ない教師自身の利得も下がる。均衡では教師は多く通常授業、生徒は極端な圧力がなければ勉強し、双方が長期で利得最大化に近づく。心理教師と領導は集約指標(平均圧力・業績)に応じた閾値反応が最適。
シミュレーション実験設計
- ステップ:日単位(または設定可能)で進行。
- 各ステップ:現状態で集約指標(生徒数・受験者数・進学率・平均圧力等)を更新し、在籍メンバーごとに役割で
ChooseStrategy(t, agent, ctx)を呼び、得た戦略でApplyStrategy(t, strategy, ...)を呼んで結果を適用し、「時間+内容」ログを追加。 - 出力:① 時系列ログ;② 激励関数サンプル(時間→業績);③ 終状態統計(在籍数・受験者数・本科合格数・平均成績・進学率・業績)。
実装ファイル
ソースコードの場所:zeusro/system — function/local/n/china/shantou/y
| ファイル | 内容 |
|---|---|
| model.go | 時系列型:Factor, Event, Point, NLine。時間第一メンバ(Birth/T) |
| roles.go | Role・Strategy 列挙。Agent(Birth第一)、NewAgent。Factor, InSchool, InExamPool, Score, ScoreHistory, Stress, LegalRisk, StrategyCount, LastStrategy |
| incentive.go | IncentiveParams。Incentive(t,…), IncentiveAt。TeacherPayoff。GaokaoScore(ScoreHistory)。StudentPayoff |
| strategy.go | ChooseStrategy(t, agent, ctx) を役割で分派。Consequence。ApplyStrategy(t, strategy, …) |
| sim.go | SimContext, SimState。LogTS, UpdateContext, Run。pickStudentTarget |
| y.go | メイン入口 Y(…)。newNamedAgents。ログ・激励サンプル・終状態・C13アドバイスを出力 |
| y_test.go | TestY(本番長、-shortでスキップ可)。TestY_shortParams, TestY_shortRun |
参考
[1] 蹴り猫効果(Kick the cat)— https://en.wikipedia.org/wiki/Displaced_aggression
Проектирование функции стимулирования в условиях образовательной бюрократии
Введение
В статье в качестве макроконтекста рассматривается система образовательной бюрократии; выделяются семейный фон, черты характера и модели поведения: (1) учителей Y, F, D; (2) учеников Иуда, Блэк Мамба, P, Y, C13; (3) школьного психолога; (4) руководства школы. «Человеческие решения» разлагаются на вычислимые переменные → оценки → вероятность / исход; анализируются политические риски и последствия разных решений, по ролям исследуются оптимальные стратегии и по возможности проектируется временная функция стимулирования для руководства школы.
Формальная логика и определения
Образовательная бюрократия: ученики подотчётны учителям, учителя управляются директором, директор подотчётен школе. Результативность школы измеряется средней успеваемостью и долей поступления в бакалавриат.
Эффект „пинок кошке“ (Kick the cat, «пинок собаке») [1]: метафора о том, что люди выше по иерархии в организации или семье переносят фрустрацию или недовольство, наказывая нижестоящих, которые в свою очередь передают это дальше по цепочке.
Функции выигрыша: выигрыш учителя — средняя успеваемость и доля поступления в бакалавриат; выигрыш ученика — личный результат вступительного экзамена; итоговый экзаменационный результат положительно коррелирует с результатами за последние три года.
Определения выигрыша (Payoff)
-
Выигрыш учителя (U_{\text{teacher}}): аргументы — средняя успеваемость (\bar{S}) и доля поступления (r)
[U_{\text{teacher}} = w_{\text{avg}} \cdot \bar{S} + w_{\text{enroll}} \cdot r]
В реализации (w_{\text{avg}}=0.6), (w_{\text{enroll}}=0.4). Результативность (стимул для руководства) изоморфна выигрышу учителя. -
Прогноз экзаменационного балла ученика (G): положительная корреляция с годовыми баллами за последние 3 года, больший вес у недавних лет
[G = w_1 S_{t-3} + w_2 S_{t-2} + w_3 S_{t-1},\quad w_1+w_2+w_3=1,\; w_1\le w_2\le w_3]
В реализации (w_1=0.2,\,w_2=0.3,\,w_3=0.5). -
Выигрыш ученика (U_{\text{student}}): выигрыш — прогноз личного экзаменационного балла; вне экзаменационного пула выигрыша от экзамена нет
[U_{\text{student}} = \begin{cases} G & \text{если в экзаменационном пуле} \ 0 & \text{иначе} \end{cases}]
Количественные формулы
Формула 1: средняя успеваемость = сумма баллов учеников / число учеников
Формула 2: доля поступления в бакалавриат = число поступивших в бакалавриат / число сдававших экзамен × 100%
Моделирование персонажей
Учитель Y: использует формулу 1 для решений. Может уменьшать знаменатель (число учеников) через PUA-тактики (давление с целью ухода/отчисления); использует стояние в углу, звонки родителям, публичную критику на классных часах; ложь и уход от контроля перед моральной и правовой проверкой.
Учитель F: использует формулу 1 и формулу 2. Число учеников в формуле 1 не меняет, но может уменьшать число сдающих экзамен ради доли поступления.
Учитель D: использует формулу 1 и формулу 2. Максимизирует среднюю успеваемость без исключения учеников.
Ученик Иуда: зажиточный средний класс, подлаживается к учителю F и получает роль «управляющего». Использует сетевую травлю против других учеников, чтобы сократить численность.
Ученик Блэк Мамба: очень богатая семья; может «купить» место в бакалавриате (напр. Макао). Экзамен для него опционален.
Ученик P: низкие способности и IQ; на PUA учителя Y реагирует уходом и отчислением как пассивным сопротивлением.
Ученик Y: сильная близорукость, высокий IQ, спортсмен. Использует спортивную надбавку к экзамену; надбавка требует одобрения руководства школы.
Ученик C13: бедная семья, гений с IQ > 160.
Школьный психолог: балансир в системе; снижает психологическое давление и негативные эмоции учеников.
Руководство школы: распределяет ресурсы (кто получает надбавку, кто отчисляется), назначает психолога на целевое консультирование.
Временная метапрограммная модель квантифицирует семейный фон, IQ, EQ, PUA-воздействие, правовой/моральный риск и т.д., по ролям моделирует агентов и симулирует стратегии и последствия. Реализация на Go в каталоге function/local/n/china/shantou/.
Временная метапрограммная модель (согласована с function/time.md)
- Первый принцип: время — первое измерение. У всех временных объектов время — первый член; у временных функций время — первый аргумент.
- Временные объекты: у
Factor,Agent,SimStateпервый член —BirthилиCurrent. - Временные функции:
Incentive(t, ...),ChooseStrategy(t, ...),ApplyStrategy(t, ...)принимают времяtпервым аргументом. - Временной лог: все события в формате «время + содержание» (
LogTS). - Визуализация: функция стимулирования сэмплируется как
(t, результативность); время по оси x.
Определения факторов
| Фактор | Символ/поле | Диапазон | Смысл |
|---|---|---|---|
| Семейный фон | FamilyBackground | [0,1] | 0=крайняя бедность, 1=крайнее богатство; влияет на ресурсы и пути (деньги, спорт-инвестиции) |
| Интеллект | IQ | [0,1] | Отображение в балл; влияет на успеваемость и понимание стратегии |
| Эмоциональный интеллект | EQ | [0,1] | Влияет на устойчивость к стрессу и передачу эмоций в цепочке «пинок кошке» |
| PUA-воздействие | PUAExposure | [0,1] | Интенсивность учительского PUA на данного агента |
| Сопротивление PUA | PUAResistance | [0,1] | Устойчивость агента к PUA |
| Правовой/моральный риск | LegalMoralRisk | [0,1] | Риск правовой/моральной ответственности за агента/действие |
Чистое PUA-давление: PUAExposure × (1 - PUAResistance), движет стратегиями ухода/избегания.
Роли и моделирование стратегий
| Роль | Основа стимула | Стратегии | Логика выбора (кратко) |
|---|---|---|---|
| Учитель Y | Формула 1 (среднее) | PUA-сокращение, ложь/уклонение, обычное преподавание | Низкое среднее и много учеников → PUA; высокий правовой риск → ложь/уклонение |
| Учитель F | Формулы 1+2 | Сокращение числа сдающих, ложь/уклонение, обычное преподавание | Много сдающих и низкая доля → сократить сдающих |
| Учитель D | Формулы 1+2 | Ложь/уклонение, обычное преподавание (без исключения) | Высокий правовой риск → ложь/уклонение; иначе обычное преподавание |
| Ученик Иуда | Подлаживается к учителю F | Сетевая травля, учёба | Много учеников и низкий собственный риск → травля |
| Ученик Блэк Мамба | Деньги | Нет (не сдаёт экзамен) | — |
| Ученик P | Низкий IQ, высокое PUA | Уход/отчисление, избегание | Высокое чистое PUA и стресс → уход |
| Ученик Y | Спортивная надбавка | Спортивная надбавка | Стабильно: выбирает надбавку |
| Ученик C13 | Высокий IQ, бедность | Учёба | Стабильно: учёба |
| Психолог | Баланс системы | Снижение стресса, успокоение | Высокий средний стресс → успокоение |
| Руководство | Результативность = стимул | Давление вниз (пинок кошке), проектирование стимулов | Низкая результативность → давление; высокая → проектирование стимулов |
Квантификация стратегий и последствий
| Стратегия | Последствие (приращение/булево) | Объект |
|---|---|---|
| PUA-сокращение | ΔStress↑, LegalRisk↑ | Случайный ученик-цель |
| Сокращение сдающих | LeaveExam, LegalRisk↑ | Случайный ученик-цель |
| Ложь/уклонение от контроля | LegalRisk↓ (краткосрочно) | Действующее лицо |
| Уход/отчисление | Dropout, LeaveExam | Сам агент |
| Сетевая травля | ΔStress↑, LegalRisk↑ | Случайный ученик-цель |
| Спортивная надбавка / учёба / избегание | ΔScore, ΔStress | Сам агент |
| Успокоение / снижение стресса | ΔStress↓ | Случайный ученик-цель |
| Давление вниз | ΔStress↑ | Случайный ученик-цель |
Временная функция стимулирования
Результативность (воспринимаемый руководством стимул) изоморфна выигрышу учителя как функция стимулирования времени (t):
1
Incentive(t) = TeacherPayoff(средняя успеваемость, доля поступления) = 0.6 × средняя успеваемость + 0.4 × доля поступления
Средняя успеваемость и доля поступления вычисляются по состоянию на момент (t) (ученики в школе, сдающие, поступившие). На каждом шаге сэмплируется Incentive(t) для графика «время–результативность». Прогноз экзаменационного балла обновляется в конце года по ScoreHistory (последние 3 года) для GaokaoScore и StudentPayoff.
Равновесие Нэша и оптимальные стратегии
При заданных функциях выигрыша и пространстве стратегий равновесие и рекомендации (модель и теория совпадают):
| Роль | Выигрыш/цель | Стратегия в равновесии Нэша | Рекомендуемая оптимальная стратегия |
|---|---|---|---|
| Учителя | (U_{\text{teacher}}=\bar{S}) и доля | При низком среднем и многих учениках → PUA/сокращение сдающих (предательство); при высоком правовом риске или после предательства → обычное преподавание (кооперация) | В повторяющейся игре в основном обычное преподавание для репутации; сокращение только при явно низком среднем и большом числе учеников, с учётом правового/морального риска |
| Ученики | (U_{\text{student}}=G) (корреляция за 3 года) | Высокий IQ, низкое PUA → учёба; высокое PUA и стресс → уход или избегание | Максимизация балла за 3 года: приоритет «учёба»; при высоком стрессе или PUA — «избегание» или при необходимости уход для защиты долгосрочного выигрыша |
| Психолог | Стабильность системы (снижение общего стресса) | Успокоение при среднем стрессе выше порога, иначе бездействие | При AvgStress > порог успокоение, иначе бездействие |
| Руководство | Результативность = (U_{\text{teacher}}) | При результативности ниже порога — давление вниз (пинок кошке); иначе проектирование стимулов | Низкая → давление; высокая → проектирование стимулов, утверждение надбавок, распределение ресурсов |
Равновесие Нэша: учителя и ученики в повторяющейся игре. Длительное предательство (PUA/сокращение сдающих) провоцирует ответ учеников (травля и т.п.) или избегание/уход, что снижает среднюю успеваемость и долю поступления и тем самым выигрыш учителя. В равновесии учителя в основном преподают нормально, ученики при отсутствии экстремального стресса учатся, и обе стороны в долгосроке приближаются к максимуму выигрыша. Психолог и руководство реагируют на агрегированные показатели (средний стресс, результативность) пороговой реакцией, как выше.
Дизайн имитационного эксперимента
- Шаг: продвижение по дням (или настраиваемо).
- За шаг: обновление агрегатов (число учеников, сдающих, доля поступления, средний стресс); для каждого агента вызов
ChooseStrategy(t, agent, ctx), затемApplyStrategy(t, strategy, ...), применение последствий, добавление лога «время + содержание». - Выход: (1) временной лог; (2) сэмпл функции стимулирования (время → результативность); (3) итоговая статистика (в школе, сдающие, поступившие, средняя успеваемость, доля, результативность).
Файлы реализации
Расположение исходного кода: zeusro/system — function/local/n/china/shantou/y
| Файл | Содержимое |
|---|---|
| model.go | Временные типы: Factor, Event, Point, NLine; время — первый член (Birth/T) |
| roles.go | Роли и стратегии (перечисления); Agent (Birth первый), NewAgent; Factor, InSchool, InExamPool, Score, ScoreHistory, Stress, LegalRisk, StrategyCount, LastStrategy |
| incentive.go | IncentiveParams; Incentive(t,…), IncentiveAt; TeacherPayoff; GaokaoScore(ScoreHistory); StudentPayoff |
| strategy.go | ChooseStrategy(t, agent, ctx) по ролям; Consequence; ApplyStrategy(t, strategy, …) |
| sim.go | SimContext, SimState; LogTS, UpdateContext, Run; pickStudentTarget |
| y.go | Главный вход Y(…); newNamedAgents; вывод лога, сэмпла стимула, итоговой статистики, совета по C13 |
| y_test.go | TestY (полный прогон, -short для пропуска); TestY_shortParams, TestY_shortRun |
Ссылка
[1] Эффект «пинок кошке» — https://en.wikipedia.org/wiki/Displaced_aggression