n

教育行政化体系下的激励函数设计

Fuck out of the classroom

Posted by Zeusro on January 30, 2026
👈🏻 Select language

引言

本文将以教育行政化体系作为论述的大环境背景,提取 1 教师Y,教师F,教师D 2 学生犹大,学生黑曼巴,学生P,学生Y,学生C13 3 心理老师 4 学校领导 的家庭背景,性格特征,以及行为模式。把「人类决策」拆成可计算的变量 → 评分 → 概率 / 结果。并分析不同决策产生的政策风险和结果, 根据不同的角色定位,研究探讨最佳策略,并尽可能地为学校领导设计一个最佳的时间激励函数。

形式逻辑和定义

教育行政化:学生对老师负责,老师受校长管理,校长对学校负责。 学校政绩以学生平均成绩和本科升学率作为量化。

踢貓效應(英語:Kick the cat):也稱為踢狗效應(kick the dog)[1],是一種隱喻,描述在組織或是家庭中位階較高的人,可能會藉由責罰位階較低的人來轉移其挫折或不滿,而位階較低的人也會以類似的方式將挫折發泄給位階更低的人,因此產生了連鎖反應。

收益函数:教师以学生平均成绩和本科升学率作为收益函数;学生以个人高考成绩作为收益函数,学生最终的高考成绩,跟过往3年的成绩正相关。

收益函数(Payoff)定义

  • 教师收益 (U_{\text{teacher}}):以学生平均成绩 (\bar{S}) 和本科升学率 (r) 为自变量
    [U_{\text{teacher}} = w_{\text{avg}} \cdot \bar{S} + w_{\text{enroll}} \cdot r]
    实现中取 (w_{\text{avg}}=0.6),(w_{\text{enroll}}=0.4)。政绩(领导层激励)与教师收益同构。

  • 学生高考成绩预测 (G):与过往 3 年年末成绩正相关,近期权重更大
    [G = w_1 S_{t-3} + w_2 S_{t-2} + w_3 S_{t-1},\quad w_1+w_2+w_3=1,\; w_1\le w_2\le w_3]
    实现中取 (w_1=0.2,\,w_2=0.3,\,w_3=0.5)。

  • 学生收益 (U_{\text{student}}):以个人高考成绩(预测值)为收益;未参考高考则无高考收益
    [U_{\text{student}} = \begin{cases} G & \text{若在高考参考池} \ 0 & \text{否则} \end{cases}]

量化公式

公式1:学生平均成绩 = 学生总成绩 / 学生人数

公式2:本科升学率 = 本科录取人数 / 参加高考人数 × 100%

人物建模分析

教师Y:以公式1作为决策量化的依据。公式1中的学生人数可以减少(使用PUA策略,让学生休学退学); 使用罚站、电话家长、班会公开点名批评等方式减少学生人数; 使用撒谎和躲避监控策略,应付上级道德和法律审查。

教师F:以公式1公式2作为决策量化的依据。公式1中的学生人数不变,但是从本科升学率出发,参加高考的人数可以减少。

教师D:以公式1公式2作为决策量化的依据。以学生平均成绩最大化作为目标,但不采取剔除学生策略。

学生犹大:富裕中产阶级,攀附教师F获得了群管理。通过网络暴力的形式,攻击其他学生,意图在减少学生数量。

学生黑曼巴:家里非常有钱,可以直接使用钞能力购买澳门科技大学本科学位。因此高考只是一种选项,他本人可以不参加高考。

学生P:学习能力比较差,IQ比较低,对于教师YPUA策略,采取回避态度,使用休学作为消极对抗策略。

学生Y:高度近视的高IQ运动员。通过运动员加分策略让自己在高考中获得加分,但获取加分需要学校领导同意。

学生C13:家里很穷,但是一个 IQ>160 的天才学生。

心理老师:教育系统中的平衡人士。负责降低学生心理压力,安抚学生负面情绪。

学校领导:负责分配学校资源(比如谁加分,哪位学生休学退学),安排心理老师定向辅导学生的领导。

时间序列作为元编程模型,将家庭背景、IQEQPUA法律法规道德风险等因素量化分析,并根据不同的角色,对不同的社会成员建模,模拟实验不同学生和教师采取的策略和对应后果。编程语言使用 Go,程序位于本目录(function/local/n/china/shantou/)。

时间序列元编程模型(与 function/time.md 对齐)

  • 第一性原理:时间是第一维度。所有时序对象的时间必须为第一成员,时序函数的时间必须为第一参数。
  • 时序对象Factor量化因子)、Agent(社会成员)、SimState(仿真状态)均以 BirthCurrent 为第一成员。
  • 时序函数Incentive(t, ...)ChooseStrategy(t, ...)ApplyStrategy(t, ...) 等均以时间 t 为第一参数。
  • 时序日志:所有事件记录为「时间 + 内容」格式(LogTS),满足时间序列日志规范。
  • 时序可视化激励函数采样为 (t, 政绩值) 点列,时间作为 x 轴可绘制政绩随时间演化。

量化因子定义

因子 符号/字段 取值范围 含义
家庭背景 FamilyBackground [0,1] 0=极贫,1=极富;影响资源与升学路径(如钞能力、运动员投入)
智力 IQ [0,1] 映射智力分数,影响学业表现与策略理解
情绪智力 EQ [0,1] 影响抗压与踢猫链中的情绪传播
PUA 暴露 PUAExposure [0,1] 教师 PUA 策略对该个体的暴露强度
PUA 抵抗力 PUAResistance [0,1] 个体对 PUA 的抵抗力
法律法规道德风险 LegalMoralRisk [0,1] 个体/行为触发的法规与道德追责风险

PUA 压力可定义为:PUAExposure × (1 - PUAResistance),用于驱动休学/回避等策略。

角色与策略建模

角色 激励依据 可选策略 策略选择逻辑(简述)
教师Y 公式1(平均分) PUA减员、撒谎躲避、正常教学 平均分低且人数多→PUA;法规风险高→撒谎躲避
教师F 公式1+公式2 减少高考参考人数、撒谎躲避、正常教学 参考人数多且升学率低→减参考人数
教师D 公式1+公式2 撒谎躲避、正常教学(不采取剔除学生策略) 法规风险高→撒谎躲避;否则正常教学,不以PUA/减参考人数提高政绩
学生犹大 攀附教师F 网络暴力、努力学习 人数多且自身法规风险低→网络暴力
学生黑曼巴 钞能力 无(不参与高考)
学生P 低IQ、高PUA暴露 休学退学、回避对抗 净PUA高且压力大→休学
学生Y 运动员加分 运动员加分 稳定选择加分策略
学生C13 高IQ贫困 努力学习 稳定选择努力学习
心理老师 系统平衡 减压安抚 平均压力高→减压
学校领导 政绩=激励函数 向下施压、设计激励函数 政绩低→向下施压(踢猫);政绩高→设计激励

策略与后果量化

策略 后果(增量/布尔) 作用对象
PUA施压减员 ΔStress↑, LegalRisk↑ 随机目标学生
减少高考参考人数 LeaveExam, LegalRisk↑ 随机目标学生
撒谎躲避监控 LegalRisk↓(短期) 行为者
休学退学 Dropout, LeaveExam 行为者本人
网络暴力 ΔStress↑, LegalRisk↑ 随机目标学生
运动员加分/努力学习/回避对抗 ΔScore, ΔStress 行为者本人
减压安抚 ΔStress↓ 随机目标学生
向下施压 ΔStress↑ 随机目标学生

时间激励函数

政绩(领导层感知的激励值)与教师收益同构,定义为时间 t 的激励函数

1
Incentive(t) = TeacherPayoff(平均成绩, 本科升学率) = 0.6 × 平均成绩 + 0.4 × 本科升学率

其中平均成绩与本科升学率由当前在校学生、参考人数、达线人数在 t 时刻的状态计算得到。仿真中每步对 Incentive(t) 采样,得到时间序列点列,可用于绘制「时间–政绩」曲线(时间轴为 x 轴)。学生高考成绩预测在每年末用当前成绩更新 ScoreHistory(过往 3 年),用于 GaokaoScoreStudentPayoff

纳什均衡与各方最佳策略

在以上收益函数与策略空间下,可得到如下均衡与推荐策略(仿真与理论一致):

角色 收益/目标 纳什均衡下的策略 最佳策略建议
教师 (U_{\text{teacher}}=\bar{S}) 与升学率 平均分低且人数多时倾向 PUA/减参考人数(背叛);法规风险高或上期已背叛则正常教学(合作) 重复博弈中:多数时期正常教学以维持声誉;仅在平均分明显偏低且学生数多时考虑减员,并注意法规道德风险
学生 (U_{\text{student}}=G)(与 3 年成绩正相关) IQ、低 PUA 暴露:努力学习;高 PUA 暴露且压力大:休学或回避 以最大化 3 年成绩为主:优先「努力学习」;高压力或高 PUA 暴露时「回避对抗」或必要时休学以保护长期收益
心理老师 系统稳定(降低总压力) 平均压力高于阈值时减压安抚,否则不行动 AvgStress > 阈值 时采取减压安抚,其余时期不行动
学校领导 政绩 = (U_{\text{teacher}}) 政绩低于阈值时向下施压(踢猫),否则设计激励 政绩低时向下施压;政绩高时设计激励、批准加分等资源分配

纳什均衡要点:教师与学生存在重复博弈关系。教师若长期背叛(PUA/减参考人数),会触发学生报复(如网络暴力)或回避/休学,从而损害平均成绩与升学率,最终降低教师自身收益。在均衡下,教师多数时候选择正常教学,学生在无极端压力下选择努力学习,使双方在长期内都更接近各自收益最大化。心理老师与领导的行为由聚合指标(平均压力、政绩)驱动,其最佳策略为上述阈值反应。

仿真实验设计

  • 步长:按日(或可配置)推进。
  • 每步:先根据当前状态更新聚合指标(学生数、参考数、升学率、平均压力等),再对每个在册成员按角色调用 ChooseStrategy(t, agent, ctx),得到策略后调用 ApplyStrategy(t, strategy, ...) 得到后果,将后果施加于行为者或目标学生,并追加「时间+内容」日志。
  • 输出:① 时间序列日志(每一条为「时间+内容」);② 激励函数采样序列(时间→政绩);③ 终态统计(在校人数、参考人数、本科录取数、平均成绩、本科升学率、政绩)。

实现文件

源代码位置zeusro/system — function/local/n/china/shantou/y

文件 内容
model.go 时间序列对象:Factor、Event、Point、NLine;时间第一成员(Birth/T)
roles.go 角色 Role 与策略 Strategy 枚举;Agent 构造(Birth 第一成员)、NewAgent;Agent 含 Factor、InSchool、InExamPool、Score、ScoreHistory、Stress、LegalRisk、StrategyCount、LastStrategy
incentive.go IncentiveParams(时间第一成员);时间激励函数 Incentive(t, …)、IncentiveAt;教师收益 TeacherPayoff(平均成绩, 升学率);高考成绩预测 GaokaoScore(ScoreHistory);学生收益 StudentPayoff(GaokaoScore, InExamPool)
strategy.go ChooseStrategy(t, agent, ctx) 按角色分派;各角色策略函数(教师Y/F、犹大、黑曼巴、P、Y、C13、普通学生、心理老师、领导);Consequence 后果结构;ApplyStrategy(t, strategy, agent, ctx, rng) 及后果量化
sim.go SimContext(聚合状态含 StepsRemaining、LastRoundTeacherDefection);SimState(Birth、Current、Agents、Events、Points、Duration);LogTS、UpdateContext、Run(步进、每年末更新 ScoreHistory、激励采样、重复博弈两阶段选策略与施加后果);pickStudentTarget
y.go 主仿真入口 Y(base, end, randomCount, seed);newNamedAgents 构造教师与命名学生;输出时间序列日志、激励采样、终态统计、收益函数采样、学生策略分组统计、C13 建议
y_test.go TestY 完整仿真(可 -short 跳过);TestY_shortParams、TestY_shortRun 短仿真与 Run 单元测试

参考

[1] 踢貓效應https://zh.wikipedia.org/wiki/踢貓效應

Incentive Function Design under Education Bureaucracy

Introduction

This article takes the education bureaucracy system as the macro context, and extracts family background, personality traits, and behaviour patterns of: (1) Teachers Y, F, D; (2) Students Judas, Black Mamba, P, Y, C13; (3) the school psychologist; (4) school leadership. It breaks “human decisions” into computable variables → scores → probability / outcome, analyses policy risks and consequences of different decisions, studies optimal strategies by role, and designs a time-based incentive function for school leadership as far as possible.

Formal Logic and Definitions

Education bureaucracy: Students answer to teachers, teachers are managed by the principal, the principal answers to the school. School performance is quantified by average student score and undergraduate enrolment rate.

Kick the cat (also “kick the dog”) [1]: A metaphor for higher-ranking people in an organisation or family displacing frustration or dissatisfaction by punishing lower-ranking people, who in turn pass it down the chain, producing a cascade.

Payoff functions: Teachers’ payoff is average student score and undergraduate enrolment rate; students’ payoff is individual college-entrance exam score; final exam score is positively correlated with the past three years’ scores.

Payoff (Payoff) Definitions

  • Teacher payoff (U_{\text{teacher}}): Arguments are average student score (\bar{S}) and undergraduate enrolment rate (r)
    [U_{\text{teacher}} = w_{\text{avg}} \cdot \bar{S} + w_{\text{enroll}} \cdot r]
    Implementation uses (w_{\text{avg}}=0.6), (w_{\text{enroll}}=0.4). Performance (leadership incentive) is isomorphic to teacher payoff.

  • Predicted student exam score (G): Positively correlated with year-end scores of the past 3 years, with higher weight on recent years
    [G = w_1 S_{t-3} + w_2 S_{t-2} + w_3 S_{t-1},\quad w_1+w_2+w_3=1,\; w_1\le w_2\le w_3]
    Implementation uses (w_1=0.2,\,w_2=0.3,\,w_3=0.5).

  • Student payoff (U_{\text{student}}): Payoff is predicted individual exam score; no exam payoff if not in the exam pool
    [U_{\text{student}} = \begin{cases} G & \text{if in exam pool} \ 0 & \text{otherwise} \end{cases}]

Quantitative Formulas

Formula 1: Average student score = Total student score / Number of students

Formula 2: Undergraduate enrolment rate = Number admitted to undergraduate / Number taking exam × 100%

Character Modelling

Teacher Y: Uses Formula 1 for decisions. Can reduce the denominator (student count) via PUA tactics (pressuring students to leave or drop out); uses standing punishment, calling parents, public criticism in class meetings; uses lying and avoiding oversight to cope with moral and legal scrutiny.

Teacher F: Uses Formula 1 and Formula 2. Keeps student count in Formula 1 fixed but can reduce the number of exam takers to improve enrolment rate.

Teacher D: Uses Formula 1 and Formula 2. Maximises average score without removing students.

Student Judas: Affluent middle class, curries favour with Teacher F and gets a management role. Uses online harassment to attack other students to reduce headcount.

Student Black Mamba: Very wealthy; can buy an undergraduate place (e.g. Macau). The exam is optional; he may not sit it.

Student P: Low academic ability and IQ; responds to Teacher Y’s PUA with avoidance and withdrawal (leave of absence) as passive resistance.

Student Y: Highly myopic, high-IQ athlete. Uses athlete bonus in the exam; bonus requires school leadership approval.

Student C13: Poor family, genius with IQ > 160.

School psychologist: Balancer in the system; reduces student stress and negative emotion.

School leadership: Allocates resources (e.g. who gets bonus, who leaves), assigns the psychologist to targeted counselling.

A time-series meta-programming model quantifies family background, IQ, EQ, PUA exposure, legal/moral risk, etc., and models agents by role to simulate strategies and consequences. Implementation is in Go under function/local/n/china/shantou/.

Time-Series Meta-Programming Model (aligned with function/time.md)

  • First principle: Time is the first dimension. All time-series objects have time as the first member; time-series functions have time as the first parameter.
  • Time-series objects: Factor, Agent, SimState have Birth or Current as the first member.
  • Time-series functions: Incentive(t, ...), ChooseStrategy(t, ...), ApplyStrategy(t, ...) take time t as the first parameter.
  • Time-series log: All events are logged as “time + content” (LogTS).
  • Visualisation: Incentive function sampled as (t, performance); time on x-axis.

Factor Definitions

Factor Symbol/Field Range Meaning
Family background FamilyBackground [0,1] 0=very poor, 1=very rich; affects resources and paths (e.g. “money power”, athlete investment)
Intelligence IQ [0,1] Maps to score; affects academic performance and strategy understanding
Emotional intelligence EQ [0,1] Affects stress resistance and emotion propagation in the kick-the-cat chain
PUA exposure PUAExposure [0,1] Intensity of teacher PUA on this agent
PUA resistance PUAResistance [0,1] Agent’s resistance to PUA
Legal/moral risk LegalMoralRisk [0,1] Risk of legal/moral accountability for agent/action

Net PUA pressure: PUAExposure × (1 - PUAResistance), driving leave/avoidance strategies.

Roles and Strategy Modelling

Role Incentive basis Strategies Selection logic (brief)
Teacher Y Formula 1 (avg) PUA to reduce headcount, lie/evade, normal teaching Low avg and many students → PUA; high legal risk → lie/evade
Teacher F Formulas 1+2 Reduce exam takers, lie/evade, normal teaching Many takers and low rate → reduce takers
Teacher D Formulas 1+2 Lie/evade, normal teaching (no removal) High legal risk → lie/evade; else normal teaching
Student Judas Curries Teacher F Online harassment, study hard Many students and low own risk → harassment
Student Black Mamba Money None (no exam)
Student P Low IQ, high PUA Leave/drop out, avoid High net PUA and stress → leave
Student Y Athlete bonus Athlete bonus Stable: choose bonus
Student C13 High IQ, poor Study hard Stable: study hard
Psychologist System balance Reduce stress, soothe High avg stress → soothe
Leadership Performance = incentive Pressure down (kick cat), design incentives Low performance → pressure; high → design incentives

Strategy and Consequence Quantification

Strategy Consequence (delta/boolean) Target
PUA to reduce headcount ΔStress↑, LegalRisk↑ Random target student
Reduce exam takers LeaveExam, LegalRisk↑ Random target student
Lie/evade oversight LegalRisk↓ (short term) Actor
Leave/drop out Dropout, LeaveExam Self
Online harassment ΔStress↑, LegalRisk↑ Random target student
Athlete bonus / study hard / avoid ΔScore, ΔStress Self
Soothe / reduce stress ΔStress↓ Random target student
Pressure down ΔStress↑ Random target student

Time Incentive Function

Performance (leadership incentive) is isomorphic to teacher payoff, as an incentive function of time (t):

1
Incentive(t) = TeacherPayoff(avg score, enrolment rate) = 0.6 × avg score + 0.4 × enrolment rate

Avg score and enrolment rate are computed from current in-school students, exam takers, and admittees at time (t). Each step samples Incentive(t) to get a time series for a “time–performance” plot. Predicted exam score is updated at year-end from ScoreHistory (past 3 years) for GaokaoScore and StudentPayoff.

Nash Equilibrium and Best Strategies

Under the above payoff functions and strategy sets, the equilibrium and recommendations (simulation and theory agree):

Role Payoff/goal Strategy at Nash Recommended best strategy
Teachers (U_{\text{teacher}}=\bar{S}) and rate When avg low and many students → PUA/reduce takers (defect); when legal risk high or previous defect → normal teaching (cooperate) In repeated game: mostly normal teaching to keep reputation; consider reduction only when avg clearly low and headcount high, mind legal/moral risk
Students (U_{\text{student}}=G) (3-year correlation) High IQ, low PUA: study hard; high PUA and stress: leave or avoid Maximise 3-year score: prefer “study hard”; under high stress or PUA use “avoid” or leave to protect long-term payoff
Psychologist System stability (lower total stress) Soothe when avg stress above threshold, else no action When AvgStress > threshold soothe; else no action
Leadership Performance = (U_{\text{teacher}}) When performance below threshold pressure down (kick cat); else design incentives Low → pressure; high → design incentives, approve bonuses, allocate resources

Nash equilibrium summary: Teachers and students are in a repeated game. Persistent defection (PUA/reduce takers) triggers student retaliation (e.g. harassment) or avoidance/leave, hurting average score and rate and thus teacher payoff. At equilibrium, teachers mostly teach normally and students without extreme stress study hard, so both approach maximum payoff over time. Psychologist and leadership act on aggregate indicators (avg stress, performance) with threshold responses as above.

Simulation Design

  • Step: Advance by day (or configurable).
  • Per step: Update aggregates (student count, exam takers, rate, avg stress); for each agent call ChooseStrategy(t, agent, ctx), then ApplyStrategy(t, strategy, ...), apply consequences, append “time + content” log.
  • Output: (1) Time-series log; (2) incentive function sample (time → performance); (3) final stats (in-school, exam takers, admits, avg score, rate, performance).

Implementation Files

Source code location: zeusro/system — function/local/n/china/shantou/y

File Content
model.go Time-series types: Factor, Event, Point, NLine; time first member (Birth/T)
roles.go Role and Strategy enums; Agent (Birth first), NewAgent; Factor, InSchool, InExamPool, Score, ScoreHistory, Stress, LegalRisk, StrategyCount, LastStrategy
incentive.go IncentiveParams; Incentive(t,…), IncentiveAt; TeacherPayoff; GaokaoScore(ScoreHistory); StudentPayoff
strategy.go ChooseStrategy(t, agent, ctx) by role; Consequence; ApplyStrategy(t, strategy, …)
sim.go SimContext, SimState; LogTS, UpdateContext, Run; pickStudentTarget
y.go Main entry Y(…); newNamedAgents; outputs log, incentive sample, final stats, C13 advice
y_test.go TestY (full run, -short to skip); TestY_shortParams, TestY_shortRun

Reference

[1] Kick the cat — https://en.wikipedia.org/wiki/Displaced_aggression

Проектирование функции стимулирования в условиях образовательной бюрократии

Введение

В статье в качестве макроконтекста рассматривается система образовательной бюрократии; выделяются семейный фон, черты характера и модели поведения: (1) учителей Y, F, D; (2) учеников Иуда, Блэк Мамба, P, Y, C13; (3) школьного психолога; (4) руководства школы. «Человеческие решения» разлагаются на вычислимые переменные → оценки → вероятность / исход; анализируются политические риски и последствия разных решений, по ролям исследуются оптимальные стратегии и по возможности проектируется временная функция стимулирования для руководства школы.

Формальная логика и определения

Образовательная бюрократия: ученики подотчётны учителям, учителя управляются директором, директор подотчётен школе. Результативность школы измеряется средней успеваемостью и долей поступления в бакалавриат.

Эффект „пинок кошке“ (Kick the cat, «пинок собаке») [1]: метафора о том, что люди выше по иерархии в организации или семье переносят фрустрацию или недовольство, наказывая нижестоящих, которые в свою очередь передают это дальше по цепочке.

Функции выигрыша: выигрыш учителя — средняя успеваемость и доля поступления в бакалавриат; выигрыш ученика — личный результат вступительного экзамена; итоговый экзаменационный результат положительно коррелирует с результатами за последние три года.

Определения выигрыша (Payoff)

  • Выигрыш учителя (U_{\text{teacher}}): аргументы — средняя успеваемость (\bar{S}) и доля поступления (r)
    [U_{\text{teacher}} = w_{\text{avg}} \cdot \bar{S} + w_{\text{enroll}} \cdot r]
    В реализации (w_{\text{avg}}=0.6), (w_{\text{enroll}}=0.4). Результативность (стимул для руководства) изоморфна выигрышу учителя.

  • Прогноз экзаменационного балла ученика (G): положительная корреляция с годовыми баллами за последние 3 года, больший вес у недавних лет
    [G = w_1 S_{t-3} + w_2 S_{t-2} + w_3 S_{t-1},\quad w_1+w_2+w_3=1,\; w_1\le w_2\le w_3]
    В реализации (w_1=0.2,\,w_2=0.3,\,w_3=0.5).

  • Выигрыш ученика (U_{\text{student}}): выигрыш — прогноз личного экзаменационного балла; вне экзаменационного пула выигрыша от экзамена нет
    [U_{\text{student}} = \begin{cases} G & \text{если в экзаменационном пуле} \ 0 & \text{иначе} \end{cases}]

Количественные формулы

Формула 1: средняя успеваемость = сумма баллов учеников / число учеников

Формула 2: доля поступления в бакалавриат = число поступивших в бакалавриат / число сдававших экзамен × 100%

Моделирование персонажей

Учитель Y: использует формулу 1 для решений. Может уменьшать знаменатель (число учеников) через PUA-тактики (давление с целью ухода/отчисления); использует стояние в углу, звонки родителям, публичную критику на классных часах; ложь и уход от контроля перед моральной и правовой проверкой.

Учитель F: использует формулу 1 и формулу 2. Число учеников в формуле 1 не меняет, но может уменьшать число сдающих экзамен ради доли поступления.

Учитель D: использует формулу 1 и формулу 2. Максимизирует среднюю успеваемость без исключения учеников.

Ученик Иуда: зажиточный средний класс, подлаживается к учителю F и получает роль «управляющего». Использует сетевую травлю против других учеников, чтобы сократить численность.

Ученик Блэк Мамба: очень богатая семья; может «купить» место в бакалавриате (напр. Макао). Экзамен для него опционален.

Ученик P: низкие способности и IQ; на PUA учителя Y реагирует уходом и отчислением как пассивным сопротивлением.

Ученик Y: сильная близорукость, высокий IQ, спортсмен. Использует спортивную надбавку к экзамену; надбавка требует одобрения руководства школы.

Ученик C13: бедная семья, гений с IQ > 160.

Школьный психолог: балансир в системе; снижает психологическое давление и негативные эмоции учеников.

Руководство школы: распределяет ресурсы (кто получает надбавку, кто отчисляется), назначает психолога на целевое консультирование.

Временная метапрограммная модель квантифицирует семейный фон, IQ, EQ, PUA-воздействие, правовой/моральный риск и т.д., по ролям моделирует агентов и симулирует стратегии и последствия. Реализация на Go в каталоге function/local/n/china/shantou/.

Временная метапрограммная модель (согласована с function/time.md)

  • Первый принцип: время — первое измерение. У всех временных объектов время — первый член; у временных функций время — первый аргумент.
  • Временные объекты: у Factor, Agent, SimState первый член — Birth или Current.
  • Временные функции: Incentive(t, ...), ChooseStrategy(t, ...), ApplyStrategy(t, ...) принимают время t первым аргументом.
  • Временной лог: все события в формате «время + содержание» (LogTS).
  • Визуализация: функция стимулирования сэмплируется как (t, результативность); время по оси x.

Определения факторов

Фактор Символ/поле Диапазон Смысл
Семейный фон FamilyBackground [0,1] 0=крайняя бедность, 1=крайнее богатство; влияет на ресурсы и пути (деньги, спорт-инвестиции)
Интеллект IQ [0,1] Отображение в балл; влияет на успеваемость и понимание стратегии
Эмоциональный интеллект EQ [0,1] Влияет на устойчивость к стрессу и передачу эмоций в цепочке «пинок кошке»
PUA-воздействие PUAExposure [0,1] Интенсивность учительского PUA на данного агента
Сопротивление PUA PUAResistance [0,1] Устойчивость агента к PUA
Правовой/моральный риск LegalMoralRisk [0,1] Риск правовой/моральной ответственности за агента/действие

Чистое PUA-давление: PUAExposure × (1 - PUAResistance), движет стратегиями ухода/избегания.

Роли и моделирование стратегий

Роль Основа стимула Стратегии Логика выбора (кратко)
Учитель Y Формула 1 (среднее) PUA-сокращение, ложь/уклонение, обычное преподавание Низкое среднее и много учеников → PUA; высокий правовой риск → ложь/уклонение
Учитель F Формулы 1+2 Сокращение числа сдающих, ложь/уклонение, обычное преподавание Много сдающих и низкая доля → сократить сдающих
Учитель D Формулы 1+2 Ложь/уклонение, обычное преподавание (без исключения) Высокий правовой риск → ложь/уклонение; иначе обычное преподавание
Ученик Иуда Подлаживается к учителю F Сетевая травля, учёба Много учеников и низкий собственный риск → травля
Ученик Блэк Мамба Деньги Нет (не сдаёт экзамен)
Ученик P Низкий IQ, высокое PUA Уход/отчисление, избегание Высокое чистое PUA и стресс → уход
Ученик Y Спортивная надбавка Спортивная надбавка Стабильно: выбирает надбавку
Ученик C13 Высокий IQ, бедность Учёба Стабильно: учёба
Психолог Баланс системы Снижение стресса, успокоение Высокий средний стресс → успокоение
Руководство Результативность = стимул Давление вниз (пинок кошке), проектирование стимулов Низкая результативность → давление; высокая → проектирование стимулов

Квантификация стратегий и последствий

Стратегия Последствие (приращение/булево) Объект
PUA-сокращение ΔStress↑, LegalRisk↑ Случайный ученик-цель
Сокращение сдающих LeaveExam, LegalRisk↑ Случайный ученик-цель
Ложь/уклонение от контроля LegalRisk↓ (краткосрочно) Действующее лицо
Уход/отчисление Dropout, LeaveExam Сам агент
Сетевая травля ΔStress↑, LegalRisk↑ Случайный ученик-цель
Спортивная надбавка / учёба / избегание ΔScore, ΔStress Сам агент
Успокоение / снижение стресса ΔStress↓ Случайный ученик-цель
Давление вниз ΔStress↑ Случайный ученик-цель

Временная функция стимулирования

Результативность (воспринимаемый руководством стимул) изоморфна выигрышу учителя как функция стимулирования времени (t):

1
Incentive(t) = TeacherPayoff(средняя успеваемость, доля поступления) = 0.6 × средняя успеваемость + 0.4 × доля поступления

Средняя успеваемость и доля поступления вычисляются по состоянию на момент (t) (ученики в школе, сдающие, поступившие). На каждом шаге сэмплируется Incentive(t) для графика «время–результативность». Прогноз экзаменационного балла обновляется в конце года по ScoreHistory (последние 3 года) для GaokaoScore и StudentPayoff.

Равновесие Нэша и оптимальные стратегии

При заданных функциях выигрыша и пространстве стратегий равновесие и рекомендации (модель и теория совпадают):

Роль Выигрыш/цель Стратегия в равновесии Нэша Рекомендуемая оптимальная стратегия
Учителя (U_{\text{teacher}}=\bar{S}) и доля При низком среднем и многих учениках → PUA/сокращение сдающих (предательство); при высоком правовом риске или после предательства → обычное преподавание (кооперация) В повторяющейся игре в основном обычное преподавание для репутации; сокращение только при явно низком среднем и большом числе учеников, с учётом правового/морального риска
Ученики (U_{\text{student}}=G) (корреляция за 3 года) Высокий IQ, низкое PUA → учёба; высокое PUA и стресс → уход или избегание Максимизация балла за 3 года: приоритет «учёба»; при высоком стрессе или PUA — «избегание» или при необходимости уход для защиты долгосрочного выигрыша
Психолог Стабильность системы (снижение общего стресса) Успокоение при среднем стрессе выше порога, иначе бездействие При AvgStress > порог успокоение, иначе бездействие
Руководство Результативность = (U_{\text{teacher}}) При результативности ниже порога — давление вниз (пинок кошке); иначе проектирование стимулов Низкая → давление; высокая → проектирование стимулов, утверждение надбавок, распределение ресурсов

Равновесие Нэша: учителя и ученики в повторяющейся игре. Длительное предательство (PUA/сокращение сдающих) провоцирует ответ учеников (травля и т.п.) или избегание/уход, что снижает среднюю успеваемость и долю поступления и тем самым выигрыш учителя. В равновесии учителя в основном преподают нормально, ученики при отсутствии экстремального стресса учатся, и обе стороны в долгосроке приближаются к максимуму выигрыша. Психолог и руководство реагируют на агрегированные показатели (средний стресс, результативность) пороговой реакцией, как выше.

Дизайн имитационного эксперимента

  • Шаг: продвижение по дням (или настраиваемо).
  • За шаг: обновление агрегатов (число учеников, сдающих, доля поступления, средний стресс); для каждого агента вызов ChooseStrategy(t, agent, ctx), затем ApplyStrategy(t, strategy, ...), применение последствий, добавление лога «время + содержание».
  • Выход: (1) временной лог; (2) сэмпл функции стимулирования (время → результативность); (3) итоговая статистика (в школе, сдающие, поступившие, средняя успеваемость, доля, результативность).

Файлы реализации

Расположение исходного кода: zeusro/system — function/local/n/china/shantou/y

Файл Содержимое
model.go Временные типы: Factor, Event, Point, NLine; время — первый член (Birth/T)
roles.go Роли и стратегии (перечисления); Agent (Birth первый), NewAgent; Factor, InSchool, InExamPool, Score, ScoreHistory, Stress, LegalRisk, StrategyCount, LastStrategy
incentive.go IncentiveParams; Incentive(t,…), IncentiveAt; TeacherPayoff; GaokaoScore(ScoreHistory); StudentPayoff
strategy.go ChooseStrategy(t, agent, ctx) по ролям; Consequence; ApplyStrategy(t, strategy, …)
sim.go SimContext, SimState; LogTS, UpdateContext, Run; pickStudentTarget
y.go Главный вход Y(…); newNamedAgents; вывод лога, сэмпла стимула, итоговой статистики, совета по C13
y_test.go TestY (полный прогон, -short для пропуска); TestY_shortParams, TestY_shortRun

Ссылка

[1] Эффект «пинок кошке» — https://en.wikipedia.org/wiki/Displaced_aggression