它以独特的造型和神秘的传说,成为校园里最引人注目的存在。
有人说它是孙中山的衣冠冢,有人说它是建筑老板
在广州中山大学南校区的绿荫深处,有一座名为“永芳堂”的建筑。
它以独特的造型和神秘的传说,成为校园里最引人注目的存在。
有人说它是孙中山的衣冠冢,有人说它是建筑老板女儿的沉睡之地,更有人传言设计师们因触犯风水禁忌而离奇死亡……这些传说像一团迷雾,笼罩在永芳堂的上空,让人忍不住想要一探究竟。

永芳堂的故事,要从1990年说起。
那一年,马来西亚华侨富商、南源永芳集团董事长姚美良先生,怀着对中华文化的深厚情感和对近代先贤的崇敬之情,决定捐资一千万元人民币,在中山大学兴建一座近代中国研究中心大楼。
他以父亲姚永芳的名字命名这座建筑,既是对父亲的纪念,也是对中华文化的传承。
建筑方案通过《世界建筑》杂志公开征集,最终东南大学建筑研究所孟建民、曹彬、张宏以及东南大学建筑设计研究院陈宁的设计方案脱颖而出。
他们的设计理念独特:外方内圆的双曲面造型,象征开放中的国门;
直达三楼正厅的室外六十级台阶,寓意国家的发展进步;
前庭两侧的十八先贤铜像群,则是对近代中国为民族独立和国家富强而奋斗的先贤们的致敬。
1992年11月,永芳堂正式落成。
全国人大副委员长程思远为其题词:“发扬中国近代先烈先贤的爱国奉献精神,促进海峡两岸人民团结合作,早日实现祖国的和平统一大业。
”这座建筑,不仅是一座学术研究的殿堂,更是一座爱国主义教育的基地。

然而,永芳堂的独特造型和命名,却为它蒙上了一层神秘的面纱。
在中国传统建筑学中,建筑讲究“敛气”,模仿自然界的山环水抱,使气机平和稳定地流转。
而永芳堂的设计却反其道而行之,不内敛,反而将气机外放,形成了一种冲煞的格局。
这种设计在军事建筑中较为常见,但在校园建筑中却显得格格不入。
更有人指出,永芳堂的正面墙体由三个向外拱起的弧面组成,仿佛三把利刃直指前方,而前庭的十八先贤铜像群,则像极了陵墓前的石人石马。
这种布局,让人不禁联想到陵墓的守灵场景。
于是,关于永芳堂是“陵墓”的传说开始在校园里流传开来。
而“永芳”二字的来历,更是为传说增添了几分凄美。
有人说,永芳堂下面埋着建筑老板的女儿阿芳,她名字中有个“芳”字,所以这座建筑才得名“永芳堂”,寓意“芳永远沉睡于此”。
深夜路过的人,偶尔能听到里面传来年轻女子的啜泣和幽幽的歌声,仿佛阿芳的灵魂仍在此处徘徊。
如果说永芳堂的造型和命名只是为传说提供了土壤,那么设计师们的离奇死亡,则让这些传说变得更加扑朔迷离。
有人传言,参与永芳堂设计的建筑师们在工程完工后一年内全部离奇死亡,仿佛是被自己设计的凶阵反噬。

然而,事实真的如此吗?经过查证,永芳堂的设计团队包括孟建民、曹彬、张宏和陈宁四人。
其中,孟建民是中国工程院院士、国务院政府特殊津贴获得者,至今仍活跃在建筑界;
张宏也是国内知名的建筑师和建筑学教授。
至于曹彬和陈宁,虽然公开信息较少,但并无证据表明他们因设计永芳堂而遭遇不幸。
因此,所谓“设计师全部离奇死亡”的说法,更像是一种无稽之谈。
除了设计师的离奇死亡,永芳堂还有许多令人毛骨悚然的传说。
有人说,永芳堂前的十八尊先贤铜像,每一尊都被一条锁链牢牢锁住。
如果有人发现哪个铜像的锁链不见了,很快就会有教授或学生死于非命。
更神秘的是,传说在子夜时分,这里会出现会动的第十九座铜像,至今无人亲眼目睹其真面目。
还有人说,永芳堂的楼梯早上和下午数的阶数总是不一样。
这种变幻莫测的台阶,让人不禁联想到灵异现象。
然而,经过实地考察和科学分析,这些传说似乎并没有科学依据。
铜像的锁链可能是为了保护铜像不被破坏而设置的;
而台阶的阶数不同,则可能是由于视觉误差或测量不准确造成的。
面对这些扑朔迷离的传说,我们不妨回到历史的长河中,寻找真相的线索。
根据中山大学档案馆所藏档案和公开资料显示,永芳堂的设计方案是通过公开征集和专家评审确定的,其设计理念独特且富有象征意义。
建筑名称“永芳堂”则是为了纪念捐建人姚美良先生的父亲姚永芳先生而命名的。

至于那些灵异传说,则更像是校园文化和民间传说的结合体。
它们或许源于人们对未知事物的好奇和恐惧,或许是对建筑造型和命名的一种解读和想象。
然而,无论这些传说如何离奇和恐怖,它们都无法改变永芳堂作为一座学术研究和爱国主义教育基地的事实。
如今,永芳堂已经不再是那个被灵异传说笼罩的神秘建筑。
它作为中山大学历史系的教学楼和孙中山纪念馆的所在地,承载着传承中华文化和弘扬爱国主义精神的重任。
每年的清明节和孙中山诞辰纪念日,都会有大量的师生和游客前来参观和缅怀先贤。
同时,永芳堂也在不断地创新和发展中。
随着中山大学校园改造工程的推进,永芳堂也迎来了新的面貌。
虽然它的外观和布局可能有所改变,但它所承载的历史记忆和文化精神却将永远铭刻在人们的心中。
网传中山大学发生灵异事件的地点共三处,岭南堂、永芳堂以及文科楼,今天诡姐先说说中山大学永芳堂灵异事件。
永芳堂01据传闻,中山大学南校区内永芳堂下面埋着一具女尸,这具女尸是建筑老板的女儿,在永芳堂的修建过程中,这位建筑老板的女儿突然意外身亡,伤心的老板就把女儿的骨灰埋在了那里,因为这个女孩儿名字中有个芳字,所以这座建筑得名永芳堂,意思是阿芳姑娘永远沉睡在那里。
也有另一种说法,永芳堂为孙中山先生的衣冠冢。
自建成后,永芳堂便灵异事件不断,学生们说时不时就会听到半夜有女生的哭声和歌声,十分幽怨凄凉。
永芳堂的楼梯,半夜数的时候会比白天少一层,永芳堂外的18个铜像,每个铜像还用锁链锁住,如果有人发现任何一个铜像没有锁链的话,就会有教授或者学生死于非命。
另有传闻,子夜十分,永芳堂前,将出现会动的第十九座铜像,不过至今无人见过其真面目。
永芳堂的设计师们也是命运多舛,在永芳堂建筑刚刚建好的时候,设计师等一干人便在一年之内全部死亡了。
永芳堂落成以后不久,捐资人也突然不幸英年早逝了,后来有人发现永芳堂的阶梯数目,也正是永芳老板的寿年。
单看永芳堂的造型看的话,从上方俯瞰是半圆型的,大门口呈八字形向两边展开,又有一条石阶从二楼的大门连到地面上,加上石阶两旁的铜人像整体看起来就像一个墓,18铜人是在为其守灵。
事实上,永芳堂是马来西亚的著名爱国华侨姚美良先生,为了弘扬中华文化、纪念近代先贤,在1990年决定出资创办的中山大学近代中国研究中心。
姚美良02为什么取名为"永芳堂"呢?因为姚美良的父亲名为姚永芳。
(姚永芳于上世纪三十年代离乡远渡到马来西亚,创办了"南源布庄百货洋行",经营各类布匹、日用百货和化妆品。
其首创的"永芳"高级系列产品是第一个以华人的名字命名和创造的化妆品。
)永芳堂这个名字是在大楼主体工程完工后,中大领导征集姚美良先生以后确立的。
关注公众号诡不言,每天推送诡闻怪谈,姚美良先父姚永芳,是马来西亚的太平绅士、当地侨领,享年67岁,为纪念姚永芳先生,近代中国研究中心大楼便取名"永芳堂"。
永芳堂外形设计的初衷是外方内圆,舒展的两翼象征开放中的国门,直达三楼正厅的室外六十级台阶象征着国家的发展进步。
永芳堂建成以后,姚美良先生再向中大捐资一百万元人民币建设十八先贤铜像广场。
这十八先贤铜像位于永芳堂广场两侧,依次为:孙中山、蔡元培、 章炳麟、梁启超、康有为、邓世昌、黄遵宪、魏源、林则徐、黄兴、张骞、詹天佑、秋瑾、谭嗣同、严复、冯子材、容闳、 洪秀全。
看看这十八个响亮的名字,相信没有哪个人胆子大到敢给他们锁上锁链!当然,更没有哪个人敢让这十八位先贤为自己守灵!至于永芳堂设计师等一干人在一年之内全部死亡一事更是无稽之谈!因为永芳堂的设计者为东南大学建筑研究所的孟建民、曹彬、张宏以及东南大学建筑设计研究院的陈宁。
这四人依旧在世。
永芳堂出资人在永芳堂建成后不久就去世一事也是子虚乌有,永芳堂是在1990年开始建造的,而出资人姚美良去世于1999年,这两件事根本不搭边。
还有永芳堂外台阶数目正好为出资人享年一事前面也说过,永芳堂台阶是六十级。
如今,永芳堂为满足历史系学生的学习工作需要,已扩建成了"红砖绿瓦拱廊"等岭南建筑特点,原本的十八座铜像也已被迁走,更为灵异故事的传播添砖加瓦。
尤其是在 Coding Agent 爆发之后,算力问题变得前所未有地尖锐。
Claude Code、Codex、Cursor 等产品正在把 AI 从「问答工具」变成「持续运行的软件协作者」,单次会话轻松突破 50K tokens,系统负载转向了更极端、更复杂的智能体负载。
最近有关算力的大新闻层出不穷。
今天的最新消息:马斯克的 SpaceX 与 Anthropic 宣布达成了重磅协议,超过 22 万块英伟达 GPU 将为 Anthropic 所用。
而 Anthropic 对与 SpaceX 合作开发未来的太空算力体系「表示有兴趣」。
在如此庞大的算力需求下,除了开源还有节流。
也是今天的最新消息:OpenAI 发布了多路径可靠连接 (MRC),可帮助大型 AI 训练集群更快、更可靠地运行,并减少 GPU 时间的浪费。
我们知道,即便只是单 GPU 吞吐率上的微小提升,一旦应用到生产级集群中,也能够在服务持续增长需求的同时,节约相当可观的算力。
来自 LightSeek Foundation 的一个小团队,在两个月时间内打造了一个全新的,号称「光速」的大模型推理引擎 TokenSpeed。
这一引擎拥有 TensorRT LLM 级别的性能,vLLM 级别的易用性。
并且拥有 NVIDIA Blackwell 上最快的 MLA 注意力内核。
一经发布,TokenSpeed 就受到了英伟达发推文力荐。
目前,该引擎已经开源。
让我们参阅其技术博客,来深入了解「光速」引擎的技术细节。
博客标题:TokenSpeed: A Speed-of-Light LLM Inference Engine for Agentic Workloads 博客链接:https://lightseek.org/blog/lightseek-tokenspeed.html Github 链接:https://github.com/lightseekorg/tokenspeed TokenSpeed 技术简介 TokenSpeed 从第一性原理出发,专门为智能体推理场景设计。
它为智能体负载提供接近「光速级」的推理能力,核心包括:基于编译器的并行建模机制、高性能调度器、安全的 KV 资源复用约束、支持异构加速器的可插拔分层 kernel 系统,以及用于低开销 CPU 侧请求入口的 SMG 集成。
建模层采用本地 SPMD(Single Program, Multiple Data,单程序多数据)设计,在性能与易用性之间取得平衡。
TokenSpeed 允许开发者在模块边界指定 I/O placement 注解。
随后,一个轻量级静态编译器会在模型构建过程中自动生成所需的 collective operation,从而无需手动实现通信逻辑。
TokenSpeed 调度器将控制平面(control plane)与执行平面(execution plane)解耦。
控制平面使用 C++ 实现,并被构建为一个有限状态机(FSM),结合类型系统,在编译期而非运行期强制执行安全资源管理,包括 KV cache 状态转移与使用。
请求生命周期、KV cache 资源以及重叠执行时序,都通过显式 FSM 状态迁移与所有权语义进行表示,因此系统正确性并非依赖约定,而是由一个可验证的控制系统来保证。
执行平面则使用 Python 实现,以保持开发效率,使研究人员与工程师能够更快进行功能迭代,并降低整体认知负载。
TokenSpeed 的 kernel 层将 kernel 从核心引擎中解耦,并将其视为一级模块化子系统。
它提供了可移植的公共 API、集中的注册与选择机制、组织良好的实现结构、面向异构加速器的可扩展插件机制、经过整理的依赖体系,以及统一的快速迭代基础设施。
与此同时,团队还针对 NVIDIA Blackwell 架构进行了大量性能优化。
例如,他们构建了当前智能体负载场景下速度最快的 MLA(Multi-head Latent Attention,多头潜在注意力)kernel 之一。
在 decode kernel 中,由于部分场景下「num_heads」较小,团队通过对「q_seqlen」与「num_heads」进行分组,以更充分利用 Tensor Core 的计算能力。
而 binary prefill kernel 则包含了经过精细调优的 softmax 实现。
目前,TokenSpeed MLA 已被 vLLM 采用。
TokenSpeed 性能预览 Coding Agents(编码智能体)带来了异常严苛的推理工作负载,上下文通常会超过 50K tokens,对话也经常跨越数十轮。
大多数公开基准测试并不能充分捕捉这种行为。
研发团队与 EvalScope 团队一起,基于 SWE-smith 轨迹对 TokenSpeed 进行评估,这些轨迹密切反映了生产环境中 Coding Agents 的流量情况。
由于生成速度对 Agent 的用户体验至关重要,因此,团队的目标是在维持单用户 TPS(每秒 token 数)下限的同时,最大化单 GPU 的 TPM(每分钟 token 数)—— 通常是 70 TPS,有时是 200 TPS 或更高。
此外,研发团队针对 TensorRT-LLM(目前 NVIDIA Blackwell 平台上的最高水平)对这一设计进行了基准测试,并在认为针对 Agentic workloads 存在更好权衡的地方,采取了与之不同的设计方案。
下图展示了在不同部署配置下(无 PD 解耦),TokenSpeed 与 TensorRT-LLM 的 Kimi K2.5 性能帕累托曲线(Pareto curves)。
每条曲线都以 TPS/User(横轴)作为延迟指标,以 TPM/GPU(纵轴)作为吞吐指标,并通过扫描并发数绘制而成。
对于 Coding Agents(高于 70 TPS/User),最佳配置是 Attention TP4 + MoE TP4。
在这一配置下,TokenSpeed 在整个帕累托前沿上均优于 TensorRT-LLM:在最低延迟场景下(batch size 1)大约快 9%,在 100 TPS/User 附近吞吐量大约高 11%。
团队表示,他们的核心优化之一是 TokenSpeed MLA。
下图对比了 TokenSpeed MLA 与 TensorRT-LLM 的 MLA,后者是目前 NVIDIA Blackwell 上的 SoTA。
可以看出来,优化后的二进制版本预填充内核(prefill kernel),使用 NVIDIA 内部旋钮来微调 softmax 实现,在 Coding Agents 的五种典型预填充工作负载(带长前缀 KV cache 的 prefill)中,都超过了 TensorRT-LLM 的 MLA。
解码内核则将查询序列轴折叠进头轴,以更好地填充 BMM1 的 M tile,从而提升 Tensor Core 利用率。
结合其他优化,在带有 speculative decoding 的典型解码工作负载中(batch size 为 4、8、16,且带长前缀 KV cache),这使得相对于 TensorRT-LLM 来说,延迟几乎降低了一半。
最后,研发团队也表示,该项目于 2026 年 3 月中旬启动开发,虽然目前展示了惊人的性能,但仍有大量底层代码(如 PD 分离、KV 存储等)正在合并和完善中,接下来将继续推进。
从上述性能表现来看,不难看出,TokenSpeed 的出现旨在通过更现代化的架构设计,打破传统推理框架在易用性与极致性能之间的平衡点,为大规模 Agent 部署提供了一个高性能、开源的底座。
而英伟达的力荐,也说明推理引擎正在成为 Agent 时代基础设施竞争的一个新焦点。
更多信息,请参阅原博客! 参考链接: https://x.com/lightseekorg/status/2052048105412141376 https://x.com/NVIDIAAI/status/2052061195381911806