news 2026/4/23 16:26:20

兆易创新通过聆讯:9个月营收68亿 总经理何卫拟减持 可套现超千万

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
兆易创新通过聆讯:9个月营收68亿 总经理何卫拟减持 可套现超千万

雷递网 雷建平 12月18日

兆易创新科技集团股份有限公司(简称:“兆易创新”)今日通过上市聆讯,准备在港交所上市。

兆易创新已在A股上市,截至今日收盘,公司股价为202.18元,市值为1350亿元。

一旦在港交所上市,兆易创新将形成“A+H”格局。

总经理何卫拟减持 将套现超千万

截至本公告披露日,兆易创新副董事长、总经理何卫持有公司股份255,207股,占公司当前总股本的比例为0.0382%;公司董事、副总经理胡洪持有公司股份425,845股,占公司当前总股本的比例为0.0638%;公司副总经理、财务负责人孙桂静女士持有公司股份193,140股,占公司当前总股本的比例为0.0289%;公司副总经理李宝魁持有公司股份122,673股,占公司当前总股本的比例为0.0184%。

兆易创新称,于近日收到部分董事及高级管理人员出具的《股份减持计划告知函》,因个人资金需求,何卫、胡洪、孙桂静女士、李宝魁拟自披露该减持计划公告起15个交易日后的3个月内,采取集中竞价交易方式减持股份数量不超过其各自持有公司股份总数的25%。

其中,何卫拟减持不超过63,800股,占公司当前股份总数的0.0096%;胡洪拟减持不超过106,400股,占公司当前股份总数的0.0159%;孙桂静女士拟减持不超过48,200股,占公司当前股份总数的0.0072%;李宝魁拟减持不超过30,600股,占公司当前股份总数的0.0046%。

以目前股价计算,何卫、胡洪均可套现超千万。

年营收73.56亿

兆易创新是一家多元芯片设计公司,为客户提供包括Flash、利基型DRAM、MCU、模拟芯片及传感器芯片等多样化芯片产品,以及包括相应算法、软件在内的一整套系统及解决方案。

招股书显示,兆易创新2022年、2023年、2024年营收分别为81.3亿元、57.61亿元、73.56亿元;毛利分别为37亿元、17.46亿元、26.23亿元;毛利率分别为45.5%、30.3%、35.7%。

兆易创新2022年、2023年、2024年运营利润分别为22.74亿、1.36亿、11.5亿;经营利润率分别为28%、2.4%、15.6%;年内利润分别为20.53亿、1.61亿、11亿;年内利润率分别为25.3%、2.8%、15%。

兆易创新2022年、2023年、2024年经调整净利分别为22.56亿元、2.58亿元、12.6亿元。

兆易创新2025年前9个月营收68.32亿,同比增长20.92%;净利为10.83亿元,同比增长30.18%;扣非后净利为10.42亿元,同比增长34%。

其中,兆易创新2025年第三季营收26.81亿元,同比增长31.4%;净利为5.08亿元,同比增长61.13%;扣非后净利为5亿元,同比增长63.71%。

葛卫东是股东

兆易创新执行董事分别为朱一明、何卫、胡洪;非执行董事为文恬女士,独立非执行董事分别为周海涛、钱鹤博士、杨小雯女士、陈洁博士、郑晓东。

截至2025年9月30日,朱一明持股为6.86%,香港中央结算有限公司持股为4.54%,葛卫东持股为2.55%;

InfoGrid持股为1.96%,中国工商银行股份有限公司-华泰柏瑞沪深300交易型开放式指数证券投资基金持股为1.7%;中国建设银行股份有限公司-易方达沪深 300 交易型开放式指数发起式证券投资基金持股为1.22%;

中国建设银行股份有限公司-华夏国证半导体芯片交易型开放式指数证券投资基金持股为1.21%,招商银行股份有限公司-银河创新成长混合型证券投资基金持股为1.09%;

聯意(香港)有限公司持股为0.99%,中国工商银行股份有限公司-华夏沪深 300 交易型开放式指数证券投资基金持股为0.91%。

——————————————

雷递由媒体人雷建平创办,若转载请写明来源。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/21 0:52:00

FaceFusion与Appsmith企业级低代码平台集成案例

FaceFusion与Appsmith企业级低代码平台集成实践 在AI视觉技术加速落地的今天,一个现实挑战摆在许多企业面前:如何让前沿的人工智能模型走出实验室,真正被业务人员使用?尤其是在人脸编辑、虚拟内容生成这类高门槛领域,开…

作者头像 李华
网站建设 2026/4/20 20:43:44

Open-AutoGLM任务中断恢复全解析(90%工程师忽略的关键checkpoint策略)

第一章:Open-AutoGLM 任务中断恢复机制概述在大规模语言模型自动化推理与生成任务中,长时间运行的流程常因系统故障、资源不足或网络波动导致意外中断。Open-AutoGLM 引入了一套稳健的任务中断恢复机制,确保任务在异常终止后能够从最近保存的…

作者头像 李华
网站建设 2026/4/23 8:34:46

【Open-AutoGLM模型下载加速指南】:5种高效解决方案让你告别慢速等待

第一章:Open-AutoGLM模型下载慢的根源分析在使用 Open-AutoGLM 模型时,用户普遍反馈模型下载速度缓慢,严重影响开发与部署效率。该问题并非单一因素导致,而是由多个网络、架构与配置层面的原因共同作用的结果。服务器地理位置分布…

作者头像 李华
网站建设 2026/4/20 13:07:03

Open-AutoGLM推理优化黄金法则(性能提升90%+延迟降低至80ms以下)

第一章:Open-AutoGLM推理优化的背景与意义随着大语言模型在自然语言处理任务中的广泛应用,如何提升其推理效率成为工业界和学术界共同关注的核心问题。Open-AutoGLM作为开源的自动推理优化框架,旨在通过系统化的方法降低大模型部署成本&#…

作者头像 李华
网站建设 2026/4/22 22:01:16

错过等于落后!Open-AutoGLM推理加速最新实践,5个关键技巧必须掌握

第一章:Open-AutoGLM 推理速度优化路径在大规模语言模型的实际部署中,推理延迟直接影响用户体验与系统吞吐能力。Open-AutoGLM 作为一款面向自动化任务的生成式语言模型,其推理效率优化成为关键课题。通过模型结构精简、计算图优化与硬件适配…

作者头像 李华