【关于我们】
我们是一家领先的全球量化交易企业和流动性提供商,致力于提供卓越的风险调整后回报。通过结合全面的数学分析、丰富的金融市场知识以及尖端的人工智能技术解决方案,我们的交易模型经受住了时间的考验。我们是系统化决策、算法执行和主动风险管理领域的先驱。我们的团队由来自顶级投资银行的资深专业人士和拥有知名学府背景的毕业生组成。
在瞬息万变的资本市场中,准确、可靠地处理海量实时数据 是交易策略成功的基石。我们构建了从多源行情、新闻、宏观、风控、订单簿等多种数据采集、清洗、聚合,到混合RAG推理生成交易信号,再到多模型执行引擎和智能化资金管理的全链路高性能 AI 平台。
【职责范围】
1.时序数据库(TSDB)管理与优化
● 部署、扩容并运维时序数据库集群(如 InfluxDB / TimescaleDB / Doris 时序表);
● 设计高效的时序数据模型和分区策略,支持 K 线、Tick、指标等海量写入与查询;
● 定期执行健康检查与慢查询分析,优化 Retention Policy、Downsampling、索引配置;
● 实现时序数据备份/恢复与容灾切换,保障金融级 SLA 要求。
2.Redis & 缓存层
● 设计并实施高可用 Redis 架构,支撑 raw_data_queue、trade_signals_queue、热点 T+0 账户查询等高并发场景;
● 优化分片、持久化、内存淘汰与高并发访问;
● 监控并排查 Redis 故障,编写自动化故障恢复与切换脚本。
3.Flink & 实时 ETL
● 使用 Apache Flink 构建流式 ETL 作业,将 Kafka 或 TSDB 变更流清洗并入 Redis、Doris、Elasticsearch 等下游存储;
● 利用 Flink 状态后端、检查点和 Savepoint,实现 Exactly-Once 语义和高可用容错;
● 与 Data Ingestion Orchestrator 协作,确保分钟级与秒级上下文 JSON 聚合和时序写入精准可靠。
4.Kafka & 消息管道
● (可选)部署与维护 Kafka 集群,用于实时事件与数据流的分发;
● 配置主题、分区与消费组,确保 Flink 作业与订阅客户端的高效对接;
5.数据治理与安全
● 在 TSDB、Redis、Flink 等组件中实施访问控制、传输加密与审计日志;
● 定期执行安全补丁与漏洞扫描,符合金融级合规标准。
6. 基础设施与维护
● 运维大规模 Kubernetes 与 Linux 环境,监控节点资源与网络性能;
● 承担 DevOps 职责,实现 ETL 服务的自动化部署、灰度发布及回滚;
7. 文档与协作
● 撰写并维护 ETL 流程配置、操作手册及最佳实践;
● 与模型业务、系统业务、交易前台业务单元同事紧密配合,提供可观测、可追溯数据管道;
● 参与值班轮岗,快速响应生产环境突发事件。
【职位要求】
● 计算机、软件工程、数据工程或相关专业本科及以上学历;
● 3 年及以上大数据/实时处理经验,精通时序数据库(KDB or TimescaleDB or Doris TS)、Redis、Flink 中至少两项;
● 深入理解时序数据分区、Retention Policy、Downsampling 与高并发查询优化;
● 熟练掌握 Redis 集群架构、持久化与高并发访问调优;
● 熟悉 Flink 有状态流处理、Checkpoint、Savepoint 与容错机制;
● 掌握 Linux 运维与 Kubernetes 自动化部署;
● 精通 Python/Java/Scala 编写 ETL 作业,具备 SQL 与时序查询优化能力;
● 优秀的故障排查与 on-call 响应能力,良好的跨团队沟通与文档撰写能力;
● 具备高度的责任心,愿意签署严格的保密协议并履行保密义务;
● 英语听说读写能力强者优先,可快速定位国际化组件文档与技术社区资源者优先,可适应海外公司轮派常驻者优先。
【福利待遇】
● 具有竞争力的基本薪资与绩效奖金;
● 扁平化管理体系与充满活力的创新团队文化;
● 每年多次海外差旅及专项培训机会;
● 五险一金、带薪年假、年度健康体检、团建活动等完善福利。
【工作地点】
上海、深圳、新加坡、新山
如有意向可将简历发至Careers@liangheng.top,请在邮件标题处注明: 姓名+申请职位