
AI 基础设施工程师 / 全栈架构师
专注于构建高性能 AI 应用基础设施的全栈架构师。以 Go 和 React 为核心技术栈,辅以 Rust 解决极端并发场景。在 AI Agent 编排、多模型高并发网关设计及实时协作系统(CRDT)方面拥有生产级落地经验。擅长通过底层工程优化(数据库调优/零拷贝)解决 AI 应用中的成本与延迟痛点,具备从复杂交互前端到高性能后端的全链路闭环能力。
精通 Go 语言高性能后端开发,具备 Rust (Tokio) 辅助构建高并发网关的能力。擅长设计基于 Actor 模型的消息系统,以及利用 CRDT 算法解决分布式实时协作难题。
精通 LLM 应用架构设计。包括:多模型统一路由与熔断、RAG 检索增强优化(Scatter-Gather 模式)、以及“LLM + 规则引擎”混合校验系统的构建。
擅长数据库深度调优。包括 PostgreSQL 内核参数优化、TinyLFU 智能缓存算法实现、海量数据写入优化(COPY 协议/分区表),以及向量数据库应用。
精通 React/Next.js 生态与复杂 Web 应用架构。擅长实现 Headless BI 设计、流式渲染(Stream Hydration)、Canvas 可视化交互及 WebWorker 多线程处理。
熟悉云原生体系。掌握 Docker/K8s,精通基于 Casbin 的 RBAC/ABAC 混合鉴权体系设计,具备防御性编程与服务降级治理经验。
技术负责人 / AI Infra|广州
直接汇报给创新业务线总监,全权负责企业 AI 基础设施与供应链数字化转型的架构落地。构建的 AI 协同生态直接赋能全公司数千名员工,深度覆盖内容创作(视频/多媒体)、产研研发及营销销售等核心业务线。主导了从供应链溯源、企业知识中台到多模态创意工具的建设,解决了高并发资源调度、大规模实时协作及数据合规等关键工程难题。
全栈工程师|广州
独立负责 AI 改色 SaaS 平台的全栈研发。基于 Go+Fiber 与 ComfyUI 构建了高可用的文生图/图生图处理管线,支撑 B/C 端业务快速增长。
后端开发工程师|平台部|广州
负责数据中台核心服务开发,专注于数据质量控制与高性能比对算法优化。
一个集成式 AI 创意生产环境。针对多模型 API 的高并发 IO 等待痛点,在 Go 业务层之外引入 Rust 构建核心连接网关。
业务涉及海量长连接等待,且多模型调用缺乏统一的成本审计与熔断机制
使用 Rust/Tokio 重构网关,利用 Future 零成本抽象挂起任务;集成 Token 级实时计量与预算熔断
单机并发提升 5 倍,内存占用降低 80%,并实现精确到部门的 AI 成本归因
多人在 100ms 延迟下操作复杂图数据(Graph),极易产生“幽灵连线”与状态冲突
集成 Yrs (Rust Port of Yjs) 实现 CRDT 二进制状态合并,配合环形缓冲 (Ring Buffer) 做批量写优化
彻底解决协作冲突,将高频操作下的数据库 IOPS 降低 99%,系统具备极强的 Panic 隔离能力
复杂的 Agent 任务(如从数据库中查品牌词)串行执行导致首字延迟(TTFB)过高
利用异步模型实现 Scatter-Gather 模式,并行分发无依赖的 IO/计算任务
复杂任务的 TTFB 降低约 40%,显著提升了用户侧的流式响应体验
基于飞书生态的 AI 中台基座。向下构建统一身份鉴权网关,中间层实现支持启发式路由的 Agent 编排内核,向上支撑 ChatBI、智能问答等多业务线。
用户的综合性需求(如“新药上市合规审查”)往往跨越法律、医疗、舆情等多个隔离领域,单一 Prompt 无法协调异构工具链进行深度推理
设计结构化 DSL 定义有限状态机 (FSM),将复杂任务拆解为“规划-调用-反思”的序贯流程,管理跨工具上下文流转
将发散的自然语言转化为可控的确定性执行流,实现了复杂跨域任务的自动化闭环
系统接入了 50+ 个异构工具(含多个垂直领域知识库),全量检索噪音巨大且上下文开销极高
构建启发式路由网关,作为前置决策层精准分发 Query;配合“关键词+向量+重排序”的混合检索策略提升工具调用准确度
显著降低了 Agent 的上下文负载,支持新工具/知识库的“分钟级”热插拔注册
需同时处理标准 RBAC 与“入职满3年”等动态属性权限,且处于高频关键路径
扩展 Casbin 运行时,注入飞书属性匹配算子构建 Hybrid RBAC/ABAC;利用 Zero-Alloc 优化热点路径
实现飞书组织架构变更的秒级权限同步,单机万级 QPS 下 Zero GC 抖动
Text-to-SQL 生成存在概率性语法错误,且直接执行存在 DML/DDL 安全风险
构建“生成-执行-报错-重写”的递归自愈闭环;基于 AST 解析实施物理级只读阻断
SQL 最终执行成功率达 95%+,在保障数据绝对安全的前提下实现了自助分析
LLM 响应混合了思维链与文本,且生成的 SQL 数据结构(长表)与前端图表库(宽表)存在阻抗失配
构建无依赖流状态机实现即时渲染;设计“长宽表变形管道”与多态图表工厂,结合 OKLCH 算法实现自适应可视化
实现了“边思考、边执行”的白盒化体验,以及与 UI 库解耦的 Headless BI 渲染架构
面向制造业的端到端数字化方案。针对传统工厂数字化推行难的痛点,创新性地采用“无头架构”打通数据孤岛,并利用"LLM+规则引擎”技术解决非结构化质检报告的自动化采集与合规审计。
传统制造业一线员工抗拒复杂的 ERP 表单录入,导致数字化“最后一公里”数据断层
放弃传统后台,设计“文件即数据库”的无头架构,直接复用飞书云文档作为数据入口,适配员工原有操作习惯
实现业务侧“零培训”上线,将数据采集的人工摩擦降至零,确保了数据源头的真实性与完整性
工业质检对合规判定容错率为零,纯 LLM 方案存在幻觉风险且难以过审
构建分层防御体系:Schema 强制约束输出格式,IBAC 实施逻辑交集鉴权,代码层负责硬核数值比对
实现了“可审计的智能”,在保留 LLM 通用理解力的同时锁死了安全合规下限
移动端弱网下查看数万份报告长列表卡顿,传统 LRU 缓存易受扫描污染
引入 TinyLFU 算法提升缓存命中率;后端实现 AES 解密零拷贝,前端全链路二进制传输
弱网首屏加载提速 50%,长列表滚动保持 60FPS,后端数据库压力大幅降低
构建面向全渠道(天猫/抖店)的电商数据资产化基础设施。作为数据中台的上游核心链路,该系统负责屏蔽外部异构平台的数据差异与网络复杂性,通过高吞吐采集、自动化清洗及全域身份对齐,将碎片化的外部流量转化为标准化的企业私域资产。
外部平台返回的数据为加密 MD5,无法直接用于营销触达;需预构建覆盖全中国手机号段(10亿+)的映射字典
采用“临时表 + COPY 协议”策略缓冲海量字典数据,配合 bytea 二进制压缩存储,实现从加密数据到明文资产的毫秒级还原
构建了低成本、高吞吐的解析基础设施,支撑了千万级电商会员数据的清洗与入库
外部平台强 SLA (5s) 约束,DB 抖动易引发重试风暴击穿系统
设计混合竞速模式 (Sync/Async Race),主动熔断超时请求;实施多级流量整形与背压控制
将数据接入接口的外部可用性锁定在 100%,从架构层面根除了级联雪崩风险
内网采集服务需接收公网 Webhook 鉴权回调,长期开放端口存在巨大的安全合规风险
设计“拦截-穿透-销毁”状态机:在检测到 401 时挂起并发请求 -> 瞬间建立临时隧道 -> 获取 Token -> 立即销毁隧道并恢复请求
通过这种“快进快出”的毫秒级窗口策略,在满足公网交互的同时将安全攻击面压缩至近乎为零
构建智能化的汽车改色可视化平台。解决传统改装行业效果不可预知、信息壁垒高的痛点,通过 AI 生成技术赋能 B 端门店销售转化与 C 端用户体验。
AI 生成任务计算密集且耗时长,单机处理易导致队头阻塞与资源利用率低
设计基于 Kafka 的动态调度机制,实现任务智能分发与负载均衡;引入异常重试策略
系统吞吐量提升 3 倍,平均等待时间减少 60%,任务处理成功率达 99.5%
传统 GAN 方案生成的车辆光泽度失真,难以满足商业级预览需求
设计基于 Stable Diffusion + ControlNet 的精准控制流,优化材质渲染算法
支持 60+ 种颜色与 95% 常见车型,在数秒内生成接近真实喷漆质感的高清预览图
传统 FAQ 无法满足用户个性化的改装咨询需求,人工客服成本高
构建基于向量数据库的 RAG 知识库,结合 LLM 提供 24/7 智能问答服务
极大提高了客户自助解决率,显著降低了人工客服工作负载
为数据开发团队提供全链路数据质量治理能力。确保大规模数据流转过程中的准确性、完整性与一致性,保障医疗数据的合规安全。
原 Java 实现的大规模数据比对存在性能瓶颈,严重影响数据开发效率
引入 Rust 重写核心算法,优化内存布局与数据结构,将时间复杂度降至 O(n)
接口响应速度提升 52%,CPU 和内存占用显著减少,支撑千万级数据快速比对
在开发测试环境中需实时脱敏敏感数据,传统正则替换效率低下
设计基于类前缀树 (Trie) 的高效脱敏算法,支持多级策略动态配置
在保障数据可用性与合规性的同时,处理效率提升 65%
数据质量校验规则多变,硬编码方式难以维护
设计基于表达式的动态规则引擎,支持复杂条件组合与自定义函数
覆盖 90% 以上常见数据质量问题,实现了校验规则的灵活配置
构建统一的人力资源数据仓库(HR Data Warehouse)。打破 CRM、禅道、钉钉等业务系统的数据孤岛,通过标准化的数仓建模为组织决策提供可量化的数据支持。
各业务系统数据口径不一,难以进行跨维度的统一量化与下钻分析
设计事实表(Fact)与维度表(Dim)的星型模式,建立了 15 个核心维度与 8 个关键业务过程事实表
构建了标准化的数据模型,支持多维度的绩效透视分析,将用户报表产出时间缩短 65%
源端数据存在大量脏数据与格式差异,直接计算会导致绩效评估失真
构建 ODS 到 DWD 的清洗层,设计数据质量监控指标(DQC)与异常阻断机制
数据准确性提升至 99.5%,实现了异常数据的自动识别与告警,保障了数仓的可信度
需整合 CRM、研发系统、OA 等 5+ 个异构数据源,结构差异巨大
设计统一的异构数据抽取层 (EDL),通过元数据驱动(Metadata-Driven)实现自动映射与转换
实现了全域绩效数据的自动化采集与更新,减少 90% 的人工数据整理工作
独立开发者