weflowly
本站致力于IT相关技术的分享
在 Next.js 应用中集成 Zig WebAssembly 模块对 Algolia 搜索结果进行实时客户端重排序 在 Next.js 应用中集成 Zig WebAssembly 模块对 Algolia 搜索结果进行实时客户端重排序
项目初期,Algolia 提供了无与伦比的搜索性能,毫秒级的响应速度让用户体验极为流畅。我们的技术栈是经典的组合:后端使用 Ruby on Rails 管理数据和业务逻辑,并负责将数据同步至 Algolia;前端则采用 Next.js 构建
2023-11-15
构建从 Micronaut gRPC 服务到 SwiftUI 客户端的自动化协议驱动开发管道 构建从 Micronaut gRPC 服务到 SwiftUI 客户端的自动化协议驱动开发管道
跨语言、跨平台的技术栈协作中,最大的摩擦力源于客户端与服务端之间的契约同步。在 SwiftUI 原生应用与 Micronaut 后端的组合中,gRPC 凭借 Protobuf 提供了强类型的契约定义,但这仅仅是起点。当团队规模扩大、迭代速度
2023-10-27
使用 C#、Redis Streams 和 Datadog 构建可观测的 LLM 推理任务管道 使用 C#、Redis Streams 和 Datadog 构建可观测的 LLM 推理任务管道
一个看似简单的同步 LLM 调用是许多生产事故的开端。 // 这是最直接的方式,也是最脆弱的方式。 [ApiController] [Route("api/generate")] public class GenerationControl
2023-10-27
基于Tornado与LevelDB构建低延迟推荐系统实时特征节点及Loki可观测性实践 基于Tornado与LevelDB构建低延迟推荐系统实时特征节点及Loki可观测性实践
推荐服务对P99响应延迟的要求被压缩到了20ms以内,但链路分析显示,对远程集中式缓存(如Redis Cluster)的单次用户特征拉取,网络开销加上服务端处理,平均耗时就在5-10ms之间,高峰期网络抖动更是直接冲击服务SLA。这种架构下
2023-10-27
在 Vercel Functions 中利用 Babel 动态转译实现一个轻量级 GraphQL Feature Store 在 Vercel Functions 中利用 Babel 动态转译实现一个轻量级 GraphQL Feature Store
团队最近的一个项目需要在边缘节点上进行实时用户意图预测,这是一个典型的 ML 应用场景。传统的做法是部署一个独立的、通常是基于 Python 的模型服务,并连接到一个中心化的 Feature Store。但在我们这个场景下,整个业务栈是构建
2023-10-27
使用Go与Python在Azure Functions上为iOS应用构建TDD驱动的混合语言处理管道 使用Go与Python在Azure Functions上为iOS应用构建TDD驱动的混合语言处理管道
我们的iOS应用面临一个棘手的挑战:用户需要上传大型音频文件进行分析,这个分析过程计算密集且耗时。最初采用单一的Python Azure Function处理上传和分析的方案很快暴露了问题。当多个用户同时上传时,HTTP触发器会因漫长的同步
2023-10-27
1 / 2