趋近智
你已经训练好了模型,并且它在测试数据集上表现良好。但你如何才能在开发环境之外,真正应用它来对新数据进行预测呢?这就是部署策略发挥作用的地方。部署模型不止一种方式;最好的方法很大程度上取决于你需要预测的方式和时间。让我们看看模型投入使用的最常见方法。
设想你有一大量数据需要预测,但你不需要即时获得这些预测结果。也许你想每周为所有客户预测客户流失,或者为所有门店生成每日销售预测。这种情形非常适合批量预测,也称为离线推理。
在批量预测中,模型根据预设的时间表(例如,每小时、每天、每周)处理大量数据或“批次”数据。
以下是其工作原理的简化视图:
批量预测的典型工作流,其中数据定期处理。
何时适用批量预测?
可以将其想象为处理工资。你不是持续计算工资;而是在每个发薪期批量处理。
现在,考虑你需要即时获得预测的情形。例如:
这些使用情况需要在线预测,也称为实时推理。在这种情况下,模型通常作为一项服务持续运行,等待接收预测请求。当带有新输入数据的请求到达时(通常只是单个数据点或少量数据点),服务会迅速加载模型(如果尚未加载),生成预测,并立即将其返回。
这通常涉及搭建一个预测服务,常用Flask或FastAPI等Web框架(我们将在本课程后面部分介绍)。应用程序通过应用程序编程接口(API)与此服务交互。
在线预测的典型工作流,其中预测结果通过API按需提供。
何时适用在线预测?
可以将其想象为一次网页搜索。你输入一个查询,并期望几乎立即得到结果。
第三种不那么常见但很重要的方法是将模型直接嵌入到应用程序或设备中。模型不再是调用单独的服务,而是在用户设备(如智能手机或物联网传感器)上本地运行,或作为大型软件应用程序的一部分。
例子有:
当网络连接不可靠、需要极低延迟或数据隐私是一个主要问题(数据无需离开设备)时,这种方法很有用。然而,这通常要求模型经过专门优化以减小尺寸和提高计算效率,从而在资源受限的设备上运行。
批量、在线或嵌入 (embedding)式部署的选择完全取决于你的应用程序需求:
通常,问题本身的性质决定了策略。在本课程中,我们将主要侧重于在线预测所需的技术,因为构建预测服务是MLOps中一项常见且基本的能力。我们将学习如何保存模型,使用Flask将其封装成Web服务,并打包该服务以供部署。了解这些不同的策略有助于理解我们为何构建这些服务,以及它们如何适应机器学习 (machine learning)实用化的整体考量。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•