趋近智
您已经构建了一个功能完备的FastAPI应用,它能够提供机器学习模型预测服务,并通过测试验证了其行为。现在将把重心放在准备该应用,以便在您的本地开发环境之外进行部署。确保在不同环境中运行一致是一个普遍的难题,而容器化能有效应对此问题。
本章着重讲解如何使用Docker打包您的应用。您将学习创建针对FastAPI服务定制的Dockerfile,包含应用代码、Python依赖项以及所需的机器学习模型构件。我们将按照步骤构建Docker镜像,并将其作为容器运行。此外,您将学习在容器内部使用环境变量管理应用配置的方法,并理解如何设置生产级别的ASGI服务器(例如Uvicorn,通常由Gunicorn管理)来高效地提供您的应用服务。在本章结束时,您将拥有一个容器化的机器学习API版本,可用于部署流程。
6.1 Docker 应用打包介绍
6.2 编写 FastAPI 应用的 Dockerfile
6.3 在 Docker 镜像中打包机器学习模型
6.4 构建和运行 Docker 容器
6.5 在 Docker 中管理 Python 依赖
6.6 使用环境变量配置应用程序
6.7 生产部署准备 (Gunicorn/Uvicorn)
6.8 动手实践:机器学习API的容器化
© 2026 ApX Machine Learning用心打造