如何部署我们的ML训练模型?

2024-04-26 12:15:06 发布

您现在位置:Python中文网/ 问答频道 /正文

我不熟悉机器学习。我已经完成了k-means聚类,并且对ml模型进行了训练。我的问题是如何将输入传递给我训练过的模型?在

示例: 考虑一个google图像处理ML模型。为此,我们传递一个图像,该图像能从该图像中获得正确的输出,如情感。在

现在我的疑问是如何做到这一点我已经做了k-均值预测谁花了更多的钱购买一个产品,为此我想打电话或将输入传递给我培训过的模型。在

我正在使用python和sci工具包学习。在


Tags: 模型图像机器示例工具包产品google聚类
2条回答

这里需要的是一个API,在这里可以发送请求/输入并获得响应/预测。在

您可以创建一个Flask服务器,将经过训练的模型保存为pickle文件,并在进行预测时加载它。这可能需要做些工作。在

请参考以下内容:

注意:烧瓶内置服务器尚未准备好生产。你可以参考uwsgi+ngnix

如果您正在使用docker:https://hub.docker.com/r/tiangolo/uwsgi-nginx-flask/这将是一个很大的帮助。在

部署ML模型通常基于您的业务需求。如果你有很多需要预测的数据,而你不需要马上得到结果。你可以做批量预测。这种方法的典型用例是推荐。通常它是作为更大管道的一部分进行部署的。有很多方法来建立这个管道,这取决于你的公司有什么,所以我不想太多的细节。在

另一种方法是别人提到的,实时服务。这方面的典型用例是欺诈检测。这需要马上做出预测。它通过REST/gRPC/others接收请求并响应预测结果。根据您的延迟要求,人们将使用高性能环境(JAVA/C)来归档低延迟。通常,在大多数情况下,flask服务器可以完成此任务。在

对于flask应用程序,您需要创建一个接收请求数据并进行预测,然后返回响应的端点。在

告诉我这对你有没有帮助。在

只是一个自插。我们为打包和部署开源了一个ML工具包。标签线是从Jupyter笔记本电脑到生产5分钟。它将您的模型和依赖项导出到可以存储在本地文件或s3中的归档文件中。您可以将归档导入python模块进行预测,也可以使用内置的rest服务器进行实时预测。您也可以从生成的dockerfile创建docker映像用于生产。你可以在这里找到这个项目。它叫BentoML

相关问题 更多 >