我有一个sklearn模型,我想使用joblib.dump将pickle文件保存在我的s3存储桶中

我使用joblib.dump(model, 'model.pkl')在本地保存模型,但是我不知道如何将其保存到s3存储桶。

s3_resource = boto3.resource('s3')
s3_resource.Bucket('my-bucket').Object("model.pkl").put(Body=joblib.dump(model, 'model.pkl'))

我希望将腌制后的文件放在我的s3存储桶中。

最佳答案

这是对我有用的方法。非常简单直接。我正在使用joblib(最好用于存储大型sklearn模型),但您也可以使用pickle
另外,我正在使用临时文件来往/从S3进行传输。但是,如果需要,可以将文件存储在更永久的位置。

import tempfile
import boto3
import joblib

s3_resource = boto3.resource('s3')
bucket_name = "my-bucket"
key = "model.pkl"

# WRITE
with tempfile.TemporaryFile() as fp:
    joblib.dump(model, fp)
    fp.seek(0)
    s3_resource.put_object(Body=fp.read(), Bucket=bucket_name, Key=key)

# READ
with tempfile.TemporaryFile() as fp:
    s3_resource.download_fileobj(Fileobj=fp, Bucket=bucket_name, Key=key)
    fp.seek(0)
    model = joblib.load(fp)

# DELETE
s3_resource.delete_object(Bucket=bucket_name, Key=key)

09-11 18:36