有没有一种方法可以使用MLflow记录数据集的描述性统计信息?如果可以,请您分享详细信息?
最佳答案
一般来说,您可以使用mlflow_log_artifact()函数记录代码中的任意输出。从the docs:
mlflow.log_artifact(local_path,artifact_path =无)
将本地文件或目录记录为当前活动运行的工件。
参数:
local_path –要写入的文件的路径。
artifact_path –如果提供,则是要写入的artifact_uri中的目录。
例如,假设您的统计数据位于熊猫数据框stat_df
中。
## Write csv from stats dataframe
stat_df.to_csv('dataset_statistics.csv')
## Log CSV to MLflow
mlflow_log_artifact('dataset_statistics.csv')
这将显示在“跟踪UI”中运行的此MLflow的“工件”部分下。如果进一步浏览文档,您会发现还可以记录整个目录及其中的对象。通常,MLflow为您提供了很大的灵活性-可以使用MLflow跟踪的任何写入文件系统的内容。当然,这并不意味着您应该这样做。 :)
关于python - 有没有一种方法可以使用MLflow记录数据集的描述性统计信息?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/55822637/