蟒蛇:27
我刚刚在一个带有mysql后端的新vm GCP上安装了airlow。
(sudo pip安装apache airlow,sudopip安装apache airlow[mysql])
我没有创建任何自己的dag,而是尝试运行示例来了解它是如何工作的。
我已经更改了配置以使用
executor = LocalExecutor
完成
export AIRFLOW_HOME=`pwd`/airflow (in both shells)
airflow initdb
Webserver作为“airlow Webserver”启动,在另一个shell中我启动了“airlow scheduler”。
我试着进入web用户界面,点击“DAGs”,然后点击“run”按钮来统计任务。(此时会打开一个对话框,询问我是否要立即运行)
我试过启动的是“example庠bash庠operator,example庠http庠operator,example庠python庠operator”,它们现在显示为正在运行。但国家并没有改变。我也点击了,所以3个DAGs显示为“on”。
当我转到“浏览”->“任务实例”并查看第一个应该启动的实例时,它显示:
All dependencies are met but the task instance is not running.
In most cases this just means that the task will probably be scheduled soon unless:
.......
我的服务器没有任何有意义的输出。我的调度程序正在输出
[2017-11-20 13:42:37,460] {jobs.py:1407} INFO - Heartbeating the process manager
[2017-11-20 13:42:37,460] {jobs.py:1443} INFO - Heartbeating the executor
最佳答案
我知道现在有点晚了,但我也面临着同样的问题,所以我想为其他面临这个问题的人提供一个答案。
因此,问题是因为airflow的调度程序在airflow.cfg中的变量dags_folder
指定的文件夹中查找要运行的DAG。示例DAG存储在airflow库的安装位置,这就是调度程序没有拾取任何要运行的对象的原因。要修复此问题,只需将airlfow.cfg中dags_文件夹的值更改为指向包含示例dags的文件夹。要查找示例dag文件夹,请从根目录运行find | grep 'example_bash_operator'
关于python - 气流-跑不跑,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/47393631/