如何使用AWS Elastic Beanstalk运行工作人员?

我正在aws elasticstalkstalk上启动一个django应用程序。 为了运行芹菜,我想运行后台任务或者工人。

我找不到是否有可能。 如果是的话可以实现。

这是我现在正在做的事情,但是这是每一次事件types错误。

container_commands: 01_syncdb: command: "django-admin.py syncdb --noinput" leader_only: true 50_sqs_email: command: "./manage.py celery worker --loglevel=info" leader_only: true 

谢谢您的帮助,

正如@ chris-wheadon在他的评论中所build议的,你应该尝试在后台运行芹菜作为deamon。 AWS Elastic Beanstalk已经使用supervisord来运行一些deamon进程。 所以你可以利用它来运行芹菜,并避免为此创build一个自定义的AMI。 它对我来说很好。

我所做的是通过EB将应用程序部署到实例后,以编程方式将celerydconfiguration文件添加到实例。 棘手的部分是,该文件需要设置deamon所需的环境variables(例如,如果您在您的应用程序中使用S3或其他服务的AWS访问键)。

下面是我使用的脚本的副本,将此脚本添加到configuration您的EB环境的.ebextensions文件夹中。

安装脚本在所有EB实例上的未/opt/elasticbeanstalk/hooks/appdeploy/post/文件夹中创build一个文件。 其中的任何shell脚本都将在部署后执行。 放置在那里的shell脚本如下所示:

  1. celeryenvvariables中,virutalenv环境以遵循supervisord表示法的格式存储。 这是一个以逗号分隔的envvariables列表。
  2. 然后脚本创build一个variablesceleryconf ,它包含configuration文件作为一个string,其中包括以前parsing的envvariables。
  3. 然后将这个variables传送到一个名为celeryd.conf的文件中, celeryd.conf是celery守护进程的supervisordconfiguration文件。
  4. 最后,新创build的configuration文件的path被添加到主supervisord.conf文件,如果它不在那里。

这是一个脚本的副本:

 files: "/opt/elasticbeanstalk/hooks/appdeploy/post/run_supervised_celeryd.sh": mode: "000755" owner: root group: root content: | #!/usr/bin/env bash # Get django environment variables celeryenv=`cat /opt/python/current/env | tr '\n' ',' | sed 's/export //g' | sed 's/$PATH/%(ENV_PATH)s/g' | sed 's/$PYTHONPATH//g' | sed 's/$LD_LIBRARY_PATH//g'` celeryenv=${celeryenv%?} # Create celery configuraiton script celeryconf="[program:celeryd] ; Set full path to celery program if using virtualenv command=/opt/python/run/venv/bin/celery worker -A myappname --loglevel=INFO directory=/opt/python/current/app user=nobody numprocs=1 stdout_logfile=/var/log/celery-worker.log stderr_logfile=/var/log/celery-worker.log autostart=true autorestart=true startsecs=10 ; Need to wait for currently executing tasks to finish at shutdown. ; Increase this if you have very long running tasks. stopwaitsecs = 600 ; When resorting to send SIGKILL to the program to terminate it ; send SIGKILL to its whole process group instead, ; taking care of its children as well. killasgroup=true ; if rabbitmq is supervised, set its priority higher ; so it starts first priority=998 environment=$celeryenv" # Create the celery supervisord conf script echo "$celeryconf" | tee /opt/python/etc/celery.conf # Add configuration script to supervisord conf (if not there already) if ! grep -Fxq "[include]" /opt/python/etc/supervisord.conf then echo "[include]" | tee -a /opt/python/etc/supervisord.conf echo "files: celery.conf" | tee -a /opt/python/etc/supervisord.conf fi # Reread the supervisord config supervisorctl -c /opt/python/etc/supervisord.conf reread # Update supervisord in cache without restarting all services supervisorctl -c /opt/python/etc/supervisord.conf update # Start/Restart celeryd through supervisord supervisorctl -c /opt/python/etc/supervisord.conf restart celeryd 

我试图在PHP中做类似的事情,但无论如何,我无法让工作人员继续运行。 我在EC2服务器上切换到AMI,并从此获得成功。