- PVSM.RU - https://www.pvsm.ru -
На прошлой неделе был опубликован перевод статьи двухлетней давности Анализ производительности WSGI-серверов: Часть вторая [1], где незаслужено был обделен славой uWSGI.
Необходимо срочно перепроверить тесты!

Изначально, я просто хотел воспроизвести тесты, и разобраться, что не так с uWSGI.
В коде [2] отсутствуют версии используемых пакетов и модулей.
Поэтому, запустить тесты и получить аналогичные результаты — не получиться.
Далее мой квест, по запуску тестов и сравнение результатов на графиках.
Найти спеки [3], пропатчить [4], собрать [5]
Информация добавлена в readme.rd.
За 2 года изменился вывод статистики.
Была добавлена вторая колонка NAME, и это сломало парсер статистики.
Что бы через два года не встретить подобную проблему, будем использовать форматированный вывод:
- docker stats > "$BASE/$1.$2.stats" &
+ docker stats --format "{{.CPUPerc}} {{.MemUsage}}" > "$BASE/$1.$2.stats" &
И соответственно, немного упростим код парсера.
Сейчас latest образ debian соответствует версии 9.5, отобразим это в Dokerfile:
- FROM debian
+ FROM debian:9.5
В апреле 2016 latest соответствовал [6] версии 8.4
Тем не менеее, Аpache остался почти тем-же: сейчас версия Apache 2.4.25, а в 2016 это был Apache 2.4.10.
Даже нет смысла говорить о том, что модули изменились.
Укажем текущие версии:
- RUN pip install cherrypy tornado uwsgi gunicorn bjoern meinheld mod_wsgi
+ RUN pip install cherrypy==17.4.0
+ tornado==5.1.1
+ uwsgi==2.0.17.1
+ gunicorn==19.9.0
+ bjoern=2.2.3
+ meinheld==0.6.1
+ mod_wsgi==4.6.5
Было бы не плохо вынести это в отдельный requirements.txt, но пока оставим так.
Как было показно выше, актуальная версия 17.4.0.
В апреле 2016 вероятно использовалась версия v5.1.0.
А в 2017 году, в версии 9.0 [7] произошли изменения, что отразилось на импорте сервера:
- from cherrypy import wsgiserver
- server = wsgiserver.CherryPyWSGIServer(
+ from cheroot.wsgi import Server as WSGIServer
+ server = WSGIServer(
После описанных выше правок был запущен первый полноценный тест.
Результаты были хороши: uwsgi выдавал не 3...200, а 7500...5000 запросов в секунду.
Но при детальном рассмотрении полученных графиков, оказалось, что все ответы wrk детектил как ошибки чтения.
После проверки десятка ключей запуска uwsgi, выяснилось, что ошибок нет при включении http1.1: --http-keepalive и --http11-socket.
Причем, первый дает 7500...5000 запросов в секунду, а второй стабильные 29 тысяч!
Наиболее вероятно, что в августе 2016 использовалась версия uWSGI 2.0.12 (20151230).
После, в мае, вышла uWSGI 2.0.13 [8].
Это было знаковое событие, но проблему производительности по версии wrk это не решало вплоть до 2018 года, выходом uWSGI 2.0.16 [9]:
Back-ported HTTP/1.1 support (--http11-socket) from 2.1
Вот почему uWSGI рекомендовали использовать с NginX,
А почему это важно в рамках статьи, можно понять из этого тикета [10] 2012 года.
Я пробовал такие версии:
Но таких плохих результатов, как 3...200 запросов в секунду, мне получить не удалось.
Внимание привлекла строка запуска приложения:
uwsgi --http :9808 --plugin python2 --wsgi-file app.py --processes ...
Указание подключаемого плагина, говорит об установке uwsgi из репозитория, а не pip.
Это может свидетельствовать об отсутствии у автора необходимого опыта работы с данным стеком.
Поэтому, допускаю несколько возможностей:
uWSGI на графиках несколько:
Первый uWSGI (v2.0.17.1), выполнялся в долгом тесте, со своими конкурентами, с параметрами:
--http11 :9808 --processes 5 --threads 2 --enable-threads.
Потом отдельно был протестирован без тредов:
uWSGIbase (v2.0.17.1), без threads: --http11 :9808 --processes 5.
И, отдельно, версиии uWSGI 2016 года:
uWSGI-v2.0.12th-old и uWSGI-v2.0.12nt-old — соответственно v2.0.12 с тредами и без в контейнере debian 8.4.

uWSGI занимает 2е место, не снижая результатов при увеличении нагрузки.

В low-сегменте uWSGI-v2.0.12 лучше всех, даже при увеличении нагрузки.


uWSGI и CherryPy несомненные победители по latency.

Эта картинка аналогична 2016-му году.

Тут видим, как старые uWSGI кушали память с ростом нагрузки.

А новый uWSGI "держит планку", и это о многом говорит.

Cтарые uWSGI начинают резко набирать ошибки уже после 300 открытых соединений.

Bjoern начинает сдавать с 1000 соединений.
А вот с новым uWSGI странности, начиная 200 соединений, мы получаем 50 ошибок, и число больше не увеличивается. Этот момент требует детального рассмотрения.
Все данные собраны тут [11]
uWSGI не так уж плох, или даже очень хорош!
Если вам не нравятся результаты тестов WRK, попробуйте возпользоваться другими инструментами.
Автор: BOPOHA
Источник [12]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/python/297514
Ссылки в тексте:
[1] Анализ производительности WSGI-серверов: Часть вторая: https://habr.com/post/427217/
[2] коде: https://github.com/omedhabib/WSGI_Benchmarks
[3] спеки: https://github.com/GetPageSpeed/wrk-rpm
[4] пропатчить: https://github.com/GetPageSpeed/wrk-rpm/pull/2
[5] собрать: https://copr.fedorainfracloud.org/coprs/vorona/wrk/packages/
[6] соответствовал: https://web.archive.org/web/20160413073536/https://hub.docker.com/r/library/debian/tags/
[7] 9.0: http://docs.cherrypy.org/en/latest/history.html#v9-0-0
[8] uWSGI 2.0.13: https://uwsgi-docs.readthedocs.io/en/latest/Changelog-2.0.13.html
[9] uWSGI 2.0.16: https://uwsgi-docs.readthedocs.io/en/latest/Changelog-2.0.16.html
[10] тикета: https://github.com/wg/wrk/issues/13
[11] тут: https://docs.google.com/spreadsheets/d/e/2PACX-1vSTmHtegrA2mKYb-yam00ii_cTq7rvVqLk0cSXVoovQCboTOBJYdQMnTx4KshyMsmuj4qrirbskMTav/pubhtml
[12] Источник: https://habr.com/post/428047/?utm_source=habrahabr&utm_medium=rss&utm_campaign=428047
Нажмите здесь для печати.