Обычно pytest используется не самостоятельно, а в среде тестирования с другими инструментами. В этой главе рассматриваются другие инструменты, которые часто используются в сочетании с pytest для эффективного и результативного тестирования. Хотя это отнюдь не исчерпывающий список, обсуждаемые здесь инструменты дадут вам представление о вкусе силы смешивания pytest с другими инструментами.
Примеры в этой книге написаны с использованием Python 3.6 и pytest 3.2. pytest 3.2 поддерживает Python 2.6, 2.7 и Python 3.3+.
Исходный код для проекта Tasks, а также для всех тестов, показанных в этой книге, доступен по ссылке на веб-странице книги в pragprog.com. Вам не нужно загружать исходный код, чтобы понять тестовый код; тестовый код представлен в удобной форме в примерах. Но что бы следовать вместе с задачами проекта, или адаптировать примеры тестирования для проверки своего собственного проекта (руки у вас развязаны!), вы должны перейти на веб-страницу книги и скачать работу. Там же, на веб-странице книги есть ссылка для сообщений errata и дискуссионный форум.
Под спойлером приведен список статей этой серии.
- Введение
- Глава 1: Начало работы с pytest
- Глава 2: Написание тестовых функций
- Глава 3: Pytest Fixtures
- Глава 4: Builtin Fixtures
- Глава 5: Плагины
- Глава 6: Конфигурация
- [Глава 7: Использование pytest с другими инструментами](Эта статья)(https://habr.com/ru/post/448798/)
pdb: Debugging Test Failures
Модуль pdb
является отладчиком Python в стандартной библиотеке. Вы используете --pdb
, чтобы pytest начал сеанс отладки в точке сбоя. Давайте посмотрим на pdb
в действии в контексте проекта Tasks.
В "Параметризации Фикстур" на странице 64 мы оставили проект Tasks с несколькими ошибками:
$ cd /path/to/code/ch3/c/tasks_proj
$ pytest --tb=no -q
.........................................FF.FFFF
FFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFF.FFF...........
42 failed, 54 passed in 4.74 seconds
Прежде чем мы рассмотрим, как pdb
может помочь нам отладить этот тест, давайте взглянем на доступные параметры pytest, чтобы ускорить отладку ошибок теста, которые мы впервые рассмотрели в разделе "Использование Опций" на стр.9:
--tb=[auto/long/short/line/native/no]
: Управляет стилем трассировки.-v / --verbose
: Отображает все имена тестов, пройденных или не пройденных.-l / --showlocals
: Отображает локальные переменные рядом с трассировкой стека.-lf / --last-failed
: Запускает только тесты, которые завершились неудачей.-x / --exitfirst
: Останавливает тестовую сессию при первом сбое.--pdb
: Запускает интерактивный сеанс отладки в точке сбоя.
Installing MongoDB
Как упомянуто в главе 3, "Pytest Fixtures", на странице 49, для запуска тестов MongoDB требуется установка MongoDB
и pymongo
.
Я тестировал версию Community Server, найденную по адресу https://www.mongodb.com/download-center. pymongo устанавливается с pip
:pip install pymongo
. Однако это последний пример в книге, где используется MongoDB. Чтобы опробовать отладчик без использования MongoDB, можно выполнить команды pytest из code/ch2/
, так как этот каталог также содержит несколько неудачных тестов.
Мы просто запустили тесты из code/ch3/c
, чтобы убедиться, что некоторые из них не работают. Мы не видели tracebacks или имен тестов, потому что --tb=no
отключает трассировку, и у нас не было включено --verbose
. Давайте повторим ошибки (не более трех) с подробным текстом:
$ pytest --tb=no --verbose --lf --maxfail=3
============================= test session starts =============================
collected 96 items / 52 deselected
run-last-failure: rerun previous 44 failures
tests/func/test_add.py::test_add_returns_valid_id[mongo] ERROR [ 2%]
tests/func/test_add.py::test_added_task_has_id_set[mongo] ERROR [ 4%]
tests/func/test_add.py::test_add_increases_count[mongo] ERROR [ 6%]
=================== 52 deselected, 3 error in 0.72 seconds ====================
Теперь мы знаем, какие тесты провалились. Давайте рассмотрим только один из них, используя -x
, включив трассировку, не используя --tb=no
, и показывая локальные переменные с -l
:
$ pytest -v --lf -l -x
===================== test session starts ======================
run-last-failure: rerun last 42 failures
collected 96 items
tests/func/test_add.py::test_add_returns_valid_id[mongo] FAILED
=========================== FAILURES ===========================
_______________ test_add_returns_valid_id[mongo] _______________
tasks_db = None
def test_add_returns_valid_id(tasks_db):
"""tasks.add(<valid task>) should return an integer."""
# GIVEN an initialized tasks db
# WHEN a new task is added
# THEN returned task_id is of type int
new_task = Task('do something')
task_id = tasks.add(new_task)
> assert isinstance(task_id, int)
E AssertionError: assert False
E + where False = isinstance(ObjectId('59783baf8204177f24cb1b68'), int)
new_task = Task(summary='do something', owner=None, done=False, id=None)
task_id = ObjectId('59783baf8204177f24cb1b68')
tasks_db = None
tests/func/test_add.py:16: AssertionError
!!!!!!!!!!!! Interrupted: stopping after 1 failures !!!!!!!!!!!!
===================== 54 tests deselected ======================
=========== 1 failed, 54 deselected in 2.47 seconds ============
Довольно часто этого достаточно, чтобы понять почему случился провал теста. В этом конкретном случае довольно ясно, что task_id
не является целым числом—это экземпляр ObjectId. ObjectId — это тип, используемый MongoDB для идентификаторов объектов в базе данных. Мое намерение со слоем tasksdb_pymongo.py
было скрыть определенные детали реализации MongoDB от остальной части системы. Понятно, что в этом случае это не сработало.
Тем не менее, мы хотим посмотреть, как использовать pdb с pytest, так что давайте представим, что неясно, почему этот тест не удался. Мы можем сделать так, чтобы pytest запустил сеанс отладки и запустил нас прямо в точке сбоя с помощью --pdb
:
$ pytest -v --lf -x --pdb
===================== test session starts ======================
run-last-failure: rerun last 42 failures
collected 96 items
tests/func/test_add.py::test_add_returns_valid_id[mongo] FAILED
>>>>>>>>>>>>>>>>>>>>>>>>>> traceback >>>>>>>>>>>>>>>>>>>>>>>>>>>
tasks_db = None
def test_add_returns_valid_id(tasks_db):
"""tasks.add(<valid task>) should return an integer."""
# GIVEN an initialized tasks db
# WHEN a new task is added
# THEN returned task_id is of type int
new_task = Task('do something')
task_id = tasks.add(new_task)
> assert isinstance(task_id, int)
E AssertionError: assert False
E + where False = isinstance(ObjectId('59783bf48204177f2a786893'), int)
tests/func/test_add.py:16: AssertionError
>>>>>>>>>>>>>>>>>>>>>>>>> entering PDB >>>>>>>>>>>>>>>>>>>>>>>>>
> /path/to/code/ch3/c/tasks_proj/tests/func/test_add.py(16)
> test_add_returns_valid_id()
-> assert isinstance(task_id, int)
(Pdb)
Теперь, когда мы находимся в приглашении (Pdb), у нас есть доступ ко всем интерактивным функциям отладки pdb. При просмотре сбоев я регулярно использую эти команды:
p/print expr
: Печатает значение exp.pp expr
: Pretty печатает значение expr.l/list
: Перечисляет точку сбоя и пять строк кода выше и ниже.l/list begin,end
: Перечисляет конкретные номера строк.a/args
: Печатает аргументы текущей функции с их значениями.u/up
: Перемещается на один уровень вверх по трассе стека.d/down
: Перемещается вниз на один уровень в трассировке стека.q/quit
: Завершает сеанс отладки.
Другие навигационные команды, такие как step и next, не очень полезны, так как мы сидим прямо в операторе assert. Вы также можете просто ввести имена переменных и получить значения.
Можно использовать p/print expr
аналогично параметру -l/--showlocals
для просмотра значений в функции:
(Pdb) p new_task
Task(summary='do something', owner=None, done=False, id=None)
(Pdb) p task_id
ObjectId('59783bf48204177f2a786893')
(Pdb)
Теперь можно выйти из отладчика и продолжить тестирование.
(Pdb) q
!!!!!!!!!!!! Interrupted: stopping after 1 failures !!!!!!!!!!!!
===================== 54 tests deselected ======================
========== 1 failed, 54 deselected in 123.40 seconds ===========
Если бы мы не использовали -х
, pytest бы снова открыл Pdb в следующем теста. Дополнительные сведения об использовании модуля pdb доступны в документации Python.
Coverage.py: Определение объема тестируемого кода
Покрытие кода является показателем того, какой процент тестируемого кода тестируется набором тестов. Когда вы запускаете тесты для проекта «Tasks», некоторые функции «Tasks» выполняются с каждым тестом, но не со всеми.
Инструменты покрытия кода отлично подходят для того, чтобы сообщить вам, какие части системы полностью пропущены тестами.
Coverage.py
является предпочтительным инструментом покрытия Python, который измеряет покрытие кода.
Вы будете использовать его для проверки кода проекта Tasks с помощью pytest.
Что бы использовать coverage.py
нужно его установить. Не помешает установить плагин под названием pytest-cov
, который позволит вам вызывать coverage.py
от pytest с некоторыми дополнительными опциями pytest. Поскольку coverage
является одной из зависимостей pytest-cov
, достаточно установить pytest-cov
и он притянет за собой coverage.py
:
$ pip install pytest-cov
Collecting pytest-cov
Using cached pytest_cov-2.5.1-py2.py3-none-any.whl
Collecting coverage>=3.7.1 (from pytest-cov)
Using cached coverage-4.4.1-cp36-cp36m-macosx_10_10_x86
...
Installing collected packages: coverage, pytest-cov
Successfully installed coverage-4.4.1 pytest-cov-2.5.1
Давайте запустим отчет о покрытии для второй версии задач. Если у вас все еще установлена первая версия проекта Tasks, удалите ее и установите версию 2:
$ pip uninstall tasks
Uninstalling tasks-0.1.0:
/path/to/venv/bin/tasks
/path/to/venv/lib/python3.6/site-packages/tasks.egg-link
Proceed (y/n)? y
Successfully uninstalled tasks-0.1.0
$ cd /path/to/code/ch7/tasks_proj_v2
$ pip install -e .
Obtaining file:///path/to/code/ch7/tasks_proj_v2
...
Installing collected packages: tasks
Running setup.py develop for tasks
Successfully installed tasks
$ pip list
...
tasks (0.1.1, /path/to/code/ch7/tasks_proj_v2/src)
...
Теперь, когда установлена следующая версия задач, можно запустить отчет о базовом покрытии:
$ cd /path/to/code/ch7/tasks_proj_v2
$ pytest --cov=src
===================== test session starts ======================
plugins: mock-1.6.2, cov-2.5.1
collected 62 items
tests/func/test_add.py ...
tests/func/test_add_variety.py ............................
tests/func/test_add_variety2.py ............
tests/func/test_api_exceptions.py .........
tests/func/test_unique_id.py .
tests/unit/test_cli.py .....
tests/unit/test_task.py ....
---------- coverage: platform darwin, python 3.6.2-final-0 -----------
Name Stmts Miss Cover
--------------------------------------------------
srctasks__init__.py 2 0 100%
srctasksapi.py 79 22 72%
srctaskscli.py 45 14 69%
srctasksconfig.py 18 12 33%
srctaskstasksdb_pymongo.py 74 74 0%
srctaskstasksdb_tinydb.py 32 4 88%
--------------------------------------------------
TOTAL 250 126 50%
================== 62 passed in 0.47 seconds ===================
Поскольку текущий каталог является tasks_proj_v2
, а тестируемый исходный код находится в src, добавление опции --cov=src
создает отчет о покрытии только для этого тестируемого каталога.
Как видите, некоторые файлы имеют довольно низкий и даже 0%, охват. Это полезные напоминания: tasksdb_pymongo.py
0%, потому что мы отключили тестирование для MongoDB в этой версии. Некоторые из них довольно низкие. Проект, безусловно, должен будет поставить тесты для всех этих областей, прежде чем он будет готов к прайм-тайм.
Я полагаю, что несколько файлов имеют более высокий процент покрытия: api.py
и tasksdb_tinydb.py
. Давайте посмотрим на tasksdb_tinydb.py
и посмотрим, чего не хватает. Думаю, что лучший способ сделать это — использовать отчеты HTML.
Если вы снова запустите coverage.py
с параметром --cov-report=html
, будет создан отчет в формате HTML:
$ pytest --cov=src --cov-report=html
===================== test session starts ======================
plugins: mock-1.6.2, cov-2.5.1
collected 62 items
tests/func/test_add.py ...
tests/func/test_add_variety.py ............................
tests/func/test_add_variety2.py ............
tests/func/test_api_exceptions.py .........
tests/func/test_unique_id.py .
tests/unit/test_cli.py .....
tests/unit/test_task.py ....
---------- coverage: platform darwin, python 3.6.2-final-0 -----------
Coverage HTML written to dir htmlcov
================== 62 passed in 0.45 seconds ===================
Затем можно открыть htmlcov/index.html
в браузере, который показывает вывод на следующем экране:
Щелчок по tasksdb_tinydb.py
покажет отчет для одного файла. В верхней части отчета отображается процент покрытые строки, плюс сколько строк охвачено и сколько нет, как показано на следующем экране:
Прокручивая вниз, вы можете увидеть пропущенные строки, как показано на следующем экране:
Даже если этот экран не является полной страницей для этого файла, этого достаточно, чтобы сказать нам, что:
- Мы не тестируем
list_tasks()
с установленным владельцем. - Мы не тестируем
update()
илиdelete()
. - Возможно, мы недостаточно тщательно тестируем
unique_id()
.
Отлично. Мы можем включить их в наш список TO-DO по тестированию вместе с тестированием системы конфигурации.
Хотя инструменты покрытия кода чрезвычайно полезны, стремление к 100% покрытию может быть опасным. Когда вы видите код, который не тестируется, это может означать, что необходим тест. Но это также может означать, что есть некоторые функции системы, которые не нужны и могут быть удалены. Как и все инструменты разработки программного обеспечения, анализ покрытия кода не заменяет
Более подробную информацию можно найти в документации coverage.py
и pytest-cov
.
Автор: Александр Драгункин