Skip to content
Main Navigation
Автоматизированное тестирование
Централизованное управление автотестами и результатами
Интеграции
Готовые коннекторы с CI/CD, трекерами и репозиториями
Ручное тестирование
Планирование, выполнение и контроль ручных проверок в одном месте
Дашборды и аналитика
Визуализация данных, отчёты и метрики тестов в реальном времени
Ресурсы
Документация
Материалы по установке, настройке и подключению интеграций в ТестОпс
Блог
Статьи и руководства по стратегиям и инструментам тестирования
События
Живое общение с командой ТестОпс на вебинарах и конференциях
Истории клиентов
Реальные кейсы и истории внедрения с результатами из первых рук
Последнее из блога
Искусственный интеллект в тестировании | Часть 2
Искусственный интеллект в тестировании | Часть 2
Руководство по подключению MCP-сервера с GitHub через Cursor IDE для автоматизации запуска тестов и управления процессами CI/CD напрямую из редактора.
Искусственный интеллект в тестировании | Часть 1
Искусственный интеллект в тестировании | Часть 1
Пошаговая инструкция по автоматизации тестирования: настройка окружения, интеграция с GitHub Actions и ТестОпс, использование Cursor IDE и MCP.
Настройка вебхуков в ТестОпс для Telegram
Настройка вебхуков в ТестОпс для Telegram
Гайд по настройке вебхуков в ТестОпс на примере создания сообщений для канала в Telegram.
Перейти в блог
ТарифыПартнерыСвязаться с нами
Sidebar Navigation

Описание ТестОпс

О продукте

Информация о релизах

Миграция с других решений

Термины и определения

Часто задаваемые вопросы

Установка ТестОпс

Архитектура

Установка и запуск

Обзор

Kubernetes

Docker Compose

DEB-пакеты

RPM-пакеты

База данных

S3-совместимое хранилище

Конфигурация

Обзор

Сеть

Аутентификация

Обзор

Локальная аутентификация

LDAP

OpenID и Azure AD

OpenID и Keycloak

SAML 2.0

Настройка SMTP

Перенос данных в другой инстанс

Начало работы

1. Создайте проект

2. Запустите ручной тест

3. Запустите автотест

4. Создайте комбинированный запуск

5. Обработайте результаты тестов

Обзор ТестОпс

Обзор

Дашборды

Тест-кейсы

Общие шаги

Тест-планы

Запуски

Результаты тестов

Дефекты

Джобы

Меню пользователя

Тест-кейсы

Статусы воркфлоу

Сценарий ручного теста

Параметры ручного теста

Вложения

Теги

Тестовые слои

Ссылки

Задачи из таск-трекеров

Сторонние тест-кейсы

Участники

Связанные тест-кейсы

Кастомные поля

Ключи маппинга

Импорт

Запуски

Окружение

Обновление метаданных

Сравнение запусков

Категории ошибок

Проект

Обзор

Управление доступом

Деревья

Вебхуки

Администрирование

Обзор

Участники

Группы

Очистка данных

Журналы аудита пользователей

Интеграции

Обзор

CI-системы

AWS CodePipeline

Azure DevOps

Bamboo

Bitbucket

CircleCI

GitHub

GitLab

Jenkins

TeamCity

TeamCity (allurectl)

Таск-трекеры

Битрикс24

EvaProject

GitHub

GitLab

Jira Data Center

Jira Software Cloud

Kaiten

Redmine

Wrike

Yandex Tracker

YouTrack

Системы управления тестированием

TestRail

Xray

Zephyr

Экосистема ТестОпс

allurectl

AQL

API

Устранение неполадок

SaaS

ТестОпс как SaaS

Миграция в облако ТестОпс

Техническая поддержка

On this page

Сравнение запусков ​

Вы можете сравнить несколько запусков друг с другом, чтобы понять, как меняется качество проекта со временем. Также это удобный способ посмотреть, какие тесты стабильны, а у каких результат меняется от запуска к запуску.

Выбор запусков для сравнения ​

Чтобы сравнить запуски:

  1. Перейдите в раздел Запуски.
  2. Выберите запуски из списка, установив галочки рядом с ними.
  3. В нижней части экрана нажмите Сравнить.

На странице сравнения будет показана таблица, где:

  • запуски — столбцы таблицы;
  • тест-кейсы, входящие в запуски, — строки таблицы;
  • результаты тестов — ячейки таблицы.

Например, если тест-кейс во время запуска был пройден успешно, ячейка будет зеленой, а при неудачном прохождении — красной. Если тест-кейс не является частью определенного запуска, ячейка будет белой (результат отсутствует).

Вы можете изменять ранее созданную таблицу:

  • Чтобы добавить запуск к сравнению, нажмите + Добавить запуск в правом верхнем углу.
  • Чтобы удалить запуск из сравнения, нажмите на крестик рядом с номером запуска.

Вы можете добавлять и удалять запуски из таблицы сравнения.

Фильтрация тестов при сравнении ​

Существует несколько способов уменьшить количество тест-кейсов, отображаемых при сравнении запусков:

  • Поставьте галочку для варианта Только изменения статуса, чтобы отображались только тест-кейсы, у которых изменился результат выполнения при последующем запуске.
  • Выберите режим Пересечение, чтобы отображались тест-кейсы, которые есть во всех сравниваемых запусках. Или выберите режим Различия, чтобы увидеть тест-кейсы, которые отсутствуют хотя бы в одном запуске.
  • Нажмите Открыть фильтры в правом верхнем углу, чтобы отфильтровать тест-кейсы по их атрибутам (по владельцу, результату теста, кастомным полям и т. д.). Нажмите Закрыть фильтры, чтобы сбросить и скрыть эти фильтры.
Pager
Previous pageОбновление метаданных
Next pageКатегории ошибок

Logo © 2025 Все права защищены. Сайт принадлежит компании ООО «Инструменты тестирования»