Применение технологий интеллектуального анализа процесса на современном предприятии

Рекомендации по выбору программного обеспечения для глубинного анализа процессов. Алгоритмы генерации бизнес моделей на основе данных, полученных из журналов событий, используемых для глубинного анализа данных. Изучение функционала ARIS Process Mining.

Рубрика Программирование, компьютеры и кибернетика
Вид дипломная работа
Язык русский
Дата добавления 17.07.2020
Размер файла 925,4 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ АВТОНОМНОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ОБРАЗОВАНИЯ

НАЦИОНАЛЬНЫЙ ИССЛЕДОВАТЕЛЬСКИЙ УНИВЕРСИТЕТ

«ВЫСШАЯ ШКОЛА ЭКОНОМИКИ»

Факультет бизнеса и менеджмента

Выпускная квалификационная работа

Применение технологий интеллектуального анализа процесса на современном предприятии

Ересковский Антон Алексеевич

Москва, 2020

СОДЕРЖАНИЕ

ГЛАВА 1. ИСПОЛЬЗУЕМАЯ ТЕРМИНОЛОГИЯ

1.1 Основные принципы

1.2 Три техники интеллектуального анализа процессов

1.3 Три основные предпосылки глубинного анализа данных

1.4 Основные этапы процесса интеллектуального анализа данных

1.5 Необходимые атрибуты данных

1.6 Основные трудности использования глубинного анализа

ГЛАВА 2. ОСНОВНЫЕ АЛГОРИТМЫ, ИСПОЛЬЗУЕМЫЕ ДЛЯ ГЛУБИННОГО АНАЛИЗА

2.1 Сравнение алгоритмов глубинного анализа

2.2 Популярные программные решения для задач глубинного анализа

2.3 Сравнение программного обеспечения для глубинного анализа процессов

2.4 Рекомендации по выбору программного обеспечения для глубинного анализа процессов

ГЛАВА 3. ОСНОВНЫЕ ТИПЫ ОПТИМИЗИРУЕМЫХ ПРОЦЕССОВ

3.1 Существующие примеры внедрения интеллектуального анализа процессов

3.2 Основные проблемы, возникающие у компаний

3.3 Выводы и рекомендации по использованию интеллектуального анализа процессов на предприятии

ЗАКЛЮЧЕНИЕ

СПИСОК ЛИТЕРАТУРЫ

ВВЕДЕНИЕ

Актуальность.

В современном мире развитие технологий протекает крайне быстро и стремительно. Мировая и всеобщая цифровизация сделали информацию главным ресурсом планеты. Организации, которые не способны адаптироваться текущим реалиям рынка, заведомо имеют меньшие шансы на успех и выживание, по сравнению с теми, которые способны следовать текущим тенденциям и вовремя подстраиваться под технологическую, социальную и рыночную конъюнктуру. С течением прогресса человечество стало генерировать, накапливать и хранить все больше и больше информации. Сегодня практически любой житель планеты, имеющий смартфон, создает вокруг себя информационное поле, достигающее размеров в сотни терабайт. Большинство приложений, которые люди используют в повседневной жизни, собирают данные о пользователях. Это же касается и современных организаций. В крупных корпорациях, в которых штат сотрудников может исчисляться тысячами, а то и сотнями тысяч, объемы информации, производимой в компании доходят до нескольких петабайт. Современный уровень цифровизации и возможности интернет технологий позволяют осуществлять автоматические сбор, хранение и обработку информации даже малому бизнесу. При всем этом, несмотря на то что компании обладают огромным количеством собираемой информации, как о своей организации, так и о своих клиентах, одной из крупнейших проблем для ныне существующих организаций, стал крайне низкий уровень осведомленности о реальных процессах, протекающих на предприятии. Неверное понимание собственных бизнес-процессов и частые заблуждения в принципах работы тех или иных функций компании приводят к значительным издержкам и проблемам в производстве. В современных реалиях, когда бизнес-моделирование стало одной из ключевых менеджерских компетенций, умение менеджмента компании грамотно создавать и отлаживать существующие бизнес процессы является основой любого успешного бизнеса. Бизнес-моделирование в крупных компаниях часто является такой же сложной задачей, как и поддержание их в актуальном и оптимальном состоянии.

Данные проблемы породили гонку вооружений в IT-сфере, направленную на создание все более продвинутых решений, служащих для оптимизации бизнес-процессов и бизнес-моделирования. Одной из передовых технологий, являющейся перспективной разработкой в данной сфере, является интеллектуальный анализ процессов [7] (англ. business process mining). Данная технология использует то, чего у современной компании в избытке - данные, и анализирует их, чтобы решить одну из главнейших проблем - актуальность или отсутствие корректных моделей бизнес-процессов. [19]

Правильно организованное бизнес-моделирование в компании может повысить производительность компании и снизить ее издержки во много раз. Таким образом данная тема исследования является крайне актуальной для современного бизнеса.

Цель исследования.

Основная цель данного исследования - рассмотреть технологию интеллектуального анализа процессов, выяснить, насколько успешно она может решать проблемы современного бизнеса, имеет ли данная технология перспективы развития в будущем, а также проанализировать существующие примеры внедрения данной технологии и дать рекомендации по использованию глубинного анализа процессов.

Задачи исследования.

Для успешного выполнения целей настоящей работы были поставлены следующие задачи:

Исследовать основные принципы применения технологии интеллектуального анализа процессов.

Исследовать области применения данной технологии.

Проанализировать существующие случаи внедрения технологии в современных организациях.

Исследовать и провести сравнительный анализ различного программного обеспечения, позволяющего использовать технологию интеллектуального анализа процессов.

Сформировать рекомендации для компаний, касательно использования интеллектуального анализа процессов.

Методы.

В рамках данной дипломной работы происходит изучение существующих примеров использования технологии интеллектуального анализа процессов на современных предприятиях. Для этого будет проанализирована и изучена существующая в предметной области научная литература, а также различная документация программного обеспечения, реализующего эту технологию. На основе полученных знаний проведен сравнительный анализ различных методов, служащих для оптимизации бизнес-процессов и получены выводы, насчет состоятельности технологии.

ГЛАВА 1. ИСПОЛЬЗУЕМАЯ ТЕРМИНОЛОГИЯ

Интеллектуальный анализ данных (англ. data mining) - совокупность технологий, служащих для анализа существующих данных, полученных каким-либо образом и нахождения новых, неочевидных для человека, трактовок этих данных, связей между объектами исследования. Результаты полученного анализа могут быть использованы физическими или юридическими лицами для принятия решений в той или иной области, а также поиска ранее неизвестных зависимостей.

Лог (файл регистрации, регистр информации, англ. log) - документ или файл, представляющий собой журнал некоторых событий, записанных в хронологическом порядке.

Логирование (журналирование, англ. logging) - автоматическое формирование логов на основании какого-либо процесса. Логирование может быть как внешним, так и внутренним. При внутреннем логировании, как правило, происходит регистрация событий, происходящих в рамках работы какого-либо программного обеспечения или другого источника событий. При внешнем журналировании происходит запись действий пользователя программного обеспечения или поведения внешнего сервера (устройства).

Бизнес-процесс - набор последовательных действий, задач или работ, приводящий к созданию какого-либо продукта.

ERP-система - набор программных компонентов или решений, реализующих стратегию Enterprise Resource Planning (рус. планирование ресурсов предприятия). Программное обеспечение данного типа широко используется на современных предприятиях для осуществления различного уровня менеджмента в организации, а также для упрощения и автоматизации некоторых процессов, связанных с управлением человеческими ресурсами.

Интеллектуальный анализ процессов (глубинный анализ процессов, англ. process mining) - технология, в основе которой лежат исследование, мониторинг, оптимизация реальных бизнес-процессов с помощью извлечения знаний из журналов событий, доступных в используемых информационных системах, проверка существующих бизнес-моделей на соответствие реальной картине мира, автоматическое создание моделей бизнес-процессов, расширение и починка бизнес-моделей, предсказание инцидентов и предоставление рекомендаций, основанных на исторических данных.

1.1 Основные принципы

История интеллектуального анализа процесса, как объекта научных исследований, официально началась в 2012 году, когда Институт инженеров электротехники и электроники организовал рабочую группу во главе с нидерландским ученым и профессором Технического университета Эйндховена, Виллом ван дер Аалстом. Результатом работы данного органа стал документ под названием Process Mining Manifesto [1]. Этот документ официально утвердил интеллектуальный анализ процессов, как научную сферу. В нем рабочей группой были утверждены и формализованы понятия, касающиеся технологии, основные концепты и принципы, а также главные сложности, с которыми научному сообществу приходится столкнуться в рамках изучения интеллектуального анализа процессов. В рамках манифеста также было дано основное, обобщенное определение для глубинного анализа процессов, данное выше в работе.

Как видно из схемы выше (рис. 1), основными элементами экосистемы, заставляющими работать весь механизм глубинного анализа процессов, являются информационные системы, осуществляющие поддержку и контроль за текущими процессами в компании. [4] Такие системы хранят информацию о различных событиях: сообщениях, уведомлениях, транзакциях, входах пользователей в систему и пр., в различных базах данных. После попадания информации в базу данных, происходят процессы извлечения, фильтрации и перенаправления результирующих данных в программное обеспечение, способное произвести некоторый из типов глубинного анализа процессов.

В рамках манифеста также была произведена и установлена классификация трех основных используемых техник интеллектуального анализа процессов:

Рис. 1. Схема экосистемы интеллектуального анализа процессов.

1.2 Три техники интеллектуального анализа процессов

Исследование (англ. discovery)

Проверка на соответствие (англ. conformance)

Усовершенствование (англ. enhancement)

На рисунке 2 можно увидеть, что все три типа глубинного анализа имеют отличия как в данных, используемых на входе, так и в результатах, получаемых по завершению анализа. Таким образом каждый из типов глубинного анализа процессов отвечает определенным целям и служит для решения различного рода задач.

Рис. 2. Используемые данные и результат каждой из трех техник глубинного анализа.

Исследование.

Первой и наиболее популярной для использования техникой является метод исследования или открытия новой модели. В рамках такого метода за основу берется только событийные лог без какой-либо дополнительной, априорной информации и на его основе генерируется новая, до этого неизвестная, модель бизнес-процесса. Данный тип глубинного анализа используется организациями для решения проблем с низкой осведомленностью о существующем процессе. В крупных организациях, где существует большое количество уровней бизнес-процессов, часто происходит утрата контроля за некоторыми низкоуровневыми процессами и менеджмент перестает понимать, над чем действительно работают сотрудники компании. С помощью метода исследования, топ-менеджеры могут сформировать каталог реально существующих процессов и понять, как их улучшить или модифицировать для оптимизации.

Проверка на соответствие.

Во многих случаях, если организация занимается бизнес-моделированием, то определенное представление у менеджмента о том, как должны протекать те или иные процессы в компании уже существуют. При этом все равно могут возникать серьезные проблемы с эффективностью работы этих процессов. Как правило, это случается из-за того, что у ранее созданных в компании бизнес-моделей существует срок амортизации или в реальности процесс начинает уходить от изначально плана. Бизнес-модели необходимо своевременно актуализировать, чтобы выявлять естественные ошибки или отклонения от запланированных моделей. Для этого существует техника проверки моделей на соответствие. Такой тип глубинного анализа на входе принимает журналы событий, а также существующие “AS-IS” модели, а на выходе предоставляет диагностику, касательно соответствия реальной картины мира и предполагаемой менеджментом модели. Для измерения величины схожести моделей, а также оценки результатов анализа были разработаны следующие метрики:

Соответствие. Индикатор показывающий, насколько существующая модель покрывает существующую.

Точность. Индикатор, показывающий, насколько генерализованной является модель.

Структурированность. Индикатор, показывает сложность понимания полученной модели.

Таким образом организация может выявить слабые или плохо работающие места в реальных процессах и принять какие-либо меры по исправлению ситуации.

Усовершенствование

В рамках данной техники также используется комплексный анализ существующих моделей и журналов событий, но результатом работы данного анализа является новая, улучшенная модель, учитывающая информацию, полученную в ходе сравнения реальной и предполагаемой моделей. Тогда как проверка на соответствие больше используется для измерения несоответствия между реальностью и моделью, данная техника служит для изменения и усовершенствования текущей модели. К примеру, применяя данную технику, можно, используя данные о времени на решение той или иной задачи в рамках процесса, найти и убрать существующие узкие места в процессах, где требуемые трудозатраты превышают существующие производственные мощности.

Несмотря на то, что каждая из этих трех техник интеллектуального анализа процессов производит различный продукт на выходе, необходимо отметить, что как правило, все данные методики применяются организациями в совокупности, так как компаниям бывает недостаточно применения лишь одной из них.

1.3 Три основные предпосылки глубинного анализа данных

В рамках манифеста глубинного анализа данных также были сформированы основные принципы, разрушающие некоторые существующие предубеждения, касательно интеллектуального анализа данных.

Интеллектуальный анализ процессов не ограничен использованием какого-то определенного пошагового алгоритма для получения бизнес моделей. Процесс извлечение бизнес-моделей на основании журналов событий - это поле для творчества, как ученых, так и для разработчиков программного обеспечения. При этом серьезное внимание должно быть уделено тому, чтобы произведенный анализ имел корпоративное значение.

Интеллектуальный анализ процессов - это не отдельный тип интеллектуального анализа данных, поскольку большинство типов анализа данных не центрированы вокруг процессов. Глубинный анализ процессов - это мост между интеллектуальным анализом процессов и моделированием бизнес-процессов. Кроме того, типичные для интеллектуального анализа данных структуры данных, такие как, например, деревья решений, не могут быть сравнимы с моделями бизнес-процессов. Таким образом глубинный анализ процессов требует новых алгоритмов и методов отображения данных.

Интеллектуальный анализ процессов может быть использован для изменения и улучшения процессов, текущих прямо сейчас. Несмотря на то, что для анализа используются журнальные логи уже прошедших событий (так называемые “посмертные данные”), результаты глубинного анализа можно использовать для внедрения в текущие в реальном времени процессы. Используя глубинный анализ процессов на части существующего процесса, можно предсказать время, необходимое на его завершение и произвести нужные корректировки.

1.4 Основные этапы процесса интеллектуального анализа данных

Так процесс глубинного анализа данных является достаточно нетривиальным, учеными было принято решение поделить его на 5 основных этапов: планирование; извлечение данных; создание пошаговой модели и подключение журнала логов; создание интегрированной процессной модели; поддержка модели.

На этапе планирования определяются основные цели и предпосылки для глубинного анализа, а также ожидаемые результаты.

Вторым этапом является этап сбора информации. В рамках данного шага данные по журнальным логам извлекаются из источников, фильтруются, структурируются, приводятся в необходимое состояние, агрегируются и загружаются в программное обеспечение, обеспечивающее анализ лога.

Используемые программный компонент использует данные, полученные на 2 этапе и автоматическим образом, используя определенный алгоритм, генерирует тривиальную пошаговую модель процесса, связывая элементы процесса с конкретными событиями в рамках лога. Полученная модель уже может быть использована для анализа или формированию некоторых выводов и запуска механизма рефакторинга модели.

На четвертом этапе пошаговая модель дополняется и усложняется различными параметрами, также извлеченными из данных журналов событий. К примеру, элементы модели могут быть дополнены требованиями по трудозатратам, ресурсом, времени, сроками выполнения и др. Из этого этапа есть возможность возвращения на более раннии для введения корректировок в пошаговую модель или цели исследования.

Последним этапом является этап поддержки полученной модели. Из этого этапа также можно вернуться в любой из предыдущих при необходимости внесения изменений или актуализации полученных результатов.

1.5 Необходимые атрибуты данных

В 2017 году Б.Т. Грейлинг и В. Джуст [7] определили шесть основных атрибутов данных, необходимых для извлечения из элементов журналов событий, которые являются необходимыми для проведения успешного процесса интеллектуального анализа процесса. Этими атрибутами являются:

Идентификатор события - уникальный идентификатор, присвоенной тому или иному событию для возможностью отследить и найти это событие в базе данных в дальнейшем, а также создать связь между событием и одним из шагов полученной в ходе анализа модели.

Временная отметка - дата и время произошедшего события, нужные для того, чтобы отследить хронологию процесса, а также вычислить время, затраченное на выполнение того или иного действия.

Описание события - краткое описание произошедшего события.

Источник - субъект, являющийся непосредственным источником задокументированного события. Таким субъектом может являться, как человек, так и любая другая сущность, запустившая триггер на запись события. Например, информационная система, запустившая регулярный процесс резервного копирования данных или банк, обслуживающий фирму.

Идентификатор процесса - идентификатор родительского процесса, нужный, чтобы объединить несколько событий в рамках одного процесса в дальнейшем.

1.6 Основные трудности использования глубинного анализа

Несмотря на всю перспективность технологии глубинного анализа данных, эта технология все еще является крайне молодой. Именно поэтому ученые выделяют большое количество различных трудностей и слабых мест в методике интеллектуального анализа данных.

Одной из главных проблем в процессе глубинного анализа встречается уже на этапе извлечения данных. Невзирая на то, что у нынешних предприятий есть огромное количество источников различной информации о том, как протекают процессы на предприятии, сбор и нахождение полезной для анализа и, при этом, корректной информации все еще требует больших усилий и является большим вызовом для компаний. Данная проблема возникает по многим причинам. Во-первых, один и тот же элемент процесса может находиться в разных журналах и быть представленным различными событиями. Кроме того, описание одного и того же процесса может быть распределено по некоторому количеству различных источников. Это все приводит к необходимости разработки методов грамотного слияния данных из различных источников, что также является достаточно нетривиальной задачей. Второй проблемой, касающейся сбора информации для глубинного анализа, является то, что большинство логов являются центрированными относительно объектов - продуктов жизнедеятельности функций. Таким образом, дополнительные усилий должны быть затрачены, чтобы конвертировать набор событий, описывающих какой-либо объект в процесс. Главной же проблемой этапа извлечения данных является недостаточность или неполнота данных. В отличии от прежде названных трудностей, с которыми приходится сталкиваться специалистам по глубинному анализу, данная проблема крайне редко может быть решена без использования непосредственного человеческого вмешательства в процесс и ручного дополнения данных. Некоторые программные компоненты, являющиеся потенциальными источниками информации для глубинного анализа, могут не иметь достаточно качественного механизма журналирования или могут не записывать часть важной информации, необходимой для построения модели. В таких случаях необходим прямой контакт с участниками бизнес-процесса для восстановления временных линий, хронологии и других метаданных, касающихся процесса.

Еще одной потенциальной проблемой для произведения успешного глубинного анализа является сложность обработки некоторых журналов событий. Многие источники данных, зачастую, могут иметь крайне нетривиальные структуры журналов событий. Кроме того, многие журналы имеют достаточно большие объемы данных, что также усложняет процесс обработки данных.

Также, для того чтобы наиболее эффективно использовать методы интеллектуального анализа процессов с целью оптимизации бизнес моделей в компании, необходим стандартизированная и объективная система оценки качества полученных моделей. В условиях отсутствия объективных и понятных метрик качества моделей, сложно сравнить результаты работы различных решений, служащих для глубинного анализа. Это усложняет организациям выбор программных решений для произведения интеллектуального анализа процессов.

Важной проблемой является также то, что многие процессы могут меняться прямо во время анализа. При анализе первой половины журнала результаты могут кардинально отличаться от финальных. Такое возможно в связи с изменяющейся конъюнктурой процесса. Различные внешние и внутренние факторы, влияющие на работу компании, могут значительно изменить механизмы, сложившиеся в организации, что скажется на качестве и актуальности результирующей бизнес-модели.

Сбор данных из источников в рамках одной организации является намного более простой задачей, чем если в бизнес-процесс вовлечено более одной организации. В современном мире это также является достаточно частым и вполне нормальным явлением. Данный факт значительно усложняет процесс генерации модели не только по причинам усложнения коммуникации, необходимой для сбора информации, но и по причине возможной разнородности источников данных, используемых в разных компаниях. Таким образом, для произведения межорганизационного анализа, необходимы отличные от привычных алгоритмы глубинного анализа.

Нетривиальность методов глубинного анализа и сложность используемых алгоритмов также создает серьезную проблему, которая заключается в крайне высоком пороге входа для новых пользователей. Это касается, как использования методик анализа, так и внедрения механизмов интеллектуального анализа, а также правильной интерпретации полученных результатов. Поскольку технология является новой для рынка и сферы, может потребоваться некоторое количество времени, чтобы процесс внедрения глубинного анализа стал более доступным, а также появилось большее количество специалистов, способных встраивать данную методологию в процессный менеджмент организаций.

ГЛАВА 2. ОСНОВНЫЕ АЛГОРИТМЫ, ИСПОЛЬЗУЕМЫЕ ДЛЯ ГЛУБИННОГО АНАЛИЗА

Существует 3 основных алгоритма генерации бизнес моделей на основе данных, полученных из журналов событий, используемых для глубинного анализа данных:

б-алгоритм ван дер Аалста («б»)

эвристический алгоритм Вейтерса («H»)

генетический алгоритм Медейрос («G»)

Каждый из методов глубинного анализа имеет собственные особенности и служит для выполнения различных целей. Разберем основные особенности и отличия алгоритмов, а также сравним их, чтобы понять, для каких целей используется тот или иной алгоритм.

Альфа-алгоритм.

Разработанный б-алгоритм Вила ван дер Аалста основан на использовании сетей Петри. [5] На входе алгоритм получает некоторый лог событий в определенном формате, а в качестве результата производит сеть Петри, обозначающую соответствующие журналу процессы. Для построения сети, при этом, необходимо минимальное количество информации - список пар ключ-значение, состоящих из идентификатора процесса и идентификатора события [8]. Основной механизм работы алгоритма - на основании списка всех существующих между задачами и процессами связей установить все существующие последовательности событий и, используя правила алгебры логики, установить характер связей между каждым отдельным событием. После того, как алгоритмом определены характеры связей между всеми событиями, становится возможным создание сети Петри, представляющей собой отображение лога. Таким образом, на основании причинности связей строится модель бизнес-процесса. [30]

Рис. 3. Схема работы альфа-алгоритма Вила ван дер Аалста. На схеме изображены пример журнала событий, состоящего из пар, где указаны процесс (case) и событие (task), характеристики связей (А >В - «А следует за В», А > В -«А является причиной (предпосылкой) В», и А || В -«А происходит параллельно B».), а также сеть Петри, сгенерированная на основе полученных данных.

Альфа-алгоритм способен успешно воспроизводить процессные модели, которые отвечают принципам работы сетей Петри, но имеет сложности с обработкой более сложных логов, в которых содержатся лишние или ненужные данные - так называемые “шумы”.

Эвристический алгоритм.

Эвристический алгоритм Вейтерса, отчасти является частью альфа-алгоритма ван дер Аалста [3]. В основе эвристического алгоритма лежит учет частоты появления события в рамках одного конкретного процесса в рамках файла журнала событий. На основании частоты, с которой встречаются события процесса, данный алгоритм может сгенерировать модель определенной, рассчитанной заранее, точности. В рамках работы алгоритма формируется набор всех возможных наборов последовательностей событий и подсчитывается количество повторений набора в логе. После этого, также как и в альфа-алгоритме, формируется набор отношений между событиями лога. Такой набор отношений называют отпечатком лога. Затем происходит подсчет количества повторений появления одного события за другим. При этом два события не обязательно должны идти друг за другом прямо последовательно. Событие 1 и 2 могут формировать “зависимостях длинной дистанции”, когда связь между элементами лога присутствует, но они не находятся в прямой последовательности. Таким образом, на основе количества встречаемых связей между элементами, с учетом длин связей, подсчитывается величина силы отношений между событиями. На основе этих значений строится эвристическая графовая модель. [36]

Рис. 4. Пример эвристической модели процесса. Вершинами графов являются события a - d, на ребрах графах отмечено число связей, а в круглых скобках величина зависимости между элементами.

Так как модель основана на подсчитанной величине связей между событиями, это позволяет избежать “шумов” в логах и появления ошибочных зависимостей и записей, что делает алгоритм более привлекательным для работы с комплексными журналами событий. При этом стоит заметить, что вычисление силы связей между событиями имеет некоторую степень неточности из-за априорной несовершенности данных, а соответственно и полученная модель является актуальной в рамках определенного доверительного интервала.

Генетический алгоритм.

Генетический алгоритм является наиболее ресурсозатратным из всех, поскольку основан на принципе совершения большого количества итераций метода для поиска наилучшего результата. При этом, алгоритм во многом назван генетическим, поскольку повторяет некоторые принципы естественного отбора. Смысл метода заключается в том, чтобы при каждой итерации оставались наилучшие возможные решения, от которых можно было бы оттолкнуться во время последующей итерации. Алгоритм также является весьма ресурсозатратным, потому что у него нет формального конца. Поиск наилучшего результата прекращается тогда, когда принимается решение о достаточности качества результата последней итерации. Также, как и в альфа-методе и эвристическом алгоритме, из лога выделяют основные сущности: процессы и задачи. После этого, на основе частоты связей между субъектами лога, строится первая, начальная популяция возможных итоговых моделей. На основе индикаторов соответствия, точности и структурированности каждой модели присваивается некоторое значение метрики качества. После этого выбирается наилучшая модель из существующих или несколько лучших и, если величина метрики качества модели не является достаточной, то производится следующая итерация генетического алгоритма. Данная модель становится основой для второго поколения моделей. Вторая генерация создается путем перестановок вершин, ребер и направлений графа процесса, а также так называемых мутаций - добавления нового генетического материала (новых ребер, вершин и пр.). По итогам создания второго поколения процесс оценки качества моделей повторяется. При необходимости улучшения качества модели, процесс уходит на третью итерацию и так далее до тех пор, пока не будет достигнут приемлемый для поставленной задачи результат. Благодаря тому, что данный метод малым образом завязан на анализе связей, он является достаточно устойчивым к шумам в данных, так как эти самые шумы уходят из моделей эволюционным путем. [35]

Помимо этого, алгоритм имеет довольно высокую степень индивидуализации под конкретные задачи. В методы создания новых популяций можно включать неограниченное количество нужных условий, чтобы модели совершенствовалилсь быстрее и быстрее достигали нужного состояния. К примеру, многие генетические алгоритмы, использующиеся для глубинного анализа процессов включают в себя условия пересоздания элемента популяции при появлении дублей переходов. Таким образом, отсекаются многие лишние мутации.

2.1 Сравнение алгоритмов глубинного анализа

По результатам исследований, альфа-алгоритм, является наиболее быстрым по скорости выполнения и простым для использования. В условиях отсутствия комплексных, сложных, журналов, альфа-алгоритм может быть наиболее предпочтительным для выбора. В отличии от генетического алгоритма, альфа-алгоритм не имеет возможностей для выявления и поиска лишних, скрытых связей, поскольку он не использует никакой дополнительной информации и анализирует только то, что уже имеется в журнале событий, а значит, в результирующей модели не появляется лишней информации, отсутствующей в источниках. При этом, поскольку в результате работы альфа-алгоритма получается лишь одна модель. Минусом такого подхода - отсутствие других версий модели, из которых можно было бы выбирать. В условиях отсутствия каких-либо механизмов отбора, результирующая модель не является устойчивой к шумам. В такой модели часто появляются ненужные связи, элементы и переходы, существующие при этом в логах. Из-за этого альфа-алгоритм проигрывает, по сравнению с генетическим и эвристическим алогритмами, которые являются менее подверженным наличию мусорных данных.

Генетический алгоритм является лидером по качеству полученных моделей, при условии, что они создаются на основе реальных, а не синтетических логов. [25] Данный метод, потенциально имеет неограниченный простор для развития результата, а поэтому, при наличии достаточного количества популяций, результирующая модель имеет наименьшее количество шумов и является наиболее близкой и реальной модели. Также, генетический алгоритм, в отличии от альфа-алгоритма, использует большее количество информации, присутствующей в логах. Для работы альфа-алгоритма достаточно лишь связей между процессами и задачами, а генетический алгоритм может также использовать различные дополнительные параметры, метаданные и найденную в ходе эволюции модели, новую информацию. Главным недостатком генетического алгоритма является крайне высокая вычислительная нагрузка для серверов, а также довольно долгое время работы. Для достижения наилучшего результата необходимо произвести достаточно большое количество итераций алгоритма, а значит процесс может занять намного дольше, чем глубинный анализ, совершенный с помощью эвристического или альфа-алгоритмов.

Как показывают тесты, проведенные специалистами по глубинному анализу данных, эвристический алгоритм показывает лучшие результаты, касательно качества модели, по сравнению с альфа-алгоритмом, так является менее подверженным шумам. При этом, что касается скорости выполнения, эвристический алгоритм уступает альфа-алгоритму незначительно. Если сравнивать H и G алгоритмы, то стоит отметить, что эвристический алгоритм проигрывает генетическому в качестве полученной модели, но главным преимуществом эвристического подхода, в сравнении с генетическим является скорость работы. По результатам исследования можно сформировать следующую сравнительную таблицу, в которой все параметры измеряются по трёхбалльной шкале от худшего к лучшему (1-3):

Табл. 1. Сравнение алгоритмов глубинного анализа процессов.

Альфа

Генетический

Эвристический

Скорость выполнения алгоритма

3

1

2

Точность модели

1

3

2

Устойчивость к шумам

1

3

2

Количество требуемых ресурсов

3

1

2

В современных программных решениях существует практика комбинировать каждый из этих методов для решения подходящих задач. На сегодняшний день, практически все популярные программные решения используют технологии искусственного интеллекта и машинного обучения для создания правильных стратегий применения алгоритмов, а также их улучшения.

2.2 Популярные программные решения для задач глубинного анализа

На текущий момент на рынке существует достаточное количество различных решений, представляющих возможности интеллектуального анализа процессов. Каждое из решений имеет свою уникальную особенность и нишу на рынке. В рамках данного раздела работы предоставлен обзор программного обеспечения для интеллектуального анализа данных, сравнительный анализ эффективности наиболее популярных решений, а также различные способы и виды применения технологии в организации.

Celonis.

Компания Gartner, специализирующаяся на консалтинге и исследованиях рынка информационных технологий, многократно в своих отчет объявляла продукт компании Celonis лидером рынка process mining. Согласно отчетам компании, решение сочетает в себе удобный и понятный интерфейс, множество различных функциональных возможностей, а также высокое качество получаемых моделей. Среди всех доступных на рынке программных решений, Celonis обладает наиболее широким спектром библиотек, нужных для подключения сторонних источников данных. В решение предустановлены более 80 различных коннекторов для сбора информации, что позволяет с легкостью внедрить Celonis Process Mining в практически любую компанию, использующую какие-либо ERP-системы или другие средства контроля бизнес-процессов. Помимо этого, основной из главных функциональных особенностей данной системы является возможность использования коннекторов, производящих работу в реальном времени, что позволяет автоматически извлекать необходимую информацию и дополнять модели прямо во время работы самого процесса.

Процесс исследования моделей состоит из 4 этапов [11]:

Поиск наиболее традиционных связей и самых частых процессов.

Идентифицирование узких и слабых мест, шумов и точек наименьшей эффективности процесса.

Визуализация процесса, при помощи встроенных библиотек.

Поиск причинно-следственных связей и корней существующих проблем.

Первый, третий и четвертые шаги работают при поддержке технологий искусственного интеллекта и машинного обучения. При помощи технологии ИИ, Celonis Process Mining способен предложить пользователю список альтернатив текущему процессу, который позволит улучшить тот или иной показатель эффективности.

Одним из главных преимуществ программного обеспечения Celonis стал модуль Action Engine [10]. Данный компонент представляет собой персонального ассистента на основе технологий искусственного интеллекта [12], работающего в режиме реального времени. Модуль дает советы сотрудникам компании, основываясь на действиях, производимых ими в данную конкретную минуту и предлагает решения по оптимизации бизнес-процесса, в который вовлечен сотрудник. Action Engine выдает оповещения для работника в реальном времени, доступные с любого устройства. В первую очередь модуль направлен на проверку соответствия реальных бизнес-процессов установленной модели.

Еще одним важным преимуществом решения Celonis является возможность удобной организации процесса глубинного анализа кросс-организационных процессов. Благодаря наличию специального модуля, системы, работающие в разных организациях могут делиться данными о процессами для формирования карт общих процессов, что упрощает процесс сбора и слияния информации, источником которой являются две или более компании.

Рис.5. Интерфейс модуля исследования процессов Celonis Process Mining. На снимке экрана показана схема процесса (слева), а также модуль с метриками по процессу (справа).

ARIS Process Mining.

Одними из самых известных наборов инструментов для организации процессного менеджмента являются продукты компании Software AG семейства ARIS. ARIS являются одними из старожил рынка и на сегодняшний момент являются одними из главных конкурентов Celonis на лидерство в сфере разработки ПО для глубинного анализа.

В качестве основного функционала ARIS Process Mining производители заявляют:

Автоматическую генерацию бизнес-процессов и сравнение их с существующими проектами тех же процессов.

Поиск зависимостей, ошибок и аномалий в происходящих процессах.

Бенчмаркинг TO-BE и AS-IS процессов.

Визуализацию полученных моделей на основе нотации ARIS.

Несмотря на поддержку наиболее распространенных ERP и CRM систем, по количеству поддерживаемых источников данных ARIS уступает конкурентам. При этом, опыт разработки ПО для оптимизации бизнес-процессов, а также наличие дополнительной линейки платформ в области процессного менеджмента создают ключевые преимущества ARIS Process Mining. Система генерирует все модели в нотации ARIS и интегрирована с другими продуктами ARIS. Таким образом, пользователь может сначала создать модель бизнес-процесса в приложении ARIS Express, которое является одним из наиболее популярных среди себе подобных, а затем в несколько кликов качественным образом сравнить его с моделью, полученной из логов. Кроме того работа в нотации ARIS также является серьезным преимуществом, так как данный способ отображения бизнес-процессов является одним из самых используемых и узнаваемых в мире. В качестве инструментов аналитики решением предлагаются инструменты по поиску отклонений в процессах, идентификации причин создания узких мест и потерей производительности процесса. Другой уникальной особенностью ARIS Process Mining, выгодно отличающей данной решение от конкурентов, является наличие системы ролей и привилегий, встроенной в приложение. Данная система позволяет открыть сотрудникам доступ к просмотру и анализу только той части процесса, к которой он причастен. Данная функция позволяет вовлечь в процесс оптимизации бизнес-процессов больший процент сотрудников компании, а также развить осведомленность работников о процессах.

Рис. 6. Интерфейс ARIS Process Mining. В центре - карта процесса.

QPR ProcessAnalyzer.

Решение компании QPR Software, QPR ProcessAnalyzer, является одним из лидеров рынка программного обеспечения для глубинного анализа процессов. Данное решение используется бизнес-аналитиками для автоматической генерации моделей бизнес-процессов, а также поиска наиболее подходящих данной модели ключевых показателей эффективности. Продукт имеет крайне широкий спектр возможных источников данных, среди которых есть такие популярные решения, как Oracle, Salesforce, SAP, Microsoft Dynamics и другие. [27] Извлечение данных из источников происходит с помощью встроенных библиотек-коннекторов, что позволяет достаточно просто интегрировать решение в работу организации.[17] С помощью данных библиотек-коннекторов журналы событий из подключенных источников формируются в наборы данных, которые представляют собой упорядоченные таблицы событий, имеющие ряд уникальных параметров, определенных источником данных.

За процесс генерации моделей, основанных на полученных наборах данных, отвечают технологии искусственного интеллекта и машинного обучения. [20] Алгоритмы данного решения, способны к обнаружению нежелательных элементов в процессе, поиску наиболее выгодных альтернатив и разработке оптимальных ключевых показателей эффективности. Кроме того, решение позволяет роботизировать некоторые процессы в компании, после построения модели, если для работы данного процесса нет необходимости в использовании человеческого труда. Также, данное программное обеспечение имеет широкий спектр инструментов визуализации метрик и бизнес-процессов, что позволяет производить удобный визуальный анализ полученных результатов. [29]

Рис. 7. Интерфейс QPR ProcessAnalyzer. [28] На снимке экрана показана схема бизнес-процесса (слева), а также таблица с данными по каждому из этапов (справа).

ProM.

ProM или Process Mining Framework является одним из самых старых решений на рынке интеллектуального процесса [16] и был создан, в первую очередь, как результат научной деятельности исследователей в рамках данной сферы. Главной отличительной особенностью ProM является то, что решение имеет открытый исходный код и представляет собой не комплексную систему, а встраиваемый фреймворк. Весь процесс интеллектуального анализа процессов с использованием фреймворка основан на работе с тремя основными сущностями: объектами данных, плагинами и визуализаторами. Объектами данных в ProM являются журналы событий и модели процессов. Плагины - это встраиваемые дополнительные модули, обеспечивающие фильтрацию логов, а также три основных типов интеллектуального анализа. Фреймворк способен на визуализацию журналов событий, сетей петри и бизнес-процессов в нотации BPMN.

По своей сути решение представляет собой большой и кастомизируемый конструктор из плагинов, нужных для использования глубинного анализа, в рамках конкретной сформулированной задачи. При этом, поскольку решение не является крупной, комплексной системой, то для ее внедрения не требуются ни большие вычислительные мощности, ни специально выстроенная экосистема из серверов, ни большие объемы памяти. Это значительно упрощает процесс работы с фреймворком и делает возможным работу с ним практически сразу сразу после скачивания пакета с приложением. Кроме того, решение является независимым от платформы, так как написан на Java, что позволяет встроить его в экосистему любой компании.

Так как ProM является одной первых появившихся платформ, то по умолчанию, для глубинного анализа используется лишь один алгоритм - эвристический. При этом, за счет возможности подключения дополнительных модулей, потенциальный функционал ProM значительно расширяется, что позволяет использовать для анализа другие алгоритмы, в том числе собственные.

Рис. 8. Пример эвристической модели, созданной в ProM.

UIPath Process Understanding.

Компания UIPath в первую очередь специализируется на рынке в качестве разработчика платформ для внедрения RPA (Robotic Process Automation - автоматизация роботизированных процессов). Решения семейства Process Understanding прежде всего направлены на повышения эффективности процессов RPA. Двумя основными продуктами компании, имплементирующими задачи глубинного анализа процессов на предприятии являются Task Capture и Task Mining. [33] Сама компания определяет основными задачами своих решений для интеллектуального анализа так:

Использование глубинного анализа для поиска наилучших путей для автоматизации

Углубленное понимание процессов, происходящих в компании

Создание “моста” между экспертами по процессам и разработчиками RPA в компании.

Экосистема UIPath основана на получение логов и данных о процессах с помощью решения Task Capture и анализе полученной информации в Task Mining. При этом, в отличии от многих других решений, UIPath не использует в качестве прямых источников сторонние программные компоненты, используемые компанией. Процесс захвата задач (англ. task capture) происходит интегрировано и неразрывно с процессом RPA. Пользователь системы роботизации процессов настраивает необходимый ему алгоритм, выполняемый роботом и во время выполнения этого алгоритма модуль Task Capture собирает различную информацию о текущем процессе. На основании работ, выполненных роботом, строится карта процесса, подкрепленная дополнительной статистикой по выполняемому процессу, снимками экрана и анализом производительности. После этого, с помощью технологий искусственного интеллекта, выполняется поиск лучшей возможной альтернативы процессу и тот предлагается пользователю. Из-за специализированности UIPath на анализе роботизированных процессов, нужно сказать о сильной специфичности данного решения. При этом необходимо выделить главное преимущество системы - удобный и нативный пользовательский интерфейс, который значительно упрощает использование приложения неподготовленными пользователями.

Рис. 8. Интерфейс UIPath Task Capture. В центре экрана можно увидеть карту процесса. В верхнем меню доступен выбор экранов автоматизации, альтернативных вариантов процесса, сравнения текущего варианта, кластеризации, агрегирования процессов и проверки производительности процесса.

2.3 Сравнение программного обеспечения для глубинного анализа процессов

Для того, чтобы правильно дать правильную оценку и сравнить различные инструменты интеллектуального анализа процессов, необходимо разработать набор метрик и параметров, характеризующих качества той или иной системы и подчеркивающие наиболее важные для данных систем стороны. [18] [23] [32] В ходе исследования была разработана система оценивания, использующая несколько основных групп параметров, ответственных за отображение возможностей платформ решать основные, стоящие перед глубинным анализом проблемы. Для упрощение нотации дальейшего сравнительного анализа предполагается кодировка факторов на основе дальнейшей нумерации групп и параметров:

Возможность проведения разного типа глубинного анализа процессов. Данная группа факторов отражает широту спектра возможностей программного обеспечения. Как правило, современным организациям недостаточно проведения лишь одного типа глубинного анализа. Кроме того, к примеру, ценность анализа исследовательского типа значительно повышается при потенциальной возможности совершенствования полученной модели. Таким образом в этой группе факторов можно выделить три параметра с булевыми значениями - “Да”, “Нет”:

Возможность проведения исследования процесса. (1A);

Возможность проведения проверки на соответствие существующей модели. (1B); программный бизнес данный функционал

Возможность улучшения существующей модели на основе полученной в результате исследования. (1C);

Сложность внедрения решения с нуля в существующей компании. Настоящая группа факторов является одной из наиболее важных, так как во многом, от параметров данной группы зависит принятие решений организации об использовании или неиспользовании технологии глубинного анализа процессов. Этот набор характеристик в первую очередь направлен на то, чтобы проанализировать, насколько существующие на рынке решения способны справляться с проблемой высокого порога вхождения в технологию. В рамках данной группы были выделены следующие факторы, имеющие номинальные значения по трехбалльной шкале (Низко/Средне/Высоко):

Насколько удобным и нативным является пользовательский интерфейс? (2A);

Насколько решение поддерживается со стороны разработчика с точки зрения помощи в обучении и внедрению в организацию? (2B);

Насколько легко доступной, качественной и полной является документация программного обеспечения? (2C);

Широта потенциального спектра источников данных и простота их использования. Эта группа факторов призвана дать характеристику программного обеспечения с точки зрения возможности платформ использовать максимальное количество потенциальных источников информации. Группа факторов является достаточно важной, так как напрямую влияет на качество результирующих моделей. Также набор возможных источников данных является одним из главных факторов при выборе решения организациями. В ходе исследования были выделены следующие факторы данной категории:

Количество возможных источников данных. Метрикой является общее количество возможных источников для платформы. (3А);

Необходимо ли извлечение данных из источников вручную? Булевый фактор (“Да”/”Нет”). (3B);

Имеется ли поддержка источников данных, генерируемых людьми? Подразумевается использование источников, основанных не только на результатах работы системы или роботов. (3C);

Остальные факторы. В эту категорию попали важные для оценки параметры, которые не подошли под единую классификацию, но тем не менее являются необходимыми для объективной оценки ПО.

Сложность осуществления глубинного анализа кросс-функциональных процессов. Этот параметр отражает возможности платформ к решению проблемы по анализу процессов, имеющих части в разных организациях. Трехбалльная, возрастающая по степени трудности, шкала (“Сложно”/”Осуществимо”/”Нативно”). (4А);

Используемые алгоритмы глубинного анализа. Количество и качество возможных алгоритмов и методик анализа влияет на результирующую модель не меньше, чем качество исходных данных. В условиях постоянно меняющейся конъюнктуры и разнообразности процессов в компании необходимы возможности по использованию более подходящих под задачу алгоритмов. Значением фактора является список технологий и методов, которые использует ПО для анализа. (4B);

Количество средств анализа полученных моделей. Данный фактор прежде всего показывает, достаточность существующих в системах инструментов и метрик, характеризующих процессную модель или отдельный ее элемент. Трехбалльная шкала (“Недостаточно”, “Существует небольшое количество метрик”, “Существует большое количество различных тестов и показателей”) (4С);

Оценка пользователей программного обеспечения. Параметр основан на оценках пользователей на порталах Gartner [14], TrustRadius и G2. Фактор, в первую очередь, показывает довольство реальных пользователей программного обеспечения, что во многом отражает качество продукта. Метрика - средняя оценка пользователей от 1 до 5. (4D);

Наличие поддержки роботизации процессов. Технология RPA внедряется во многих современных предприятиях, так как позволяет значительно оптимизировать многие бизнес-процессы. Поэтому наличие возможности использовать RPA является существенным плюсом для платформ. Булевый фактор (“Да”/”Нет”). (4Е);

Проанализировав выше разобранное программное обеспечение с помощью разработанной системы оценки, получилась следующая сравнительная таблица:

Табл. 2. Сравнение программного обеспечения для глубинного анализа процессов. В верхней строке - название программного обеспечения, в левом ряду - код параметра.*МО - Машинное обучение; ИИ - искусственный интеллект.


Подобные документы

  • Перспективные направления анализа данных: анализ текстовой информации, интеллектуальный анализ данных. Анализ структурированной информации, хранящейся в базах данных. Процесс анализа текстовых документов. Особенности предварительной обработки данных.

    реферат [443,2 K], добавлен 13.02.2014

  • Разработка программного обеспечения для анализа полученных из хранилища данных. Система SAS Enterprise Miner и система Weka. Расчёт капитальных затрат на создание ПМК для анализа полученных из хранилища данных с использованием библиотеки XELOPES.

    дипломная работа [1,4 M], добавлен 07.06.2012

  • Методика исследования и анализа средств аудита системы Windows с целью обнаружения несанкционированного доступа программного обеспечения к ресурсам вычислительных машин. Анализ угрозы информационной безопасности. Алгоритм работы программного средства.

    дипломная работа [2,9 M], добавлен 28.06.2011

  • Разработка комплекса интеллектуального анализа данных, получаемых в процессе работы коммерческого предприятия розничной торговли. Исследование стационарности ассоциаций, выявление частоты появления ассоциаций. Скрипты для создания баз данных и таблиц.

    курсовая работа [706,3 K], добавлен 07.08.2013

  • Теория и основные этапы моделирования бизнес-процессов. Метод объектно-ориентированного анализа и проектирования. Особенности методологии ARIS. Метод, используемый в технологии Rational Unified Process. Связь функционального и имитационного моделирования.

    презентация [531,0 K], добавлен 22.10.2014

  • Создание структуры интеллектуального анализа данных. Дерево решений. Характеристики кластера, определение групп объектов или событий. Линейная и логистическая регрессии. Правила ассоциативных решений. Алгоритм Байеса. Анализ с помощью нейронной сети.

    контрольная работа [2,0 M], добавлен 13.06.2014

  • Совершенствование технологий записи и хранения данных. Специфика современных требований к переработке информационных данных. Концепция шаблонов, отражающих фрагменты многоаспектных взаимоотношений в данных в основе современной технологии Data Mining.

    контрольная работа [565,6 K], добавлен 02.09.2010

  • OLAP как автоматизированные технологии сложного (многомерного) анализа данных, Data mining - извлечение данных, интеллектуальный анализ. Виды запросов к многомерной базе данных, их содержание и анализ полученных результатов. Схема "звезда", "снежинка".

    презентация [132,1 K], добавлен 19.08.2013

  • Разработка подсистем анализа веб-сайта с помощью Microsoft Access и Olap-технологий. Теоретические аспекты разработки подсистемы анализа данных в информационной системе музыкального портала. Olap-технологии в подсистеме анализа объекта исследования.

    курсовая работа [864,8 K], добавлен 06.11.2009

  • Анализ этапов и особенностей разработки оптимальной и функциональной ARIS-модели - программного продукта компании IDS Scheer для моделирования бизнес-процессов компании. Изучение основных концепций, методологий и подходов экстремального программирования.

    контрольная работа [119,9 K], добавлен 04.06.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.