DBSCAN
Основанная на плотности пространственная кластеризация для приложений с шумами (англ. Density-based spatial clustering of applications with noise, DBSCAN) — это алгоритм кластеризации данных, который предложили Маритин Эстер, Ганс-Петер Кригель, Ёрг Сандер и Сяовэй Су в 1996[1]. Это алгоритм кластеризации, основанной на плотности — если дан набор точек в некотором пространстве, алгоритм группирует вместе точки, которые тесно расположены (точки со многими близкими соседями[англ.]), помечая как выбросы точки, которые находятся одиноко в областях с малой плотностью (ближайшие соседи которых лежат далеко). DBSCAN является одним из наиболее часто используемых алгоритмов кластеризации, и наиболее часто упоминается в научной литературе[2].
В 2014 алгоритм получил премию «проверено временем» (премия даётся алгоритмам, которые получили существенное внимание в теории и практике) на ведущей конференции по интеллектуальному анализу данных, KDD[3].
Ранние варианты
В 1972 Роберт Ф. Линг уже опубликовал статью с названием «Теория и построение k-кластеров» (англ. The Theory and Construction of k-Clusters)[4] в журнале The Computer Journal[англ.] со сходным алгоритмом с оценкой сложности вычисления [math]\displaystyle{ O(n^3) }[/math][4]. DBSCAN же имеет сложность в худшем случае [math]\displaystyle{ O(n^2) }[/math], а формулировка DBSCAN в ориентированных на базы данных терминах запросов на диапазон[прояснить] позволяет ускорение по индексу. Алгоритмы отличаются в их обработке граничных точек.
Подготовка
Рассмотрим набор точек в некотором пространстве, требующий кластеризации. Для выполнения кластеризации DBSCAN точки делятся на основные точки, достижимые по плотности точки и выпадающие следующим образом:
- Точка p является основной точкой, если по меньшей мере minPts точек находятся на расстоянии, не превосходящем [math]\displaystyle{ \epsilon }[/math] ([math]\displaystyle{ \epsilon }[/math] является максимальным радиусом соседства от p), до неё (включая саму точку p). Говорят, что эти точки достижимы прямо из p.
- Точка q прямо достижима из p, если точка q находится на расстоянии, не большем [math]\displaystyle{ \epsilon }[/math], от точки p и p должна быть основной точкой.
- Точка A q достижима из p, если имеется путь [math]\displaystyle{ p_1, \dots, p_n }[/math] с [math]\displaystyle{ p_1=p }[/math] и [math]\displaystyle{ p_n=q }[/math], где каждая точка [math]\displaystyle{ p_{i+1} }[/math] достижима прямо из [math]\displaystyle{ p_i }[/math] (все точки на пути должны быть основными, за исключением q).
- Все точки, не достижимые из основных точек, считаются выбросами.
Теперь, если p является основной точкой, то она формирует кластер вместе со всеми точками (основными или неосновными), достижимые из этой точки. Каждый кластер содержит по меньшей мере одну основную точку. Неосновные точки могут быть частью кластера, но они формируют его «край», поскольку не могут быть использованы для достижения других точек.
Достижимость не является симметричным отношением, поскольку, по определению, никакая точка не может быть достигнута из неосновной точки, независимо от расстояния (так что неосновная точка может быть достижимой, но ничто не может быть достигнуто из неё). Поэтому дальнейшее понятие связности необходимо для формального определения области кластеров, найденных алгоритмом DBSCAN. Две точки p и q связаны по плотности, если имеется точка o, такая что и p, и q достижимы из o. Связность по плотности является симметричной.
Тогда кластер удовлетворяет двум свойствам:
- Все точки в кластере попарно связны по плотности.
- Если точка достижима по плотности из какой-то точки кластера, она также принадлежит кластеру.
Алгоритм
Оригинальный алгоритм, основанный на запросах
DBSCAN требует задания двух параметров: [math]\displaystyle{ \epsilon }[/math] и минимального числа точек, которые должны образовывать плотную область[5] (minPts). Алгоритм начинается с произвольной точки, которая ещё не просматривалась. Выбирается [math]\displaystyle{ \epsilon }[/math]-окрестность точки и, если она содержит достаточно много точек, образуется кластер, в противном случае точка помечается как шум. Заметим, что эта точка может быть позже найдена в [math]\displaystyle{ \epsilon }[/math]-окрестности другой точки и включена в какой-то кластер.
Если точка найдена как плотная точка кластера, её [math]\displaystyle{ \epsilon }[/math]-окрестность также является частью этого кластера. Следовательно, все точки, найденные в [math]\displaystyle{ \epsilon }[/math]-окрестности этой точки, добавляются к кластеру. Этот процесс продолжается, пока не будет найден связный по плотности кластер. Затем выбирается и обрабатывается новая непосещённая точка, что ведёт к обнаружению следующего кластера или шума.
DBSCAN может быть использован с любой функцией расстояния[1][6] (а так же с функцией похожести или логическим условием)[7]. Функция расстояния (dist) может поэтому рассматриваться как дополнительный параметр.
Алгоритм может быть записан на псевдокоде следующим образом[6]:
DBSCAN(DB, distFunc, eps, minPts) { C=0 /* Счётчик кластеров */ for each point P in database DB { if label(P) ≠ undefined then continue /* Точка была просмотрена во внутреннем цикле */ Neighbors N=RangeQuery(DB, distFunc, P, eps) /* Находим соседей */ if|N|< minPts then { /* Проверка плотности */ label(P)=Noise /* Помечаем как шум */ continue } C=C + 1 /* следующая метка кластера */ label(P)=C /* Помечаем начальную точку */ Seed set S=N \ {P} /* Соседи для расширения */ for each point Q in S { /* Обрабатываем каждую зачаточную точку */ if label(Q)=Noise then label(Q)=C /* Заменяем метку Шум на Край */ if label(Q) ≠ undefined then continue /* Была просмотрена */ label(Q)=C /* Помечаем соседа */ Neighbors N=RangeQuery(DB, distFunc, Q, eps) /* Находим соседей */ if|N|≥ minPts then { /* Проверяем плотность */ S=S ∪ N /* Добавляем соседей в набор зачаточных точек */ } } } }
где RangeQuery может быть реализована с помощь индекса базы данных для лучшей производительности, или может быть использован линейный медленный просмотр:
RangeQuery(DB, distFunc, Q, [math]\displaystyle{ \epsilon }[/math]) { Neighbors=empty list for each point P in database DB { /* Scan all points in the database */ if [math]\displaystyle{ distFunc(Q, P) \leqslant \epsilon }[/math] then { /* Compute distance and check epsilon */ Neighbors=Neighbors ∪ {P} /* Add to result */ } } return Neighbors }
Абстрактный алгоритм
Алгоритм DBSCAN может быть разложен на следующие шаги[6]:
- Находим точки в [math]\displaystyle{ \epsilon }[/math] окрестности каждой точки и выделяем основные точки с более чем minPts соседями.
- Находим связные компоненты основных точек на графе соседей, игнорируя все неосновные точки.
- Назначаем каждую неосновную ближайшему кластеру, если кластер является [math]\displaystyle{ \epsilon }[/math]-соседним, в противном случае считаем точку шумом.
Наивная реализация алгоритма требует запоминания соседей на шаге 1, так что требует существенной памяти. Оригинальный алгоритм DBSCAN не требует этого за счёт того, что выполняет эти шаги для одной точки за раз.
Сложность
DBSCAN посещает каждую точку базы данных, может быть несколько раз (например, как кандидаты в другие кластеры). По опыту эксплуатации, однако, временна́я сложность в основном регулируются числом запросов regionQuery. DBSCAN выполняет в точности один такой запрос для каждой точки и, если используется индексная структура, которая выполняет запрос соседства[англ.] за время O(log n), получаем полную среднюю временну́ю сложность O(n log n) (если параметр [math]\displaystyle{ \epsilon }[/math] выбирается осмысленно, то есть так, что в среднем возвращается только O(log n) точек). Без использования ускоряющей индексной структуры или на вырожденных данных (например, когда все точки находятся на расстоянии меньше чем [math]\displaystyle{ \epsilon }[/math]), худшим случаем времени работы остаётся [math]\displaystyle{ O(n^2) }[/math]. Матрица расстояний размера [math]\displaystyle{ (n^2-n)/2 }[/math] может быть вычислена во избежание перевычисления расстояний, но это требует памяти [math]\displaystyle{ O(n^2) }[/math], в то время как реализация DBSCAN без матрицы расстояний требует лишь O(n) памяти.
Преимущества
- DBSCAN не требует спецификации числа кластеров в данных априори в отличие от метода k-средних.
- DBSCAN может найти кластеры произвольной формы. Он может найти даже кластеры полностью окружённые (но не связанные с) другими кластерами. Благодаря параметру MinPts уменьшается так называемый эффект одной связи (связь различных кластеров тонкой линией точек).
- DBSCAN имеет понятие шума и устойчив к выбросам.
- DBSCAN требует лишь двух параметров и большей частью нечувствителен к порядку точек в базе данных. (Однако, точки, находящиеся на границе двух различных кластеров могут оказаться в другом кластере, если изменить порядок точек, а назначение кластеров единственно с точностью до изоморфизма.)
- DBSCAN разработан для применения с базами данных, которые позволяют ускорить запросы в диапазоне значений, например, с помощью R*-дерева.
- Параметры minPts и [math]\displaystyle{ \epsilon }[/math] могут быть установлены экспертами в рассматриваемой области, если данные хорошо понимаются.
Недостатки
- DBSCAN не полностью однозначен — краевые точки, которые могут быть достигнуты из более чем одного кластера, могут принадлежать любому из этих кластеров, что зависит от порядка просмотра точек. Для большинства наборов данных эти ситуации возникают редко и имеют малое влияние на результат кластеризации[6] — основные точки и шум DBSCAN обрабатывает однозначно. DBSCAN*[8] является вариантом, который трактует краевые точки как шум и тем самым достигается полностью однозначный результат, а также более согласованная статистическая интерпретация связных по плотности компонент.
- Качество DBSCAN зависит от измерения расстояния, используемого в функции regionQuery(P,ε). Наиболее часто используемой метрикой расстояний является евклидова метрика. Особенно для кластеризации данных высокой размерности[англ.] эта метрика может оказаться почти бесполезной ввиду так называемого «проклятия размерности», что делает трудным делом нахождение подходящего значения [math]\displaystyle{ \epsilon }[/math]. Этот эффект, однако, присутствует в любом другом алгоритме, основанном на евклидовом расстоянии.
- DBSCAN не может хорошо кластеризовать наборы данных с большой разницей в плотности, поскольку не удается выбрать приемлемую для всех кластеров комбинацию [math]\displaystyle{ minPts-\epsilon }[/math][9].
- Если данные и масштаб не вполне хорошо поняты, выбор осмысленного порога расстояния [math]\displaystyle{ \epsilon }[/math] может оказаться трудным.
См. раздел ниже о расширениях для алгоритмических модификаций, имеющих дело с этими проблемами.
Оценка параметров
Любая задача интеллектуальной обработки данных имеет проблему параметров. Любой параметр специфично влияет на алгоритм. Для алгоритма DBSCAN нужны параметры [math]\displaystyle{ \epsilon }[/math] и minPts. Параметры должны быть определены пользователем. В идеале, значение [math]\displaystyle{ \epsilon }[/math] определяется решаемой задачей (например, физические расстояния), а minPts определяет тогда минимальный желаемый размер кластера[5].
- MinPts: Как показывает опыт, минимальное значение minPts может быть получено из размерности D набора данных как [math]\displaystyle{ minPts \geqslant D + 1 }[/math]. Низкое значение minPts=1 не имеет смысла, так как тогда любая точка будет кластером. Для [math]\displaystyle{ minPts \leqslant 2 }[/math] результат будет тем же самым, что и иерархическая кластеризация с метрикой единичного соединения с отсечением дендрограммы на высоте [math]\displaystyle{ \epsilon }[/math]. Поэтому minPts должен быть равным как минимум 3. Однако, для наборов данных с шумами бо́льшие значения обычно лучше, и дают более существенные кластеры. Опыт подсказывает, что может быть использовано значение [math]\displaystyle{ minPts=2 \cdot dim }[/math][7], но может оказаться необходимым выбор большего значения для больших наборов данных, для данных с шумом или для данных, содержащих много дубликатов[6].
- [math]\displaystyle{ \epsilon }[/math]: Значение [math]\displaystyle{ \epsilon }[/math] может быть выбрано с помощью графа k-расстояний, вычерчивая расстояние к ([math]\displaystyle{ k=minPts-1 }[/math]) ближайшему соседу в порядке от большего к меньшему[6]. Хорошие значения [math]\displaystyle{ \epsilon }[/math] те, где график имеет «изгиб»[1][7][6] — если [math]\displaystyle{ \epsilon }[/math] выбрана слишком малыми, большая часть данных не будет кластеризована, а для слишком больших значений [math]\displaystyle{ \epsilon }[/math] кластеры будут сливаться и большинство объектов окажутся в одном кластере. Обычно малые значения [math]\displaystyle{ \epsilon }[/math] предпочтительнее[6] и опыт показывает, что только небольшая доля точек должна быть с этим расстоянием друг от друга. Альтернативно, может быть использован график OPTICS для выбора [math]\displaystyle{ \epsilon }[/math][6], но тогда и сам алгоритм OPTICS может быть использован для кластеризации.
- Функция расстояния: Выбор функции расстояния сильно связан с выбором [math]\displaystyle{ \epsilon }[/math] и имеет большое влияние на результаты. Обычно сначала необходимо определить обоснованные меры похожести набора данных, прежде чем выбирать параметр [math]\displaystyle{ \epsilon }[/math]. Нет оценок для этого параметра, но функции расстояния следует выбирать согласно набору данных. Например, для географических данных, расстояние по дуге большого круга часто будет хорошим выбором.
OPTICS можно рассматривать как обобщение DBSCAN, в котором параметр [math]\displaystyle{ \epsilon }[/math] заменяется максимальным значением, наиболее воздействущим на эффективность. MinPts тогда становится минимальным размером кластера. Хотя алгоритм существенно проще в области выбора параметров, чем DBSCAN, его результаты труднее использовать, так как он обычно даёт иерархическую кластеризацию вместо простого разделения, которое даёт DBSCAN.
Недавно один из авторов DBSCAN пересмотрел DBSCAN и OPTICS и опубликовал пересмотренную версию иерархического DBSCAN (HDBSCAN*)[8], в котором уже нет понятия краевых точек. Только основные точки образуют кластер.
Расширения
Generalized DBSCAN (GDBSCAN)[7][10] является обобщением тех же авторов для произвольных логических выражений «соседства» и «плотности». Параметры [math]\displaystyle{ \epsilon }[/math] и minPts из алгоритма удаляются и переносятся в логические условия. Например, на многоугольных данных «соседство» может быть любым пересечением многоугольников, в то время как условие плотности использует площадь вместо числа объектов.
Были предложены различные расширения алгоритма DBSCAN, включая методы для параллелизации, оценки параметров и поддержка сомнительных данных. Основная идея была расширена до иерархической кластеризации алгоритмом OPTICS. Алгоритм DBSCAN использовался также как часть алгоритмов кластеризации подпространства, подобных PreDeCon и SUBCLU[англ.]. HDBSCAN[8] является иерархической версией DBSCAN, которая также быстрее OPTICS, и в котором из иерархии можно выделить плоское разбиение, состоящее из наиболее заметных кластеров[11].
Доступность
Были найдены различные реализации алгоритма с огромной разницей в производительности, самый быстрый завершал работу на тестовых данных за 1,4 секунды, а самый медленный тратил 13803 секунд[12]. Разницу можно отнести к качеству реализации, разнице в языках и компиляторах и в использовании индексов для ускорения.
- Apache Commons Math содержит реализацию на Java алгоритма, работающего за квадратичное время.
- ELKI[англ.] предоставляет реализацию DBSCAN, GDBSCAN и других вариантов. Эта реализация может использовать различные структуры индексов для обеспечения субквадратичного времени работы. В этой реализации могут быть использованы произвольные функции расстояния и произвольные типы данных, добиться ускорения можно оптимизацией на низком уровне и с помощью специальных методов на малых наборах данных.
- PostGIS включает ST_ClusterDBSCAN — двумерную реализацию DBSCAN, которая использует R-дерево в качестве индекса. Поддерживается любой геометрический тип, такой как Точка, Отрезок, Многоугольник и т. д..
- На языке R пакет fpc содержит DBSCAN с поддержкой произвольной функции расстояния через матрицы расстояний. Однако, реализация не поддерживает индексы (а потому имеет квадратичное время работы и сложность по времени), и надо сказать, реализация медленная ввиду использования интерпретатора R. Более быстрая реализация на C++ с использованием k-d деревьев (только для евклидовых расстояний) есть в R-пакете dbscan.
- scikit-learn включает реализацию DBSCAN на языке Python для произвольных метрик Минковского, которая может быть ускорена с помощью k-d деревьев и шаровых деревьев[англ.], но которая использует в худшем случае квадратичную память. Дополнительный пакет для scikit-learn даёт реализацию алгоритма HDBSCAN*.
- Библиотека pyclustering включает реализацию на языках Python и C++ DBSCAN только для евклидового расстояния, а также реализацию алгоритма OPTICS.
- SPMF включает реализацию алгоритма DBSCAN с поддержкой k-d дерева только для евклидового расстояния.
- Weka содержит (в качестве дополнительного пакета в последней версии) базовую реализацию DBSCAN, которая требует линейную память и работает за квадратичное время.
Примечания
- ↑ 1,0 1,1 1,2 Ester, Kriegel, Sander, Xu, 1996, с. 226–231.
- ↑ Microsoft Academic Search, 2010.
- ↑ Test of Time Award, 2014.
- ↑ 4,0 4,1 Ling, 1972, с. 326–332.
- ↑ 5,0 5,1 В то время как minPts, интуитивно, является минимальным размером кластера, в некоторых случаях DBSCAN может дать меньшие кластеры (Schubert, Sander, Ester, Kriegel, Xu 2017). Кластер DBSCAN состоит из по меньшей мере одной основной точки. Так как другие точки могут быть граничными точками более чем одного кластера, нет гарантии, что по меньшей мере minPts точек включаются в каждый кластер.
- ↑ 6,0 6,1 6,2 6,3 6,4 6,5 6,6 6,7 6,8 Schubert, Sander, Ester, Kriegel, Xu, 2017, с. 19:1–19:21.
- ↑ 7,0 7,1 7,2 7,3 Sander, Ester, Kriegel, Xu, 1998, с. 169–194.
- ↑ 8,0 8,1 8,2 Campello, Moulavi, Zimek, Sander, 2015, с. 1–51.
- ↑ Kriegel, Kröger, Sander, Zimek, 2011, с. 231–240.
- ↑ Sander, 1998.
- ↑ Campello, Moulavi, Zimek, Sander, 2013, с. 344.
- ↑ Kriegel, Schubert, Zimek, 2016, с. 341.
Литература
- Martin Ester, Hans-Peter Kriegel, Jörg Sander, Xiaowei Xu. A density-based algorithm for discovering clusters in large spatial databases with noise // Proceedings of the Second International Conference on Knowledge Discovery and Data Mining (KDD-96) / Evangelos Simoudis, Jiawei Han, Usama M. Fayyad. — AAAI Press, 1996. — С. 226–231. — ISBN 1-57735-004-9.
- Jörg Sander, Martin Ester, Hans-Peter Kriegel, Xiaowei Xu. Density-Based Clustering in Spatial Databases: The Algorithm GDBSCAN and Its Applications // Data Mining and Knowledge Discovery. — Berlin: Springer-Verlag, 1998. — Т. 2, вып. 2. — С. 169–194. — doi:10.1023/A:1009745219419.
- Microsoft Academic Search. — 2010. Архивировано 21 апреля 2010 года. Наиболее цитируемые статьи по интеллектуальному анализу данных согласно Microsoft academic search; DBSCAN стоит на 24 позиции.
- 2014 SIGKDD Test of Time Award. — ACM SIGKDD, 2014.
- Ling R. F. On the theory and construction of k-clusters // The Computer Journal. — 1972. — Т. 15, вып. 4. — ISSN 0010-4620. — doi:10.1093/comjnl/15.4.326.
- Erich Schubert, Jörg Sander, Martin Ester, Hans Peter Kriegel, Xiaowei Xu. DBSCAN Revisited, Revisited: Why and How You Should (Still) Use DBSCAN // ACM Trans. Database Syst.. — 2017. — Июль (т. 42, вып. 3). — ISSN 0362-5915. — doi:10.1145/3068335.
- Hans-Peter Kriegel, Peer Kröger, Jörg Sander, Arthur Zimek. Density-based Clustering // WIREs Data Mining and Knowledge Discovery. — 2011. — Т. 1, вып. 3. — С. 231–240. — doi:10.1002/widm.30.
- Ricardo J. G. B. Campello, Davoud Moulavi, Arthur Zimek, Jörg Sander. Hierarchical Density Estimates for Data Clustering, Visualization, and Outlier Detection // ACM Transactions on Knowledge Discovery from Data. — 2015. — Т. 10, вып. 1. — ISSN 1556-4681. — doi:10.1145/2733381.
- Jörg Sander. Generalized Density-Based Clustering for Spatial Data Mining. — Herbert Utz Verlag, 1998. — ISBN 3-89675-469-6.
- Campello R. J. G. B., Moulavi D., Zimek A., Sander J. A framework for semi-supervised and unsupervised optimal extraction of clusters from hierarchies // Data Mining and Knowledge Discovery. — 2013. — Т. 27, вып. 3. — doi:10.1007/s10618-013-0311-4.
- Hans-Peter Kriegel, Erich Schubert, Arthur Zimek. The (black) art of runtime evaluation: Are we comparing algorithms or implementations? // Knowledge and Information Systems. — 2016. — Т. 52, вып. 2. — С. 341. — ISSN 0219-1377. — doi:10.1007/s10115-016-1004-2.