Грубый набор - Rough set
В Информатика, а грубый набор, впервые описанный Польский специалист в области информатики Здислав И. Павляк, является формальным приближением хрустящий набор (т.е. традиционный набор) в терминах пары наборов, которые дают ниже и верхний аппроксимация исходного набора. В стандартной версии теории грубых множеств (Pawlak 1991) наборы нижнего и верхнего приближения являются четкими наборами, но в других вариантах аппроксимирующие наборы могут быть нечеткие множества.
Определения
Следующий раздел содержит обзор основных рамок теории грубых множеств, первоначально предложенных Здислав И. Павляк вместе с некоторыми ключевыми определениями. Более формальные свойства и границы грубых множеств можно найти в Pawlak (1991) и в цитированных ссылках. Первоначальную и базовую теорию грубых множеств иногда называют «Грубые наборы Павляка» или "классические грубые наборы", как средство отличия от более поздних расширений и обобщений.
Структура информационной системы
Позволять быть информационной системой (система значений атрибутов ), где непустой конечный набор объектов (вселенная) и непустой конечный набор атрибутов такой, что для каждого . набор значений, которые атрибут может занять. Информационная таблица присваивает значение от к каждому атрибуту и объект во вселенной .
С любым есть связанный отношение эквивалентности :
Соотношение называется -отношение неразличимости. Разделение это семья всех классы эквивалентности из и обозначается (или ).
Если , тогда и находятся неразличимый (или неотличимы) по атрибутам от .
Классы эквивалентности -отношения неразличимости обозначаются .
Пример: структура класса эквивалентности
Например, рассмотрим следующую информационную таблицу:
Образец информационной системы Объект 1 2 0 1 1 1 2 0 1 1 2 0 0 1 0 0 0 1 2 1 2 1 0 2 1 0 0 1 2 2 2 0 0 1 0 0 1 2 2 1 2 1 0 2 2 2 0 0 1 0
Когда полный набор атрибутов Мы видим, что имеем следующие семь классов эквивалентности:
Таким образом, два объекта в первом классе эквивалентности, , невозможно отличить друг от друга на основе доступных атрибутов, и три объекта во втором классе эквивалентности, , невозможно отличить друг от друга на основе доступных атрибутов. Остальные пять объектов можно отличить от всех остальных.
Очевидно, что выбор различных подмножеств атрибутов обычно приводит к разным классам неразличимости. Например, если атрибут Если выбрано только одно, мы получаем следующую, гораздо более грубую структуру классов эквивалентности:
Определение слова грубый набор
Позволять быть целевым набором, который мы хотим представить с помощью подмножества атрибутов ; то есть нам говорят, что произвольный набор объектов состоит из одного класса, и мы хотим выразить этот класс (т. е. это подмножество) с помощью классов эквивалентности, индуцированных подмножеством атрибутов . В общем, не может быть выражен точно, потому что набор может включать и исключать объекты, которые невозможно различить на основе атрибутов .
Например, рассмотрим целевой набор , и пусть подмножество атрибутов , полный доступный набор функций. Набор нельзя выразить точно, потому что в , объекты неразличимы. Таким образом, невозможно представить какой-либо набор который включает в себя но исключает объекты и .
Однако целевой набор может быть приблизительный используя только информацию, содержащуюся в путем построения -ниже и -верхние приближения :
Нижнее приближение и положительная область
В -низкое приближение, или положительный регион, является объединением всех классов эквивалентности в которые содержатся в целевом наборе (т.е. являются его подмножествами) - в этом примере , объединение двух классов эквивалентности в которые содержатся в целевом наборе. Нижнее приближение - это полный набор объектов в это может быть положительно (т.е. однозначно) классифицируются как принадлежащие к целевому набору .
Верхнее приближение и отрицательная область
В -верхнее приближение является объединением всех классов эквивалентности в которые имеют непустое пересечение с целевым множеством - в этом примере , объединение трех классов эквивалентности в которые имеют непустое пересечение с целевым множеством. Верхнее приближение - это полный набор объектов, которые в это не можешь положительно (то есть однозначно) классифицировать как принадлежащие дополнять () целевого набора . Другими словами, верхнее приближение - это полный набор объектов, которые возможно члены целевого набора .
Набор поэтому представляет отрицательный регион, содержащий набор объектов, которые могут быть однозначно исключены как члены целевого набора.
Приграничная область
В пограничная область, задаваемая заданной разностью , состоит из тех объектов, которые нельзя ни исключить, ни исключить как члены целевого набора. .
Таким образом, нижнее приближение целевого набора - это консервативный аппроксимация, состоящая только из тех объектов, которые могут быть положительно идентифицированы как члены множества. (У этих объектов нет неразличимых «клонов», которые исключаются целевым набором.) Верхнее приближение - это либеральный приближение, которое включает в себя все объекты, которые могут быть членами целевого набора. (Некоторые объекты в верхнем приближении могут не входить в целевой набор.) С точки зрения , нижнее приближение содержит объекты, которые с уверенностью являются членами целевого набора (вероятность = 1), а верхнее приближение содержит объекты, которые являются членами целевого набора с ненулевой вероятностью (вероятность> 0).
Грубый набор
Кортеж состоящий из нижнего и верхнего приближения, называется грубый набор; таким образом, грубый набор состоит из двух четких наборов, один из которых нижняя граница целевого набора , а другой представляет верхняя граница целевого набора .
В точность грубого представления множества может быть дано (Pawlak 1991) следующим образом:
То есть точность примерного представления множества , , , - отношение количества объектов, которые могут положительно быть помещенным в к количеству объектов, которые могут возможно быть помещенным в - это дает меру того, насколько приблизительный набор приближается к целевому. Ясно, что когда верхнее и нижнее приближения равны (т.е. граничная область пуста), то , и приближение идеальное; с другой стороны, когда нижнее приближение пусто, точность равна нулю (независимо от размера верхнего приближения).
Объективный анализ
Теория грубых множеств - один из многих методов, которые можно использовать для анализа неопределенных (в том числе неопределенных) систем, хотя и менее распространен, чем более традиционные методы анализа. вероятность, статистика, энтропия и Теория Демпстера – Шафера. Однако ключевое отличие и уникальная сила использования классической грубой теории множеств состоит в том, что она обеспечивает объективную форму анализа (Pawlak et al. 1995). В отличие от других методов, приведенных выше, классический анализ приблизительного набора не требует дополнительной информации, внешних параметров, моделей, функций, оценок или субъективных интерпретаций для определения принадлежности к набору - вместо этого он использует только информацию, представленную в данных (Düntsch and Gediga, 1995). ). Более поздние адаптации теории приблизительных множеств, такие как основанные на преобладании, теоретико-решающие и нечеткие грубые множества, внесли в анализ больше субъективности.
Определяемость
В общем, верхнее и нижнее приближения не равны; в таких случаях мы говорим, что целевой набор является неопределимый или примерно определимый по набору атрибутов . Когда верхнее и нижнее приближения равны (т.е. граница пуста), , то целевой набор является определяемый по набору атрибутов . Можно выделить следующие частные случаи неопределенности:
- Набор является внутри неопределимый если и . Это означает, что при установленном атрибуте , есть нет объекты, которые, как мы можем быть уверены, принадлежат целевому набору , но там находятся объекты, которые мы можем окончательно исключить из множества .
- Набор является внешне неопределимый если и . Это означает, что при установленном атрибуте , Там находятся объекты, которые, как мы можем быть уверены, принадлежат целевому набору , но есть нет объекты, которые мы можем окончательно исключить из множества .
- Набор является совершенно неопределимый если и . Это означает, что при установленном атрибуте , есть нет объекты, которые, как мы можем быть уверены, принадлежат целевому набору , и здесь нет объекты, которые мы можем окончательно исключить из множества . Таким образом, при наборе атрибутов , мы не можем решить, является ли какой-либо объект членом .
Снижение и сердцевина
Интересный вопрос заключается в том, есть ли в информационной системе атрибуты (таблица значений атрибутов), которые более важны для знаний, представленных в структуре класса эквивалентности, чем другие атрибуты. Часто мы задаемся вопросом, существует ли подмножество атрибутов, которое само по себе полностью характеризует знания в базе данных; такой набор атрибутов называется сокращать.
Формально редукт - это подмножество атрибутов такой, что
- = , то есть классы эквивалентности, индуцированные редуцированным набором атрибутов такие же, как структура класса эквивалентности, индуцированная полным набором атрибутов .
- набор атрибутов является минимальный, в том смысле, что для любого атрибута ; другими словами, атрибут нельзя удалить из набора без изменения классов эквивалентности .
Редукт можно рассматривать как достаточно набор функций - достаточный, то есть для представления структуры категорий. В приведенном выше примере таблицы атрибут установлен является сокращением - информационная система, спроектированная только на эти атрибуты, обладает той же структурой классов эквивалентности, что и выраженная полным набором атрибутов:
Набор атрибутов является сокращением, поскольку устранение любого из этих атрибутов вызывает коллапс структуры класса эквивалентности, в результате чего .
Редукция информационной системы не уникальный: может быть много подмножеств атрибутов, которые сохраняют структуру класса эквивалентности (т.е. знания), выраженную в информационной системе. В приведенном выше примере информационной системы другим сокращением является , производя ту же структуру классов эквивалентности, что и .
Набор атрибутов, общий для всех редуктов, называется ядро: ядро - это набор атрибутов, которыми обладает каждый reduct, и поэтому состоит из атрибутов, которые нельзя удалить из информационной системы, не вызывая коллапса структуры класса эквивалентности. Ядро можно рассматривать как набор нужно атрибуты - необходимые, то есть для представления структуры категории. В этом примере единственный такой атрибут - ; любой из других атрибутов может быть удален по отдельности, не повреждая структуру класса эквивалентности, и, следовательно, все они необязательный. Однако удаление сам по себе делает изменить структуру класса эквивалентности и, таким образом, это незаменимый атрибут этой информационной системы, а значит, и ядро.
Ядро может быть пустым, что означает отсутствие обязательного атрибута: любой отдельный атрибут в такой информационной системе может быть удален без изменения структуры класса эквивалентности. В таких случаях нет существенный или необходимый атрибут, который требуется для представления структуры класса.
Зависимость от атрибутов
Одним из наиболее важных аспектов анализа базы данных или сбора данных является обнаружение зависимостей атрибутов; то есть мы хотим выяснить, какие переменные сильно связаны с какими другими переменными. Как правило, именно эти сильные взаимосвязи требуют дальнейшего исследования и в конечном итоге могут быть использованы при прогнозном моделировании.
В грубой теории множеств понятие зависимости определяется очень просто. Возьмем два (непересекающихся) набора атрибутов, положим и установить и узнать, какая степень зависимости между ними. Каждый набор атрибутов индуцирует (неразличимость) структуру классов эквивалентности, классы эквивалентности индуцируются данный , а классы эквивалентности, индуцированные данный .
Позволять , где является заданным классом эквивалентности из структуры класса эквивалентности, индуцированной набором атрибутов . Затем зависимость набора атрибутов по набору атрибутов , , дан кем-то
То есть для каждого класса эквивалентности в , мы складываем размер его нижнего приближения по атрибутам в , т.е. . Это приближение (как и выше, для произвольного множества ) - количество объектов, для которых установлен атрибут могут быть положительно определены как принадлежащие к целевому набору . Добавлен по всем классам эквивалентности в числитель выше представляет общее количество объектов, которые - на основе набора атрибутов - могут быть положительно отнесены к категории согласно классификации, вызванной атрибутами . Таким образом, коэффициент зависимости выражает долю (в пределах всей вселенной) таких классифицируемых объектов. Зависимость "можно интерпретировать как долю таких объектов в информационной системе, для которой достаточно знать значения атрибутов в для определения значений атрибутов в ".
Другой, интуитивно понятный способ рассмотрения зависимости состоит в том, чтобы принять раздел, индуцированный Q, в качестве целевого класса C и рассматривать P как набор атрибутов, который мы хотим использовать, чтобы «воссоздать» целевой класс C. Если P может полностью восстановить C, тогда Q полностью зависит от P; если P приводит к плохой и, возможно, случайной реконструкции C, то Q вообще не зависит от P.
Таким образом, эта мера зависимости выражает степень функциональный (т.е. детерминированная) зависимость набора атрибутов по набору атрибутов ; это не симметричный. Связь этого понятия атрибутивной зависимости с более традиционными теоретико-информационными (т. Е. Энтропийными) понятиями атрибутивной зависимости обсуждалась в ряде источников (например, Pawlak, Wong, & Ziarko 1988; Yao & Yao 2002; Wong, Ziarko , & Ye 1986, Quafafou & Boussouf 2000).
Извлечение правил
Представления категорий, обсужденные выше, являются экстенсиональный в природе; то есть категория или сложный класс - это просто сумма всех своих членов. Таким образом, представление категории - это просто возможность перечислить или идентифицировать все объекты, принадлежащие этой категории. Однако экстенсиональные представления категорий имеют очень ограниченное практическое применение, потому что они не дают понимания для принятия решения о том, являются ли новые (никогда ранее не замеченные) объекты членами категории.
Обычно желательно преднамеренный описание категории, представление категории на основе набора правила которые описывают объем категории. Выбор таких правил не уникален, и в этом заключается проблема индуктивное смещение. Увидеть Пробел версии и Выбор модели для получения дополнительной информации об этой проблеме.
Есть несколько методов извлечения правил. Мы начнем с процедуры извлечения правил, основанной на Ziarko & Shan (1995).
Матрицы решений
Допустим, мы хотим найти минимальный набор непротиворечивых правил (логические следствия ), которые характеризуют нашу систему выборки. Для набора состояние атрибуты и атрибут решения эти правила должны иметь вид , или, по буквам,
где являются допустимыми значениями из доменов соответствующих атрибутов. Это типичная форма правила ассоциации, а количество элементов в которые соответствуют условию / антецеденту, называется поддержка за правило. Метод извлечения таких правил приведен в Зярко и Шан (1995) должен сформировать матрица решений соответствующий каждому отдельному значению атрибута решения . Неформально матрица решений для значения атрибута решения перечисляет все пары атрибут-значение, которые отличаться между объектами, имеющими и .
Лучше всего это пояснить на примере (который также избегает множества обозначений). Рассмотрим таблицу выше, и пусть - переменная решения (т. е. переменная в правой части импликаций), и пусть - условные переменные (в левой части импликации). Отметим, что переменная решения принимает два разных значения, а именно . Мы рассматриваем каждый случай отдельно.
Сначала посмотрим на корпус , и мы разделяем в объекты, которые имеют и те, у кого есть . (Обратите внимание, что объекты с в данном случае это просто объекты, , а вообще, будет включать все объекты, имеющие любое значение для Кроме как , а таких классов объектов может быть несколько (например, имеющие ).) В этом случае объекты, имеющие находятся в то время как объекты, имеющие находятся . Матрица решений для перечисляет все различия между объектами, имеющими и те, у кого ; то есть матрица решений перечисляет все различия между и . Ставим «положительные» предметы () как строки, а «отрицательные» объекты как столбцы.
Матрица решений для Объект
Чтобы прочитать эту матрицу решений, посмотрите, например, на пересечение строки и столбец , показывая в камере. Это значит, что в отношении к значение решения , объект отличается от объекта по атрибутам и , и конкретные значения этих атрибутов для положительного объекта находятся и . Это говорит нам о том, что правильная классификация как принадлежащий к классу решений опирается на атрибуты и ; хотя одно или другое может быть необязательным, мы знаем, что хотя бы один из этих атрибутов внеобязательный.
Далее из каждой матрицы решений формируем набор Булево выражения, по одному выражению для каждой строки матрицы. Элементы в каждой ячейке объединяются дизъюнктивно, а затем отдельные ячейки объединяются вместе. Таким образом, для приведенной выше таблицы у нас есть следующие пять логических выражений:
Каждое утверждение здесь, по сути, очень специфично (вероятно, тоже конкретное) правило, регулирующее членство в классе соответствующего объекта. Например, последнее утверждение, соответствующее объекту , заявляет, что должны быть выполнены все следующие условия:
- Либо должен иметь значение 2, или должен иметь значение 0 или оба.
- должно иметь значение 0.
- Либо должен иметь значение 2, или должен иметь значение 0 или оба.
- Либо должен иметь значение 2, или должен иметь значение 0, или должен иметь значение 0 или любую их комбинацию.
- должно иметь значение 0.
Понятно, что здесь имеется большая избыточность, и следующим шагом будет упрощение использования традиционных Булева алгебра. Заявление соответствующие объектам упрощает до , откуда следует импликация
Точно так же заявление соответствующие объектам упрощается до . Это дает нам возможность
Вышеупомянутые последствия также можно записать в виде следующего набора правил:
Можно отметить, что каждое из первых двух правил имеет поддержка из 1 (т. е. антецедент соответствует двум объектам), в то время как каждое из двух последних правил имеет поддержку 2. Чтобы закончить запись набора правил для этой системы знаний, выполните ту же процедуру, что и выше (начиная с написания новой матрицы решений) следует соблюдать в случае , таким образом давая новый набор последствий для этого значения решения (т. е. набор последствий с как следствие). В общем, процедура будет повторяться для каждого возможного значения переменной решения.
Система индукции правил LERS
Система данных LERS (Обучение на примерах, основанных на грубых наборах) Grzymala-Busse (1997) может вводить правила из несовместимых данных, то есть данных с конфликтующими объектами. Два объекта конфликтуют, если они характеризуются одинаковыми значениями всех атрибутов, но принадлежат к разным концепциям (классам). LERS использует приблизительную теорию множеств для вычисления нижних и верхних приближений для концепций, находящихся в конфликте с другими концепциями.
Правила, индуцированные из нижнего приближения концепции безусловно описывают концепцию, поэтому такие правила называются определенный. С другой стороны, правила, индуцированные из верхнего приближения понятия, описывают понятие возможно, поэтому эти правила называются возможное. Для индукции правил LERS использует три алгоритма: LEM1, LEM2 и IRIM.
Алгоритм LEM2 LERS часто используется для индукции правил и используется не только в LERS, но и в других системах, например, в RSES (Bazan et al. (2004). LEM2 исследует пространство поиска пары атрибут-значение. Его набор входных данных является нижним или верхним приближением концепции, поэтому его набор входных данных всегда согласован. В общем, LEM2 вычисляет локальное покрытие и затем преобразует его в набор правил. Мы процитируем несколько определений для описания алгоритма LEM2.
Алгоритм LEM2 основан на идее блока пары атрибут-значение. Позволять быть непустым нижним или верхним приближением концепции, представленной парой решение-значение . Набор зависит на съемочной площадке пар атрибут-значение если и только если
Набор это минимальный комплекс из если и только если зависит от и нет подходящего подмножества из существует такое, что зависит от . Позволять быть непустой коллекцией непустых наборов пар атрибут-значение. потом это местное покрытие из тогда и только тогда, когда выполняются следующие три условия:
каждый член из это минимальный комплекс ,
- минимальна, т.е. имеет минимально возможное количество членов.
Для нашей тестовой информационной системы LEM2 будет вызывать следующие правила:
Другие методы обучения правилам можно найти, например, в Pawlak (1991), Stefanowski (1998), Bazan et al. (2004) и др.
Неполные данные
Теория грубых множеств полезна для индукции правил из неполных наборов данных. Используя этот подход, мы можем различать три типа отсутствующих значений атрибутов: потерянные ценности (значения, которые были записаны, но в настоящее время недоступны), значения понятия атрибута (эти отсутствующие значения атрибутов могут быть заменены любым значением атрибута, ограниченным той же концепцией), и "безразлично" условия (исходные значения не имели значения). А концепция (класс) - это совокупность всех объектов, классифицируемых (или диагностируемых) одинаково.
Были тщательно изучены два специальных набора данных с отсутствующими значениями атрибутов: в первом случае все отсутствующие значения атрибутов были потеряны (Stefanowski and Tsoukias, 2001), во втором случае все отсутствующие значения атрибутов были условиями «безразлично» (Kryszkiewicz, 1999).
При интерпретации значений концепции атрибута отсутствующего значения атрибута отсутствующее значение атрибута может быть заменено любым значением атрибутивной области, ограниченным концепцией, к которой принадлежит объект с отсутствующим значением атрибута (Grzymala-Busse and Grzymala-Busse, 2007 ). Например, если для пациента значение атрибута Температура отсутствует, этот пациент болен гриппом, а все оставшиеся пациенты, больные гриппом, имеют высокие или очень высокие значения для Температуры при использовании интерпретации отсутствующего значения атрибута как attribute-concept value, мы заменим отсутствующее значение атрибута на высокое и очень высокое. Кроме того, характеристическое отношение, (см., например, Grzymala-Busse и Grzymala-Busse, 2007) позволяет обрабатывать наборы данных со всеми тремя типами отсутствующих значений атрибутов одновременно: потерянными, условиями "безразлично" и значениями концепции атрибутов.
Приложения
Методы грубого набора могут применяться как составная часть гибридных решений в машинное обучение и сбор данных. Было обнаружено, что они особенно полезны для индукция правила и выбор функции (сохраняющий семантику уменьшение размерности ). Методы анализа данных на основе грубых множеств успешно применяются в биоинформатика, экономика и финансы, медицина, мультимедиа, Интернет и интеллектуальный анализ текста, обработка сигналов и изображений, программная инженерия, робототехника и инженерия (например, энергетические системы и техника управления ). В последнее время три области грубых наборов интерпретируются как области принятия, отклонения и отсрочки. Это приводит к трехстороннему подходу к принятию решений с помощью модели, которая потенциально может привести к интересным будущим приложениям.
История
Идея приблизительного набора была предложена Павляк (1981) как новый математический инструмент для работы с неопределенными понятиями. Комер, Гжимала-Буссе, Ивински, Ниеминен, Новотны, Павляк, Обтулович и Помыкала изучали алгебраические свойства грубых множеств. Различную алгебраическую семантику разработали П. Паглиани, И. Дунч, М. К. Чакраборти, М. Банерджи и А. Мани; они были распространены на более общие грубые множества, в частности, Д. Каттанео и А. Мани. Грубые наборы могут использоваться для представления двусмысленность, неопределенность и вообще неуверенность.
Расширения и обобщения
С момента появления грубых наборов, расширения и обобщения продолжали развиваться. Первоначальные разработки были сосредоточены на отношениях - как сходствах, так и различиях - с нечеткие множества. В то время как в одной литературе утверждается, что эти концепции различны, в другой литературе считается, что грубые множества являются обобщением нечетких множеств, представленных либо через нечеткие грубые множества, либо через грубые нечеткие множества. Pawlak (1995) считал, что нечеткие и грубые множества следует рассматривать как дополняющие друг друга, обращаясь к различным аспектам неопределенности и нечеткости.
Три важных расширения классических грубых множеств:
- Подход, основанный на доминировании (DRSA) является расширением теории грубых множеств для многокритериальный анализ решений (MCDA), представленный Греко, Матараццо и Словински (2001). Основным изменением в этом расширении классических грубых множеств является замена отношения неразличимости на господство отношение, которое позволяет формализму иметь дело с несоответствиями, типичными при рассмотрении критериев и классов решений, упорядоченных по предпочтениям.
- Грубые наборы теории принятия решений (DTRS) - вероятностное расширение теории грубых множеств, введенное Яо, Вонгом и Линграсом (1990). Он использует байесовскую процедуру принятия решений для принятия решений с минимальным риском. Элементы включаются в нижнее и верхнее приближения в зависимости от того, превышает ли их условная вероятность пороговых значений. и . Эти верхний и нижний пороги определяют включение области для элементов. Эта модель уникальна и эффективна, поскольку сами пороги рассчитываются на основе набора из шести функций потерь, представляющих риски классификации.
- Теоретико-игровые грубые множества (GTRS) - это основанное на теории игр расширение грубого множества, которое было введено Гербертом и Яо (2011). Он использует теоретико-игровую среду для оптимизации определенных критериев классификации или принятия решений на основе приблизительных наборов с целью получения эффективных размеров области.
Грубое членство
Грубые множества также можно определить в качестве обобщения, используя грубую функцию принадлежности вместо объективного приближения. Грубая функция принадлежности выражает условную вероятность того, что принадлежит данный . Это можно интерпретировать как степень принадлежит с точки зрения информации о выраженный .
Грубое членство в первую очередь отличается от нечеткого членства тем, что членство в объединении и пересечении множеств, как правило, не может быть вычислено по их составному членству, как в случае нечетких множеств. В этом случае грубое членство является обобщением нечеткого членства. Более того, грубая функция принадлежности основывается больше на вероятности, чем традиционные концепции нечеткой функции принадлежности.
Другие обобщения
Были введены, изучены и применены к решению задач несколько обобщений грубых множеств. Вот некоторые из этих обобщений:
- грубые мультимножества (Grzymala-Busse, 1987)
- нечеткие грубые множества расширяют концепцию грубых множеств за счет использования классов нечеткой эквивалентности (Накамура, 1988)
- Альфа-теория грубых множеств (α-RST) - обобщение теории грубых множеств, которое позволяет приближение с использованием нечетких концепций (Quafafou, 2000)
- интуиционистские нечеткие грубые множества (Корнелис, Де Кок и Керр, 2003)
- обобщенные грубые нечеткие множества (Feng, 2010)
- грубые интуиционистские нечеткие множества (Thomas and Nair, 2011)
- мягкие грубые нечеткие множества и мягкие нечеткие грубые множества (Meng, Zhang and Qin, 2011)
- составные грубые наборы (Zhang, Li and Chen, 2014)
Смотрите также
- Алгебраическая семантика
- Альтернативная теория множеств
- Аналоговый компьютер
- Описание логики
- Нечеткая логика
- Теория нечетких множеств
- Гранулярные вычисления
- Рядом наборы
- Грубая нечеткая гибридизация
- Нечеткие множества и системы типа 2
- Грубые наборы теории принятия решений * Пробел версии
- Грубый подход, основанный на доминировании
использованная литература
- Павляк, Здислав (1982). «Грубые наборы». Международный журнал параллельного программирования. 11 (5): 341–356. Дои:10.1007 / BF01001956. S2CID 9240608.
- Базан, Ян; Щука, Марцин; Война, Аркадиуш; Войнарский, Марцин (2004). Об эволюции геолого-разведочной системы. Труды РНТЦ 2004 г.. Конспект лекций по информатике. 3066. С. 592–601. CiteSeerX 10.1.1.60.3957. Дои:10.1007/978-3-540-25929-9_73. ISBN 978-3-540-22117-3.
- Дюбуа, Д .; Прад, Х. (1990). «Грубые нечеткие множества и нечеткие грубые множества». Международный журнал общих систем. 17 (2–3): 191–209. Дои:10.1080/03081079008935107.
- Herbert, J. P .; Яо, Дж. Т. (2011). "Теоретико-игровые грубые множества". Fundamenta Informaticae. 108 (3–4): 267–286. Дои:10.3233 / FI-2011-423.
- Греко, Сальваторе; Матараццо, Бенедетто; Словинский, Роман (2001). «Теория грубых множеств для многокритериального анализа решений». Европейский журнал операционных исследований. 129 (1): 1–47. Дои:10.1016 / S0377-2217 (00) 00167-3.
- Grzymala-Busse, Jerzy (1997). «Новая версия системы индукции правил LERS». Fundamenta Informaticae. 31: 27–39. Дои:10.3233 / FI-1997-3113.
- Гжимала-Буссе, Ежи; Гжимала-Буссе, Витольд (2007). Экспериментальное сравнение трех приблизительных подходов к отсутствию значений атрибутов. Сделки по грубым наборам. Конспект лекций по информатике. 6. С. 31–50. Дои:10.1007/978-3-540-71200-8_3. ISBN 978-3-540-71198-8.
- Крышкевич, Марзена (1999). «Правила в неполных системах». Информационные науки. 113 (3–4): 271–292. Дои:10.1016 / S0020-0255 (98) 10065-8.
- Павляк, Здислав Грубые наборы Отчет об исследовании PAS 431, Институт компьютерных наук Польской академии наук (1981)
- Павляк, Здислав; Вонг, С. К. М .; Зярко, Войцех (1988). «Грубые множества: вероятностный подход против детерминированного». Международный журнал человеко-машинных исследований. 29: 81–95. Дои:10.1016 / S0020-7373 (88) 80032-4.
- Павляк, Здислав (1991). Грубые множества: теоретические аспекты рассуждений о данных. Дордрехт: Kluwer Academic Publishing. ISBN 978-0-7923-1472-1.
- Слезак, Доминик; Вроблевски, Якуб; Иствуд, Виктория; Сынак, Петр (2008). «Brighthouse: аналитическое хранилище данных для специальных запросов» (PDF). Труды эндаумента VLDB. 1 (2): 1337–1345. Дои:10.14778/1454159.1454174.
- Стефановский, Ежи (1998). «О приближенных подходах к индукции решающих правил». В Полковски, Лех; Сковрон, Анджей (ред.). Грубые наборы в открытии знаний 1: методология и приложения. Гейдельберг: Physica-Verlag. С. 500–529.
- Стефановски, Ежи; Цукиас, Алексис (2001). Неполные информационные таблицы и грубая классификация. Вычислительный интеллект. 17. С. 545–566. Дои:10.1111/0824-7935.00162.
- Вонг, С. К. М .; Зярко, Войцех; Е, Р. Ли (1986). «Сравнение приблизительных и статистических методов в индуктивном обучении». Международный журнал человеко-машинных исследований. 24: 53–72. Дои:10.1016 / S0020-7373 (86) 80033-5.
- Yao, J. T .; Яо, Ю. Ю. (2002). «Индукция правил классификации с помощью гранулярных вычислений». Труды Третьей Международной конференции по грубым наборам и текущим тенденциям в вычислительной технике (TSCTC'02). Лондон, Великобритания: Springer-Verlag. С. 331–338.
- Зярко, Войцех (1998). «Грубые наборы как методология интеллектуального анализа данных». Грубые наборы в открытии знаний 1: методология и приложения. Гейдельберг: Physica-Verlag. С. 554–576.
- Зярко, Войцех; Шан, Нин (1995). «Обнаружение отношений атрибутов, зависимостей и правил с помощью приблизительных наборов». Материалы 28-й ежегодной Гавайской международной конференции по системным наукам (HICSS'95). Гавайи. С. 293–299.
- Павляк, Здислав (1999). «Правила принятия решений, правило Байеса и приблизительные наборы». Новое направление в грубых наборах, интеллектуальном анализе данных и гранулярно-мягких вычислениях: 1–9.
- Павляк, Здислав. «Непростые отношения, отчеты». Институт компьютерных наук. 435.
- Орловская, Э. (1987). «Рассуждения о нечетких понятиях». Вестник Польской академии наук. 35: 643–652.
- Польковский, Л. (2002). «Грубые множества: математические основы». Достижения в мягких вычислениях.
- Сковрон, А. (1996). «Грубые множества и нечеткие понятия». Fundamenta Informaticae: 417–431.
- Бургин М. (1990). Теория именованных множеств как фундаментальная основа математики, В структурах математических теорий: отчеты международного симпозиума в Сан-Себастьяне, 25–29 сентября 1990 г.http://www.blogg.org/blog-30140-date-2005-10-26.html )
- Бургин, М. (2004). Единые основы математики, Препринт математики LO / 0403186, p39. (электронное издание: https://arxiv.org/ftp/math/papers/0403/0403186.pdf )
- Бургин, М. (2011), Теория именованных множеств, Разработки математических исследований, Nova Science Pub Inc, ISBN 978-1-61122-788-8
- Корнелис, К., Де Кок, М. и Керр, Э. (2003) Интуиционистские нечеткие грубые множества: на перекрестке несовершенного знания, Expert Systems, 20: 5, pp260–270
- Дюнч И. и Гедига Г. (1995) Анализ зависимостей грубого набора в оценочных исследованиях - применение в исследовании повторяющихся сердечных приступов. Университет Ольстера, Отчет об исследовании информатики № 10
- Фэн Ф. (2010). Обобщенные грубые нечеткие множества на основе мягких множеств, мягкие вычисления, 14: 9, стр 899–911
- Grzymala-Busse, J. (1987). Изучение примеров, основанных на грубых мультимножествах, в Proceedings of the 2nd International Symposium on Methodology for Intelligent Systems, pp. 325–332. Шарлотта, Северная Каролина, США,
- Мэн, Д., Чжан, X. и Цинь, К. (2011). Мягкие грубые нечеткие множества и мягкие нечеткие грубые множества, Компьютеры и математика с приложениями, 62:12, стр. 4635–4645
- Куафафу М. (2000). α-RST: обобщение теории грубых множеств, Информационные науки, 124: 1–4, стр. 301–316.
- Куафафу М. и Буссуф М. (2000). Обобщенные грубые наборы на основе выбора признаков. Journal Intelligent Data Analysis, 4: 1 стр. 3 - 17
- Накамура, А. (1988) Нечеткие грубые множества, «Заметки о многозначной логике в Японии», 9: 1, стр. 1–8.
- Павляк, З., Гжимала-Буссе, Дж., Словински, Р. Зярко, В. (1995). Грубые наборы. Коммуникации ACM, 38:11, стр. 88–95.
- Томас К. и Наир Л. (2011). Грубые интуиционистские нечеткие множества в решетке, Международный математический форум, 6:27, стр. 1327–1335.
- Чжан Дж., Ли Т., Чен Х. (2014). Составные грубые наборы для динамического интеллектуального анализа данных, Информационные науки, 257, стр. 81–100.
- Чжан Дж., Вонг Дж.С., Пан И, Ли Т. (2015). Метод на основе параллельных матриц для вычисления приближений в неполных информационных системах, IEEE Transactions on Knowledge and Data Engineering, 27 (2): 326-339
- Чен Х., Ли Т., Ло К., Хорнг С.-Дж., Ван Г. (2015). Подход с применением приблизительного набора теоретических решений для динамического интеллектуального анализа данных. Транзакции IEEE по нечетким системам, 23 (6): 1958-1970
- Чен Х., Ли Т., Ло К., Хорнг С.-Дж., Ван Г. (2014). Примерный метод, основанный на наборе, для обновления правил принятия решений по огрублению и уточнению значений атрибутов, IEEE Transactions on Knowledge and Data Engineering, 26 (12): 2886-2899
- Чен Х., Ли Т., Руан Д., Лин Дж., Ху К. (2013) Инкрементальный подход, основанный на приблизительном наборе, для обновления приближений в условиях динамического обслуживания. IEEE Transactions по разработке знаний и данных, 25 (2): 274-284
дальнейшее чтение
- Джанпьеро Каттанео и Давиде Чуччи, «Алгебры Гейтинга Вайсберга как абстрактная среда, связывающая нечеткие и грубые множества» в J.J. Alpigini et al. (Ред.): RSCTC 2002, LNAI 2475, стр. 77–84, 2002. Дои:10.1007/3-540-45813-1_10