Модель серого ящика - Grey box model

В математика, статистика, и вычислительное моделирование, а модель серого ящика[1][2][3][4] объединяет частичную теоретическую структуру с данными для завершения модели. Теоретическая структура может варьироваться от информации о гладкости результатов до моделей, которым нужны только значения параметров из данных или существующей литературы.[5] Таким образом, почти все модели представляют собой модели серого ящика, а не черный ящик где не предполагается модельная форма или белая коробка модели, которые являются чисто теоретическими. Некоторые модели принимают особую форму, например линейная регрессия[6][7] или же нейронная сеть.[8][9] У них есть специальные методы анализа. Особенно линейная регрессия техники[10] намного более эффективны, чем большинство нелинейных методов.[11][12] Модель может быть детерминированный или же стохастический (т.е. содержащие случайные компоненты) в зависимости от планируемого использования.

Форма модели

Общий случай - это нелинейная модель с частичной теоретической структурой и некоторыми неизвестными частями, полученными на основе данных. Модели с непохожими теоретическими структурами необходимо оценивать индивидуально.[1][13][14] возможно использование имитация отжига или же генетические алгоритмы.

В рамках конкретной модельной структуры параметры[14][15] или отношения переменных параметров[5][16] может потребоваться найти. Для конкретной структуры условно предполагается, что данные состоят из наборов векторов подачи. ж, векторы продуктов п, и векторы условий эксплуатации c.[5] Обычно c будет содержать значения, извлеченные из ж, а также другие значения. Во многих случаях модель можно преобразовать в функцию вида:[5][17][18]

м (ж, р, д)

где вектор-функция м дает ошибки между данными п, и прогнозы модели. Вектор q дает некоторые переменные параметры, которые являются неизвестными частями модели.

Параметры q варьироваться в зависимости от условий эксплуатации c в порядке, который будет определен позднее.[5][17] Это отношение можно определить как q = Ac куда А - матрица неизвестных коэффициентов, а c как в линейная регрессия[6][7] включает постоянный член и, возможно, преобразованные значения исходных рабочих условий для получения нелинейных соотношений[19][20] между исходными условиями эксплуатации и q. Затем нужно выбрать, какие термины в А не равны нулю и присваивают свои значения. Доработка модели становится оптимизация проблема для определения ненулевых значений в А что сводит к минимуму ошибки м (ж, р, Ас) над данными.[1][16][21][22][23]

Завершение модели

После выбора ненулевых значений оставшиеся коэффициенты в А можно определить путем минимизации м(ж,п,Ac) над данными относительно ненулевых значений в Аобычно нелинейный метод наименьших квадратов. Выбор ненулевых членов может быть выполнен методами оптимизации, такими как имитация отжига и эволюционные алгоритмы. Так же нелинейный метод наименьших квадратов может предоставить оценки точности[11][15] для элементов А которые можно использовать для определения, существенно ли они отличаются от нуля, тем самым обеспечивая метод выбор срока.[24][25]

Иногда можно рассчитать значения q для каждого набора данных, напрямую или нелинейный метод наименьших квадратов. Тогда более эффективный линейная регрессия можно использовать для предсказания q с помощью c таким образом выбирая ненулевые значения в А и оценка их стоимости. Как только ненулевые значения найдены нелинейный метод наименьших квадратов можно использовать на оригинальной модели м (ж, р, Ас) чтобы уточнить эти значения.[16][21][22]

Третий метод - инверсия модели,[5][17][18] который преобразует нелинейную м(ж,п,Ac) к приближенному линейному виду по элементам А, которые можно изучить с помощью эффективного выбора терминов[24][25] и оценка линейной регрессии.[10] Для простого случая одиночного q ценить (q = аТc) и оценка д * из q. Положив dq = аТc − д * дает

м (ж, п, аТв) = m (f, p, q * + dq) ≈ m (f, p.q *) + dq m ’(f, p, q *) = m (f, p.q *) + (aТc - q *) m ’(f, p, q *)

так что аТ теперь находится в линейном положении со всеми другими известными терминами и, таким образом, может быть проанализирован линейная регрессия техники. Для более чем одного параметра метод расширяется напрямую.[5][18][17] После проверки того, что модель была улучшена, этот процесс можно повторять до сходимости. Этот подход имеет преимущества в том, что ему не нужны параметры q возможность определения на основе индивидуального набора данных, а линейная регрессия основана на исходных условиях ошибки[5]

Проверка модели

Если имеется достаточно данных, разделите их на отдельный набор для построения модели и один или два оценочные наборы Рекомендовано. Это можно повторить, используя несколько выбранных конструкторов и полученные модели усреднены или используется для оценки различий в прогнозах.

Статистический тест, такой как хи-квадрат по остаткам особо не пригодится.[26] Критерий хи-квадрат требует известных стандартных отклонений, которые редко доступны, а неудавшиеся тесты не дают указаний на то, как улучшить модель.[11] Существует ряд методов для сравнения вложенных и невложенных моделей. Сюда входит сравнение прогнозов модели с повторяющимися данными.

Попытка предсказать остатки м (,) с условиями эксплуатации c использование линейной регрессии покажет, можно ли предсказать остатки.[21][22] Остатки, которые невозможно предсказать, дают мало шансов на улучшение модели с использованием текущих условий эксплуатации.[5] Термины, которые действительно предсказывают остатки, являются перспективными терминами, которые следует включить в модель для улучшения ее производительности.[21]

Приведенный выше метод инверсии модели может использоваться как метод определения того, можно ли улучшить модель. В этом случае выбор ненулевых членов не так важен, и линейное прогнозирование может быть выполнено с использованием значимых собственные векторы из матрица регрессии. Ценности в А определенное таким образом, необходимо заменить в нелинейную модель для оценки улучшения ошибок модели. Отсутствие значительного улучшения указывает на то, что имеющиеся данные не могут улучшить текущую форму модели с использованием определенных параметров.[5] В модель можно вставить дополнительные параметры, чтобы сделать этот тест более полным.

Смотрите также

Рекомендации

  1. ^ а б c Болин, Торстен П. (7 сентября 2006 г.). Практическая идентификация процессов методом серого ящика: теория и приложения. Springer Science & Business Media. ISBN  978-1-84628-403-8.
  2. ^ «Оценка модели серого ящика». Mathworks 2. 2012.
  3. ^ Кролл, Андреас (2000). Модели серого ящика: концепции и применение. В: New Frontiers in Computational Intelligence and its Applications, vol.57 of Frontiers in Искусственный интеллект и приложения, стр. 42-51. IOS Press, Амстердам.
  4. ^ Зольберг, Б., Якобсен, Э.В., 2008. Моделирование серого ящика - ветви и опыт, Proc. 17-й Всемирный конгресс, Int. Федерация автоматического управления, Сеул. стр 11415-11420
  5. ^ а б c d е ж грамм час я j Уайтен, Б., 2013. Завершение и проверка модели с использованием инверсии моделей серого ящика, ANZIAM J., 54 (CTAC 2012) pp C187 – C199.
  6. ^ а б Draper, Norman R .; Смит, Гарри (25 августа 2014 г.). Прикладной регрессионный анализ. Джон Вили и сыновья. С. 657–. ISBN  978-1-118-62568-2.
  7. ^ а б Вайсберг, Сэнфорд (25 ноября 2013 г.). Прикладная линейная регрессия. Вайли. ISBN  978-1-118-59485-8.
  8. ^ Хитон, Дж., 2012. Введение в математику нейронных сетей, Heaton Research Inc. (Честерфилд, Миссури), ISBN  978-1475190878
  9. ^ Stergiou, C .; Сиганос, Д. (2013). "Нейронные сети". Архивировано из оригинал на 2009-12-16. Получено 2013-07-03.
  10. ^ а б Лоусон, Чарльз Л .; Дж. Хэнсон, Ричард (1 декабря 1995 г.). Решение задач наименьших квадратов. СИАМ. ISBN  978-0-89871-356-5.
  11. ^ а б c Press, W.H .; Теукольский, С.А .; Vetterling, W.T .; Фланнери, Б. (2007). Числовые рецепты (3-е изд.). Издательство Кембриджского университета. ISBN  978-0-521-88068-8.
  12. ^ Гельман, Андрей; Карлин, Джон Б.; Стерн, Хэл С .; Дансон, Дэвид Б .; Вехтари, Аки; Рубин, Дональд Б. (1 ноября 2013 г.). Байесовский анализ данных, третье издание. CRC Press. ISBN  978-1-4398-4095-5.
  13. ^ Mathworks, 2013. Поддерживаемые модели серого ящика
  14. ^ а б Хаут, Дж. (2008), Моделирование серого ящика для нелинейных систем (PDF) (диссертация, Кайзерслаутернский технологический университет ).
  15. ^ а б Нэш Дж. К. и Уокер-Смит М. 1987. Нелинейная оценка параметров, Марсель Деккер, Инк. (Нью-Йорк).
  16. ^ а б c Whiten, W.J., 1971. Методы построения моделей применительно к процессам обработки минералов, Symp. по системам автоматического управления на обогатительных фабриках, (Австралийский институт Мин. Металл, Филиал С. Квинсленда, Брисбен), 129–148.
  17. ^ а б c d Whiten, W.J., 1994. Определение отношений параметров в нелинейных моделях, SIGNUM Newsletter, 29 (3–4,) 2–5. 10.1145 / 192527.192535.
  18. ^ а б c Уайтен, Б., 2014. Определение вида обыкновенных дифференциальных уравнений с помощью обращения модели, ANZIAM J. 55 (EMAC2013), стр. C329 – C347.
  19. ^ Полиномиальный
  20. ^ Сплайн (математика)
  21. ^ а б c d Kojovic, T., и Whiten W. J., 1994. Оценка качества имитационных моделей, Инновации в переработке полезных ископаемых, (Лавретинский университет, Садбери), стр. 437–446. ISBN  088667025X
  22. ^ а б c Kojovic, T., 1989. Разработка и применение Model - автоматизированного построителя моделей для переработки полезных ископаемых, докторская диссертация, Университет Квинсленда.
  23. ^ Сяо, Дж., 1998. Расширения методов построения моделей и их применения в переработке полезных ископаемых, докторская диссертация, Университет Квинсленда.
  24. ^ а б Linhart, H .; Цукини, В. (1986). Выбор модели. Вайли. ISBN  978-0-471-83722-0.
  25. ^ а б Миллер, Алан (15 апреля 2002 г.). Выбор подмножества в регрессии. CRC Press. ISBN  978-1-4200-3593-3.
  26. ^ Деминг, Уильям Эдвардс (2000). Выйти из кризиса с. 272. MIT Press. ISBN  978-0-262-54115-2.CS1 maint: ref = harv (связь)