Алгоритм Леска - Lesk algorithm

В Алгоритм Леска классический алгоритм для значение смысла слова представлен Майкл Э. Леск в 1986 г.[1]

Обзор

Алгоритм Леска основан на предположении, что слова в данной «окрестности» (фрагмент текста) будут иметь тенденцию разделять общую тему. Упрощенная версия алгоритма Леска заключается в сравнении словарного определения неоднозначного слова с терминами, содержащимися в его окрестности. Версии адаптированы для использования WordNet.[2] Реализация может выглядеть так:

  1. для каждого смысла устраняемого слова следует подсчитать количество слов, которые находятся как в окрестности этого слова, так и в словарном определении этого значения
  2. смысл, который следует выбрать, - это смысл, имеющий наибольшее число этого счетчика

Часто используемый пример, иллюстрирующий этот алгоритм, - это контекст «сосновая шишка». Используются следующие словарные определения:

СОСНА 1. виды вечнозеленых деревьев с игольчатыми листьями2. угасать из-за горя или болезни
КОНУС 1. твердое тело, сужающееся до точки2. что-то этой формы, твердое или полое3. плоды некоторых вечнозеленых деревьев

Как видно, лучшее пересечение - Сосна №1 ⋂ Конус №3 = 2.

Упрощенный алгоритм Леска

В упрощенном алгоритме Леска[3] Правильное значение каждого слова в данном контексте определяется индивидуально путем определения значения, которое больше всего перекрывается между его словарным определением и данным контекстом. Вместо одновременного определения значений всех слов в данном контексте этот подход рассматривает каждое слово индивидуально, независимо от значений других слов, встречающихся в том же контексте.

"Сравнительная оценка, проведенная Василеску и др. (2004)[4] показал, что упрощенный алгоритм Леска может значительно превзойти исходное определение алгоритма как по точности, так и по эффективности. Оценивая алгоритмы устранения неоднозначности на данных Senseval-2 English all words, они измеряют точность 58% с использованием упрощенного алгоритма Леска по сравнению с только 42% в исходном алгоритме.

Примечание: Василеску и др. реализация рассматривает стратегию возврата слов, не охваченных алгоритмом, состоящую из наиболее частого смысла, определенного в WordNet. Это означает, что слова, все возможные значения которых приводят к нулевому совпадению с текущим контекстом или с другими определениями слов, по умолчанию получают в WordNet значение номер один ".[5]

Упрощенный алгоритм LESK с умным значением слова по умолчанию (Василеску и др., 2004)[6]

функция УПРОЩЕННЫЙ ЛЕСК (слово, предложение) возвращается в лучшем смысле слова
best-sense <- наиболее частое значение слова
макс-перекрытие <- 0
context <- набор слов в предложении
для каждого смысл в смыслы слова делать
подпись <- набор слов в глоссах и примеры смысла
перекрывать <- COMPUTEOVERLAP (подпись, контекст)
если перекрытие> максимальное перекрытие тогда
max-overlap <- перекрытие
лучший смысл <- смысл

конец возвращаться (здравый смысл)

Функция COMPUTEOVERLAP возвращает количество общих слов между двумя наборами, игнорируя функциональные слова или другие слова в стоп-списке. Исходный алгоритм Леска определяет контекст более сложным образом.

Критика и другие методы, основанные на Леске

К сожалению, подход Леска очень чувствителен к точным формулировкам определений, поэтому отсутствие определенного слова может радикально изменить результаты. Далее алгоритм определяет совпадения только между толкованиями рассматриваемых смыслов. Это существенное ограничение, поскольку словарные глоссы, как правило, довольно короткие и не обеспечивают достаточного словарного запаса, чтобы связать тонкие смысловые различия.

Появилось много работ, предлагающих различные модификации этого алгоритма. Эти работы используют другие ресурсы для анализа (тезаурусы, словари синонимов или морфологические и синтаксические модели): например, они могут использовать такую ​​информацию, как синонимы, различные производные или слова из определений слов из определений.[7]

Есть много исследований, касающихся Леска и его расширений:[8]

  • Уилкс и Стивенсон, 1998, 1999;
  • Махеш и др., 1997;
  • Cowie et al., 1992;
  • Яровский, 1992;
  • Пок и Катлетт, 1988;
  • Килгаррифф и Розенсвейг, 2000;
  • Квонг, 2001;
  • Nastase and Szpakowicz, 2001;
  • Гельбух, Сидоров, 2004.

Варианты Леска

  • Оригинальный Lesk (Леск, 1986)
  • Адаптированный / расширенный Lesk (Банерджи и Педерсон, 2002/2003): В адаптивном алгоритме lesk создается вектор слов, соответствующий каждому слову содержания в глоссах сети слов. Объединение слов связанных понятий в WordNet можно использовать для увеличения этого вектора. Вектор содержит количество совпадений слов, которые одновременно встречаются со словом w в большом корпусе. Добавление всех векторов слов для всех слов содержания в его глянец создает вектор блеска g для концепции. Родство определяется путем сравнения вектора блеска с использованием меры косинусного сходства.[9]

Смотрите также

Рекомендации

  1. ^ Леск, М. (1986). Автоматическое устранение неоднозначности с помощью машиночитаемых словарей: как отличить сосновую шишку от рожка мороженого. В SIGDOC '86: Материалы 5-й ежегодной международной конференции по системной документации, страницы 24-26, Нью-Йорк, Нью-Йорк, США. ACM.
  2. ^ Сатанджив Банерджи и Тед Педерсен. Адаптированный алгоритм Леска для устранения неоднозначности слов с помощью WordNet, Конспект лекций по информатике; Vol. 2276, Страницы: 136 - 145, 2002. ISBN  3-540-43219-1
  3. ^ Килгаррифф и Дж. Розенцвейг. 2000 г. Английский SENSEVAL: Отчет и результаты. В материалах 2-й Международной конференции по языковым ресурсам и оценке, LREC, Афины, Греция.
  4. ^ Флорентина Василеску, Филипп Лангле и Ги Лапальм, 2004 год. Оценка вариантов подхода Леска для устранения неоднозначности слов. LREC, Португалия.
  5. ^ Агирре, Энеко и Филип Эдмондс (ред.). 2006 г. Устранение смысловой неоднозначности: алгоритмы и приложения. Дордрехт: Спрингер. www.wsdbook.org
  6. ^ Флорентина Василеску, Филипп Лангле и Ги Лапальм, 2004 год. Оценка вариантов подхода Леска для устранения неоднозначности слов. LREC, Португалия.
  7. ^ Александр Гельбух, Григорий Сидоров. Автоматическое устранение неоднозначности значений слов в определениях словаря (на русском). Ж. Научно-техническая информация (НТИ), ISSN 0548-0027, сер. 2, № 3, 2004 г., с. 10–15.
  8. ^ Роберто Навильи. Устранение неоднозначности смысла слов: обзор, ACM Computing Surveys, 41 (2), 2009, стр. 1–69.
  9. ^ Банерджи, Сатанджив; Педерсен, Тед (17 февраля 2002 г.). Адаптированный алгоритм Леска для устранения неоднозначности слов с помощью WordNet. Компьютерная лингвистика и интеллектуальная обработка текста. Конспект лекций по информатике. Шпрингер, Берлин, Гейдельберг. С. 136–145. CiteSeerX  10.1.1.118.8359. Дои:10.1007/3-540-45715-1_11. ISBN  978-3540457152.