М. В. Ломоносова Тематические модели в задаче извлечения однословных терминов



Скачать 255.02 Kb.
Дата04.05.2016
Размер255.02 Kb.
УДК 004.853

Нокель М. А., аспирант ВМК МГУ им. М. В. Ломоносова

Лукашевич Н. В., кандидат физико-математических наук, ведущий научный сотрудник НИВЦ МГУ им. М. В. Ломоносова

Тематические модели в задаче извлечения однословных терминов

В статье представлены результаты экспериментального исследования возможности использования тематических моделей в задаче автоматического извлечения однословных терминов. В качестве текстовых коллекций была взята подборка статей из электронных банковских журналов на русском языке и англоязычная часть корпуса параллельных текстов Europarl общественно-политической тематики. Эксперименты показывают, что использование тематической информации способно улучшить качество извлечения однословных терминов независимо от предметной области и целевого языка.



Ключевые слова: Тематические модели, Кластеризация, Извлечение однословных терминов

Michael Nokel, Loukachevitch Natalia



Topic Models in the Task of Single-Word Term Extraction

The paper describes the results of an experimental study of statistical topic models applied to the task of automatic single-word term extraction. The English part of the Europarl parallel corpus from the socio-political domain and the Russian articles taken from online banking magazines were used as target text collections. The experiments demonstrate that topic information can improve the quality of single-word term extraction regardless of the subject area and the target language.



Key words: Topic models, Clustering, Single-Word Term Extraction

1. Введение

Извлечение терминов из текстов определённой предметной области играет значительную роль во многих задачах, в первую очередь – в разработке и пополнении различных терминологических ресурсов, таких как тезаурусы и онтологии [1]. Поскольку разработка таких ресурсов вручную достаточно трудоёмка, за последние годы было проведено большое количество исследований по автоматизации данного процесса.

Большинство современных методов извлечения терминов основываются на использовании различных статистических и лингвистических признаков слов. Основная цель при этом заключается в получении упорядоченного списка кандидатов в термины, в начале которого находится как можно больше слов, с наибольшей вероятностью являющихся терминами. В некоторых работах было экспериментально установлено, что использование машинного обучения для комбинирования признаков значительно улучшает результаты извлечения терминов по сравнению с методами, основанными только на одном каком-то признаке, поскольку те или иные признаки только частично отражают особенности поведения терминов в текстах [2].

На текущий момент традиционно используемые для извлечения терминов статистические признаки никак не отражают тот факт, что большинство терминов относятся к той или иной подтеме предметной области. Поэтому нами было сделано предположение, что выделение таких подтем в коллекции текстов способно улучшить качество автоматического извлечения терминов. Для проверки этого предположения в статье будут рассмотрены различные методы выделения подтем, которые часто в литературе называются статистическими тематическими моделями [3].

Некоторые виды статистических тематических моделей могут основываться на традиционных методах автоматической кластеризации текстов [4]. В последнее время предложены вероятностные механизмы выделения подтем в текстовых коллекциях такие, как методы, основанные на скрытом распределении Дирихле (Latent Dirichlet allocation [3]), которые собственно и были названы статистическими тематическими моделями и в настоящее время интенсивно исследуются в рамках различных приложениях автоматической обработки текстов ([4], [5] и [6]).

Основная задача данной статьи заключается в исследовании возможности использования тематической информации для повышения качества извлечения однословных терминов. Для этой цели вначале в текстовой коллекции выделяются подтемы, затем к ним применяются некоторые модификации хорошо известных признаков, которые впоследствии используются вместе с другими статистическими и лингвистическими признаками.

Для того чтобы результаты, представленные в статье, не зависели ни от предметной области, ни от языка, были взяты две текстовые коллекции двух различных предметных областей: тексты банковской предметной области на русском языке и речи с заседаний Европарламента общественно-политической предметной области на английском языке. При этом эксперименты будут строиться следующим образом:


  1. Вначале статистические тематические модели будут исследованы с точки зрения задачи извлечения терминов с целью выбора лучшей;

  2. Затем будет осуществлено сравнение признаков, посчитанных для лучшей тематической модели, с другими признаками для изучения вклада, который даёт использование тематической модели.

2. Близкие работы

За последние годы было предложено много различных статистических и лингвистических признаков слов, используемых для извлечения однословных терминов из коллекции текстов определённой предметной области ([7], [8], [9], [10] и др.).

Можно выделить следующие группы существующих признаков:


  1. Признаки, основанные на частотности слов-кандидатов. К этой группе относится, например, признак TFRIDF, предложенный в работе [7] и использующий модель Пуассона для предсказания терминологичности слов;

  2. Признаки, использующие контрастную коллекцию, т.е. коллекцию более общей тематики. Одним из наиболее характерных представителей данной группы является широко используемый на практике признак Относительная частотность [8], основанный на сравнении относительных частотностей слов в рассматриваемой и в контрастной текстовой коллекциях;

  3. Контекстные признаки, соединяющие в себе информацию о частотности слов-кандидатов с данными о контексте их употребления. Наиболее известными признаками в этой группе являются C-Value [9] и NC-Value [10], учитывающие частоту встречаемости объемлющего словосочетания для слова-кандидата.

Однако ни один из предложенных признаков не является определяющим [11], и фактически из текстов извлекается довольно большой список слов-кандидатов, которые затем должны быть проанализированы и подтверждены экспертом по предметной области. Важно поэтому дополнять список используемых признаков, что позволит получать в начале списка как можно больше слов, с наибольшей вероятностью являющихся терминами. В данной статье мы вводим качественно новый тип признаков, основывающихся на использовании тематической информации.

Отдельно стоит отметить работу [12], в которой решалась задача выявления терминов, наиболее характеризующих рубрики, к которым относится документ. Однако в исследуемом нами подходе разделение документов на рубрики неизвестно, и применяется широкий математический аппарат для определения подтем в коллекции.



3. Статистические тематические модели

Новые признаки слов-кандидатов, которые вводятся в данной статье, используют информацию, получаемую статистическими тематическими моделями в исследуемых текстовых коллекциях.



Статистическая тематическая модель (далее – тематическая модель) коллекции текстовых документов на основе статистических методов определяет, к каким подтемам относится каждый документ и какие слова образуют каждую подтему, представляющую собой список часто встречающихся рядом друг с другом слов, упорядоченный по убыванию степени принадлежности ему [13]. Так, в таблице 1 представлены первые пять слов, наиболее полно характеризующие три случайно выбранных подтемы, выделенных из русскоязычных текстов банковской тематики рассматриваемой коллекции.

Таблица 1. Примеры подтем

Подтема 1

Подтема 2

Подтема 3

Банкнота

Обучение

Германия

Оффшорный

Студент

Франция

Счетчик

Учебный

Евро

Купюра

Вуз

Европейский

Подделка

Семинар

Польша

В тематических моделях, как правило, используется модель мешка слов, в которой каждый документ рассматривается как набор встречающихся в нём слов. При этом перед выделением подтем текстовая коллекция обычно подвергается предобработке, выделяющей только значимые слова в каждом документе. В частности, в данном исследовании для русского языка были отобраны только существительные и прилагательные, а для английского – только существительные, поскольку они покрывают большую часть терминов.

На сегодняшний день разработано достаточно много различных тематических моделей. Для выбора моделей для исследования были проанализированы предыдущие работы, в которых осуществляется сравнение моделей с точки зрения различных практических приложений. Так, в работе [5] утверждается, что каждая тематическая модель имеет свои сильные и слабые стороны. Сравнивая между собой методы NMF (неотрицательной матричной факторизации) и LDA (латентного размещения Дирихле), авторы приходят к выводу, что оба этих алгоритма дают похожее качество, хотя NMF и выдаёт немного больше бессвязных подтем. В работе [6] утверждается, что традиционные тематические модели показывают приемлемое качество выделения подтем, но имеют множество ограничений. В частности они предполагают, что каждый документ имеет только одну тематику. В действительности же документы представляют собой, как правило, смесь подтем. Кроме того, авторы отмечают, что параметры традиционных моделей достаточно сложно настраивать. В то же время в работе подчёркивается, что более сложные модели (такие как LDA) необязательно дадут лучшие результаты.

Поскольку, как следует из упомянутых выше работ, среди тематических моделей нет явного лидера и непонятно, какое качество они покажут в задаче извлечения однословных терминов, было решено выбрать несколько наиболее характерных представителей, которых можно отнести либо к вероятностным, либо к методам кластеризации текстов, рассматриваемых с точки зрения тематических моделей. Каждая из выбранных моделей будет рассмотрена в следующих подразделах.

3.1 Тематические модели, основанные на кластеризации текстов

Традиционные тематические модели, как правило, основываются на методах жёсткой кластеризации, рассматривающих каждый документ как разреженный вектор в пространстве слов большой размерности [14]. После окончания работы алгоритма кластеризации каждый получившийся кластер рассматривается как один большой документ для вычисления вероятностей входящих в него слов по следующей формуле:



где – частотность слова в кластере .



В данной статье мы исследовали следующие широко известные алгоритмы кластеризации:

  1. К-Средних и Сферический K-Средних. Алгоритм K-Средних [15] начинает свою работу со случайной инициализации центров масс каждого кластера. Далее он итеративно повторяет следующие шаги:

    • Все документы разбиваются на кластеры в соответствии с тем, какой из центров масс оказался ближе по выбранной метрике;

    • Для каждого кластера пересчитывается центр масс.

В качестве метрики близости между двумя документами исследовались следующие:

    • Евклидово расстояние (K-Means) [15]:



    • Косинусная мера близости (сферический k-средних – SPK-Means). При этом все векторы, представляющие документы, нормализуются к единичной гиперсфере [16]:



  1. Иерархическая агломеративная кластеризация. Данный алгоритм [17] вначале рассматривает каждый документ как отдельный кластер. Затем он итеративно повторяет следующие шаги, пока не останется заданное число кластеров:

    • Находятся и объединяются в кластер два наиболее близких;

    • Вычисляются расстояния между новым кластером и другими.

В качестве способов определения наиболее близких кластеров исследовались следующие наиболее распространённые [17]:

    • Complete-link (“полное связывание”). Наиболее близкими считаются кластеры с наименьшим максимальным парным расстоянием между документами;

    • Single-link (“одиночное связывание”). Наиболее близкими считаются кластеры с наименьшим минимальным парным расстоянием между документами;

    • Average-link (“среднее связывание”). Наиболее близкими считаются кластеры с наименьшим средним парным расстоянием между документами.

  1. Метод неотрицательной матричной факторизации (NMF), изначально разработанный для уменьшения размерности и использующийся для решения задач кластеризации [18]. Данный алгоритм осуществляет нечёткую кластеризацию, относящую один и тот же документ к разным кластерам с разными вероятностями.

Принимая на входе неотрицательную разреженную матрицу , которая получается записыванием векторов, представляющих документы, по столбцам, алгоритм ищет такие матрицы и меньшей размерности, что по некоторой метрике. В качестве такой метрики исследовались следующие [19]:

    • Евклидово расстояние (NMF Euc):



    • Расстояние Кульбака-Лейблера (NMF KL):

В результате работы алгоритма в матрице получается распределение слов по кластерам, а в матрице – распределение документов по кластерам. Нормируя соответствующие величины для каждого слова/документа, можно получить вероятности принадлежности этого слова/документа кластеру.



3.2 Вероятностные тематические модели

Вероятностные тематические модели представляют каждый документ в виде смеси подтем, в которой каждая подтема представляет собой некоторое вероятностное распределение над словами. Вероятностные модели порождают слова по следующему правилу:



где и – распределение подтем по документам и слов по подтемам, а – наблюдаемое распределение слов по документам.

Порождение происходит следующим образом. Для каждого текста и для каждого слова выбирается тема из распределения , и затем генерируется слово из распределения .

В данной работе рассматриваются следующие наиболее известные методы построения вероятностных тематических моделей:



  1. Метод вероятностного латентного семантического индексирования (PLSI), предложенный в работе [20]. Данный метод моделирует матрицу ( обозначает число вхождений слова в документ ), получающуюся из модели с подтемами:

Поскольку в статье [21] теоретически обосновано, что алгоритм NMF, минимизирующий расстояние Кульбака-Лейблера и рассмотренный в прошлом разделе, эквивалентен алгоритму PLSA, в данном исследовании метод PLSA не рассматривается отдельно.



  1. Латентное размещение Дирихле (LDA), предложенное в работе [3]. LDA расширяет модель PLSI, добавляя туда априорное распределение параметров модели ( и ), считая их распределёнными по закону Дирихле. Для настройки параметров модели необходим Байесовский вывод. Однако, поскольку он алгоритмически неразрешим [3], в работе исследовались следующие два приближённых способа Байесовского вывода:

    • LDA VB – вариационный Байесовский вывод из статьи [3];

    • LDA Gibbs – метод Монте-Карло с марковскими цепями, использующий сэмлпирование Гиббса [22].

3.3 Базовая тематическая модель

В качестве baseline была взята “тематическая” модель, которая не выделяет никаких подтем, а просто рассматривает каждый документ как отдельно взятую подтему. Данная модель будет использоваться нами в экспериментах для сравнения с другими методами.



4 Коллекции текстов для экспериментов

Во всех экспериментах, описываемых в данной статье, слова-кандидаты извлекались из двух различных коллекций:



  • Коллекция банковских русскоязычных текстов (10422 документа, примерно 15.5 млн слов), взятых из различных электронных банковских журналов: Аудитор, Банки и Технологии, РБК и др.;

  • Английская часть корпуса параллельных текстов Europarl [23] из заседаний Европарламента (9673 документа, примерно 54 млн слов).

Для подтверждения терминологичности слов-кандидатов использовались следующие “золотые стандарты”:

  • Для русского языка – тезаурус, разработанный вручную для Центрального Банка Российской Федерации и включающий в себя порядка 15000 терминов, относящихся к сфере банковской активности, денежной политики и макроэкономики;

  • Для английского языка – официальный многопрофильный тезаурус Европейского Союза Eurovoc [24], предназначенный для ручного индексирования заседаний Европарламента. Его английская версия включает в себя 15161 термин.

При этом слово-кандидат считается термином, если оно содержится в тезаурусе. В качестве метрики оценки качества была выбрана Средняя Точность (AvP) [16], определяемая для множества всех слов-кандидатов и его подмножества , представляющего действительно термины (т.е. подтверждённые тезаурусом):

где , если -е слово-кандидат , и иначе. Данная формула отражает тот факт, что чем больше терминов сосредоточено в вершине итогового списка слов-кандидатов, тем выше мера средней точности. Поскольку все признаки слов-кандидатов рассчитывались для 5000 самых частотных слов, далее в статье будет использоваться мера средней точности на данном уровне AvP@5000.

Эксперименты проводились с разным числом выделяемых подтем: 50, 100 и 150 соответственно. Визуально результаты получались разными, но на качестве извлечения терминов это никак не отразилось. Поэтому все дальнейшие эксперименты проводилось с числом подтем, равным 100.

5 Выбор лучшей тематической модели

Как уже было сказано выше, вначале будут представлены результаты экспериментов по определению наилучшей тематической модели. Для этого будут предложены и посчитаны для каждой из рассмотренных выше тематических моделей некоторые модификации известных признаков слов.



5.1 Признаки, использующие тематическую информацию

Основной идеей всех признаков, использующих полученную с помощью какой-либо тематической модели информацию, является тот факт, что в начале списков, образующих подтемы, с большой вероятностью находятся термины. Для экспериментов мы предложили некоторые модификации известных признаков (см. таблицу 2). В таблице 2

используются следующие обозначения:


  • – частотность слова ;

  • – документная частотность слова ;

  • – условная вероятность принадлежности слова подтеме ;

  • – число топиков.

Таблица 2. Признаки, использующие тематическую информацию

Признак

Формула

Частотность (TF)



TFIDF



Domain Consensus (DC) [25]



Maximum TF (MTF)



Term Score (TS) [6]

, где

TS-IDF



Maximum TS (MTS)



5.2 Результаты экспериментов

В таблицах 3 и 4 представлены результаты экспериментов для исследуемых русского и английского корпуса соответственно.



Таблица 3. Средняя точность признаков на русском корпусе

Модель

TF

TFIDF

DC

MTF

TS

TSIDF

MTS

K-Means

33.3

25.5

32.7

34.4

35.7

28.7

34.3

SPK-Means

35.5

27.2

35

33.9

36.3

30.1

33.6

Single-link

34.8

39.9

33.6

38.9

38.4

40.5

39

Comp-link

35.6

41

34.5

39.2

38.4

41

39.5

Average-link

35.8

40.7

34.5

39.5

39

40.9

39.6

NMF Euc

40.8

42.5

40.3

40.8

42

43.1

41.9

NMF KL

42.3

40.3

37.5

47.1

48.9

42.9

47.9

LDA VB

35.8

42.7

32.8

42.8

42.5

45.1

46.5

LDA Gibbs

37.7

38.4

35

46.2

42.6

42.8

47.2

Baseline

34

37.6

32.8

38.5

38.1

42

38.1

Таблица 4. Средняя точность признаков на английском корпусе

Модель

TF

TFIDF

DC

MTF

TS

TSIDF

MTS

K-Means

29.3

32.3

28.9

30.3

30.1

31.8

30.4

SPK-Means

28.1

29.8

27.9

28.7

28.6

29.7

28.7

Single-link

30.3

38.9

29.8

37.3

36.5

38.8

39.9

Comp-link

31.1

39.6

30.4

37.2

34.6

38.9

39

Average-link

30.5

38.9

29.9

37.1

35.4

38.3

39.3

NMF Euc

34.4

31.6

32.3

41.1

43.7

31.6

40.5

NMF KL

33.3

37.7

31.2

44.3

44.4

37.3

44.1

LDA VB

32.3

30.3

30.5

37.1

36.3

30.3

38.5

LDA Gibbs

35.2

41.8

33.3

42.6

37.8

43.7

43.5

Baseline

31.5

32.8

30

36

33.6

35

36.7

Как видно из приведённых выше таблиц, лучшее качество независимо от языка и предметной области даёт тематическая модель NMF, минимизирующая расстояние Кульбака-Лейблера. Так, лучшим признаком для обоих языков является Term Score с 16% (соответственно 21%) прироста качества относительно лучших признаков базовой модели.

Помимо вычисления средней точности отдельных признаков было также осуществлено их комбинирование для каждой исследуемой тематической модели в отдельности с помощью метода логистической регрессии, реализованного в библиотеке Weka [26]. При этом проводилась четырёхкратная кросс-проверка, означающая, что вся исходная выборка разбивалась случайным образом на четыре равные непересекающиеся части, и каждая часть по очереди становилась контрольной подвыборкой, а обучение проводилось по остальным трём. Результаты комбинирования признаков для русского и английского корпусов представлены в таблице 5.



Таблица 5. Средняя точность комбинирования признаков, использующих тематическую информацию

Модель

AvP@5000




Для русского корпуса

Для английского корпуса

Baseline

44.9

36.2

K-Means

36.2

33.7

SPK-Means

38.1

33.3

Single-link

42.1

41.4

Complete-link

41.9

41.3

Average-link

42.7

41.3

NMF Euc

43.4

43.8

NMF KL

49.5

44.5

LDA VB

46.1

36.7

LDA Gibbs

47.9

44.4

Как видно из приведённых выше таблиц, тематическая модель NMF, минимизирующая расстояние Кульбака-Лейблера, снова даёт наилучшее качество с 10% прироста для русского и с 23% прироста для английского корпусов относительно базовой тематической модели.

Таким образом, наилучшей тематической моделью оказалась модель NMF, минимизирующая расстояние Кульбака-Лейблера.



6 Сравнение с другими признаками

Для изучения вклада тематической информации в задачу извлечения однословных терминов было решено сравнить результаты предложенных признаков, использующих тематическую информацию, с остальными статистическими и лингвистическими признаками для обоих исследуемых корпусов для 5000 самых частотных слов.

В качестве признаков, не использующих тематическую информацию, были взяты характерные представители групп, описанных в разделе 2.

6.1 Признаки, основанные на частотности

Признаки из данной группы опираются на предположение о том, что термины, как правило, встречаются в коллекции гораздо чаще остальных слов. В исследование были включены следующие признаки: Частотность, Документная частотность, TFIDF [27], TFRIDF [7], Domain Consensus [25].



6.2 Признаки, использующие контрастную коллекцию

Для вычисления признаков этой категории помимо целевой коллекции текстов предметной области использовалась контрастная коллекция текстов более общей тематики. Для русского языка в качестве таковой была взята подборка из примерно 1 миллиона новостных текстов, а для английского – n-граммные статистики из Британского Национального Корпуса [28].

Основная идея таких признаков заключается в том, что частотности терминов в целевой и контрастной коллекциях существенно различаются. В данном исследовании рассматривались следующие признаки: Относительная частотность [8], Релевантность [29], TFIDF [27] с вычислением документной частотности по контрастной коллекции, Contrastive Weight [30], Discriminative Weight [31], KF-IDF [32], Lexical Cohesion [33] и Логарифм правдоподобия [34].

6.3 Контекстные признаки

Контекстные признаки соединяют в себе информацию о частотности слов-кандидатов с данными о контексте их употребления в коллекции. В данном исследовании рассматривались следующие признаки: C-Value [9], NC-Value, MNC-Value [10], Token-LR, Token-FLR, Type-LR, Type-FLR [35], Sum3, Sum10, Sum50, Insideness [2].



6.4 Прочие признаки

В качестве остальных признаков, не использующих тематическую информацию, рассматривались номер позиции первого вхождения в документы, типы слов-кандидатов (существительное или прилагательное), слова-кандидаты, начинающиеся с заглавной буквы, и существительные в именительном падеже (“подлежащие”) и слова из контекстного окна с некоторыми самыми частотными предопределёнными терминами [36].

Кроме этого, также рассматривались и комбинации данных признаков с некоторыми статистическими величинами (такими, как частотность в целевом корпусе). Всего было взято 28 таких признаков.

6.5 Результаты экспериментов

Лучшие признаки каждой из упомянутых выше групп для русского и английского корпусов приведены в таблицах 6 и 7.



Таблица 6. Средняя точность признаков в русском корпусе

Группа признаков

Лучший признак

AvP@5000

Основанные на частотности

TFRIDF

41.1

Использующие контрастный корпус

Лог. Правдоподобия

36.9

Контекстные

Sum3

37.4

Тематические

Term Score

48.9

Таблица 7. Средняя точность признаков в английском корпусе

Группа признаков

Лучший признак

AvP@5000

Основанные на частотности

TFRIDF с подлежащими

38.5

Использующие контрастный корпус

TFIDF с подлежащими

34.2

Контекстные

C-Value

31.3

Тематические

Term Score

44.5

Как видно из приведённых выше таблиц, независимо от языка и предметной области лучшими индивидуальными признаками оказались тематические, превзойдя остальные на 19% и 15% средней точности для русского и английского корпусов соответственно.

Для оценки же вклада тематических признаков в общую модель извлечения однословных терминов мы сравнили модель извлечения, учитывающую тематические признаки (7 baseline признаков и 7 признаков, посчитанных для наилучшей тематической модели NMF KL), и модель, не использующую их. Результаты сравнения для обоих рассматриваемых корпусов приведены в табл. 8 (комбинирование признаков осуществлялось с помощью логистической регрессии из библиотеки Weka [27]).



Таблица 8. Результаты сравнения моделей с тематическими признаками и без них

Корпус

AvP@5000




Без тематических признаков

С тематическими признаками

Русский

54.6

56.3

Английский

50.4

51.4

Мы считаем, что данные результаты, показанные на двух разных коллекциях, подтверждают, что тематические модели действительно вносят дополнительную информацию в процесс извлечения терминов.

В заключение ниже представлены первые 10 элементов из списков извлечённых слов-кандидатов, полученных с помощью моделей, учитывающих тематические признаки (термины выделены курсивом):



  • Для русского корпуса: Банковский, Банк, Год, РФ, Кредитный, Налоговый, Кредит, Пенсионный, Средство, Клиент;

  • Для английского корпуса: Member, Minute, Amendment, Document, EU, President, People, Directive, Year, Question.

7 Заключение

В статье представлены результаты экспериментального исследования возможности применения тематических моделей для улучшения качества автоматического извлечения однословных терминов.

Были исследованы различные тематические модели (как вероятностные, так и традиционные методы кластеризации) и предложены несколько модификаций известных признаков для упорядочивания слов-кандидатов по убыванию их терминологичности. В качестве текстовых коллекций были взяты два различных корпуса: электронные банковские статьи на русском языке и корпус Europarl на английском языке.

Эксперименты показали, что независимо от предметной области и языка использование тематической информации способно значительно улучшить качество автоматического извлечения однословных терминов.



Список литературы

  1. Лукашевич Н. В. Тезаурусы в задачах информационного поиска. Москва, Издательство Московского университета, 2011.

  2. Loukachevitch N. Automatic Term Recognition Needs Multiple Evidence. In the Proceedings of the 8th International Conference on LREC, Istanbul, Turkey, May 21–27, 2012.

  3. Blei D., Ng A. and Jordan M. Latent Dirichlet Allocation. Journal of Machine Learning Research. 2003, №3, pp. 993–1022.

  4. He Q., Chang K., Lim E., Banerjee A. Keep It Smile with Time: A Reeximanation of Probabilistic Topic Detection Models. In the Proceedings of IEEE Transactions Pattern Analysis and Machine Intelligence, 2010, Volume 32, Issue 10, pp. 1795–1808.

  5. Stevens K., Kegelmeyer P., Andrzejewski D., Buttler D. Exploring Topic Coherence over many models and many topics. In the Proceedings of EMNLP-CoNLL, Jeju Island, Korea, July 12–14, 2012, pp. 952–961.

  6. Blei D. and Lafferty J. Topic Models. Text Mining: Classification, Clustering and Applications, Chapman & Hall, 2009, pp. 71–89.

  7. Church K. and Gale W. Inverse Document Frequency IDF. A Measure of Deviation from Poisson. In the Proceedings of the Third Workshop on Very Large Corpora, Cambridge, MA, MIT Press, June 30, 1995, pp. 121–130.

  8. Ahmad K., Gillam L., Tostevin L. University of Survey Participation in Trec8. Weirdness indexing for logical document extrapolation and retrieval. In the Proc. of TREC 1999, Gaithersburg, Maryland, November 17–19, 1999.

  9. Nakagawa H. and Mori T. A Simple but Powerful Automatic Term Extraction Method. In the Proceedings of the Second International Workshop on Computational Terminology, 2002, pp. 29–35.

  10. Frantzi K. and Ananiadou S. Automatic Term Recognition Using Contextual Cues. In the Proceedings of the IJCAI Workshop on Computational Terminology, 2002, pp. 29–35.

  11. Pecina P. and Schlesinger P. Combining Association Measures for Collocation Extraction. In the Proceedings of the COLING/ACL, ACL Press, Sydney, Australia, July 17–21, 2006, pp. 651–658.

  12. Голомазов Д. Выделение терминов из коллекции текстов с заданным тематическим делением. Информационные технологии, 2010, №2, с. 8-13.

  13. Воронцов К. В. и Потапенко А. А. Регуляризация, робастность и разреженность вероятностных тематических моделей. Компьютерные исследования и моделирование, 2012, т. 4, №12, с. 693–706.

  14. Salton G. Automatic text processing: the transformation, analysis, and retrieval of information by computer. Addison-Wesley, 1989.

  15. Kurz D. and Xu F. Text Mining for the Extraction of Domain Retrieval Terms and Term Collocations. In the Proceedings of the International Workshop on Computational Approaches to Collocations, Vienna, Austria, July 22–23, 2002.

  16. Zhong Shi. Efficient Online Spherical K-means Clustering. In the Proc. of IEEE-IJCNN, Montreal, Canada, July 31 – August 4, 2005, pp. 3180–3185.

  17. Johnson S. C. Hierarchical Clustering Schemes. Psychometrica, 1967, № 2, pp. 241–254.

  18. Xu W., Liu X., Gong Y. Document Clustering Based On Non-negative Matrix Factorization. In the Proceedings of SIGIR, Toronto, Canada, July 28 – August 1, 2003, pp. 267–273.

  19. Lee Daniel D. and Seung H. Sebastian. Algorithms for Non-negative Matrix Factorization. In the Proceedings of NIPS, Denver, USA, MIT Press, 2000, pp. 556–562.

  20. Nakagawa H. and Mori T. A Simple but Powerful Automatic Term Extraction Mehod. In the Proceedings of the Second International Workshop on Computational Terminology, 2002, pp. 29–35.

  21. Ding C., Li T., Peng W. On the equivalence between Non-negative Matrix Factorization and Probabilistic Latent Semantic Indexing. Computational Statistics and Data Analysis, 2008, № 52, pp. 3913–3927.

  22. Phan X.-H., Nguyen C.-T. GibbsLDA++: A C/C++ implementation of latent Dirichlet Allocation (LDA), 2007.

  23. European Parliament Proceedings Parallel Corpus 1996–2011. http://www.statmt.org/europarl/

  24. EuroVoc. Multilingual Thesaurus of the European Union. http://eurovoc.europa.eu/drupal/

  25. Navigli R. and Velardi P. Semantic Interpretation of Terminological Strings. In the Proc. of the 6th International Conference on Terminology and Knowledge Engineering, Nancy, August 28–30, 2002, pp. 95–100.

  26. Weka 3. Data Mining Software in Java. http://www.cs.waikato.ac.nz/ml/weka

  27. Manning Christopher D., Raghavan Prabhakar and Schutze Hinrich. Introduction to Information Retrieval. Cambridge University Press, 2008.

  28. British National Corpus. http://www.natcorp.ox.ac.uk/

  29. Peñas A., Verdejo V., Gonzalo J. Corpus-based Terminology Extraction Applied to Information Access. In the Proceedings of the Corpus Linguistics 2001 Conference, Lancaster, UK, March 29 – April 2, 2001, pp. 458–465.

  30. Basili R., Moschitti A., Pazienza M., Zanzotto F. A Contrastive Approach to Term Extraction. In the Proceedings of the 4th Terminology and Artificial Intelligence Conference, 2001.

  31. Wong W., Liu W., Bennamoun M. Determining Termhood for Learning Domain Ontologies using Domain Prevalence and Tendency. In the Proс. of the 6th Australasian Conference on Data Mining, Gold Coast, Australia, December, 2007, pp. 47–54.

  32. Kurz D. and Xu F. Text Mining for the Extraction of Domain Retrieval Terms and Term Collocations. In the Proceedings of the International Workshop on Computational Approaches to Collocations, Vienna, Austria, July 22–23, 2002.

  33. Park Y., Bird R. J., Boguraev B. Automatic glossary extraction beyond terminology identification. In the Proc. of the 19th International Conference on Computational Linguistics, Mexico City, Mexico, February 17–23, 2002.

  34. Gelbukh A., Sidorov G., Lavin-Villa E., Chanona-Hernandez L. Automatic Term Extraction using Log-likelihood based Comparison with General Reference Corpora. In the Proc. of the Natural Language Processing and Information Systems, Cardiff, UK, June 23 – 25, 2010, pp. 248–255.

  35. Nakagawa H. and T. Mori. Automatic Term Recognition based on Statistics of Compound Nouns and their Components. Terminology, 2003, vol. 9, no. 2, pp. 201–219.

  36. Nokel M. A., Bolshakova E. I., Loukachevitch N. V. Combining Multiple Features for Single-Word Term Extraction. Компьютерная лингвистика и интеллектуальные технологии. По материалам конференции Диалог-2012, Бекасово, Московская область, 30 мая – 3 июня, 2012, с. 490–501.


База данных защищена авторским правом ©bezogr.ru 2016
обратиться к администрации

    Главная страница