Я использую NLTK для поиска n-граммов в корпусе, но в некоторых случаях это занимает очень много времени. Я заметил, что вычисление n-граммов не является редкостью в других пакетах (очевидно, Haystack имеет для этого некоторые функции). Означает ли это, что есть потенциально более быстрый способ найти n-граммы в моем корпусе, если я откажусь от NLTK? Если да, то что я могу использовать, чтобы ускорить процесс?
Быстрый расчет n-граммов
Ответы (3)
Поскольку вы не указали, нужны ли вам н-граммы на уровне слов или символов, я просто предполагаю первое без потери общности.
Я также предполагаю, что вы начинаете со списка токенов, представленных строками. Что вы можете легко сделать, так это написать извлечение n-граммов самостоятельно.
def ngrams(tokens, MIN_N, MAX_N):
n_tokens = len(tokens)
for i in xrange(n_tokens):
for j in xrange(i+MIN_N, min(n_tokens, i+MAX_N)+1):
yield tokens[i:j]
Затем замените yield
фактическим действием, которое вы хотите предпринять с каждым n-граммом (добавьте его в dict
, сохраните в базе данных и т.д.), чтобы избавиться от накладных расходов генератора.
Наконец, если это действительно недостаточно быстро, преобразуйте вышеуказанное в Cython и скомпилируйте его. Пример использования defaultdict
вместо yield
:
def ngrams(tokens, int MIN_N, int MAX_N):
cdef Py_ssize_t i, j, n_tokens
count = defaultdict(int)
join_spaces = " ".join
n_tokens = len(tokens)
for i in xrange(n_tokens):
for j in xrange(i+MIN_N, min(n_tokens, i+MAX_N)+1):
count[join_spaces(tokens[i:j])] += 1
return count
Вы можете найти питоническую, элегантную и быструю функцию генерации ngram с использованием оператора zip
и splat (*) здесь:
def find_ngrams(input_list, n):
return zip(*[input_list[i:] for i in range(n)])
Для n-граммов уровня персонажа вы можете использовать следующую функцию
def ngrams(text, n):
n-=1
return [text[i-n:i+1] for i,char in enumerate(text)][n:]