Моя когорта из Генеральной Ассамблеи уже закончила. Вуп Вуп! Таким образом, у меня было много времени, чтобы начать заниматься самостоятельным обучением. Это было очень приятно, но заставило меня почувствовать, что теперь я просто учусь учиться, а не строить. Поэтому, просматривая эти ресурсы, я обдумывал идеи о том, как применить концепции к побочному проекту в дополнение к выполнению соответствующей курсовой работы.

С тех пор, как курс закончился, мне стало интереснее развивать навыки НЛП, и я нашел для этого 2 отличных ресурса. Оба из Стэнфорда. Первая охватывает истинные основы НЛП в мире, «до-раздутом» ИИ. AKA 2012. Сохранено из заархивированного курса на Coursera — он охватывает основы проверки орфографии, минимальное расстояние редактирования, языковое моделирование, классификацию текста, анализ тональности, извлечение сущностей и многое другое (пока что я рассмотрел только первые 6 глав). Если вы хотите начать работу с НЛП, просмотрите их в первую очередь.

Второй также предлагается Стэнфордом, и это их текущий курс, посвященный современным методам NN в НЛП. Это может быть немного более математическим, чем предыдущий набор видео, но это отличное введение в встраивание слов, глобальные векторы, синтаксический анализ зависимостей и основы нейронных сетей и связанных архитектур, используемых для НЛП. Если вы хотите изучить тензорный поток и хотите сосредоточиться на НЛП, это идеальное сочетание. Кроме того, программа курса полна соответствующих научных работ и учебных материалов, объясняющих концепции более подробно.

Некоторые из идей, которые у меня были, которые, по общему признанию, намного превосходят мой уровень навыков на данный момент:

  • Создайте твиттер-бота под названием «Король возвращения», который может генерировать релевантные отклики на сообщения в твиттере. А GAN вместе с seq2seq?
  • Используйте модель RDF2vec для изучения/генерации загадок. Моя наивная идея заключалась бы в том, что описываемый объект будет демонстрировать аналогичные вложения узлов или ребер.
  • Трампифицировать текст — это на самом деле было сделано несколькими людьми, но ни один из них не удовлетворяет мое представление о выходе. Вопрос это перевод типа seq2seq? Или можно ли обновить word2vec в корпусе Трампа, чтобы затем заменить семантически похожие слова? И как вы строите метрику сходства предложений, которой нет в других моделях?
  • Извлечение сущностей из твиттер-канала в реальном времени. Просто для практики.

Ни один из них не полезен в реальном смысле, но я обнаружил, что мне нужен проект и цели для достижения. В противном случае я могу потратить целый день на изучение и старательные записи, но в итоге почувствую себя непродуктивным.

В течение недели я стремлюсь узнать, какие этапы я делаю в этих проектах, и начинаю их отсеивать, продолжая вышеуказанные курсы.