Как видно из названия, это журнал стажера по машинному обучению (ML) в ImpactIA Foundation. Я постараюсь вести еженедельный журнал своей деятельности в Фонде, чтобы отслеживать свои успехи и оставлять дорожную карту для стажеров, которые придут после меня.

Самым ярким событием прошлой недели стал приезд моего коллеги-стажера Валентина Киндски. У него есть степень магистра в области микроинженерии и робототехники от EPFL, и он присоединяется к нашему Фонду, пока ищет возможности для получения докторской степени. Валентин, как здорово, что ты на борту! Он также будет писать еженедельные записи в журнале, которые вы можете найти здесь. Наш офисный день был посвящен тому, чтобы вводить его в курс дела по проектам Фонда. Мы объединим усилия по DAI и aiXlr8 (с которыми, я полагаю, вы уже знакомы, если не заглянете в мои предыдущие журналы), и пока я также сосредоточусь на программе обучающих курсов, Валентин будет работать над ShamanAI. , платформа с открытым исходным кодом, предоставляющая инструменты для профессионалов, желающих внедрить услуги ИИ. Во время обеденного перерыва, наслаждаясь сочным раменом (может, мне завести блог о еде в обеденный перерыв?), мы познакомились и нашли два общих увлечения: фрирайд на лыжах и теннис. Я думаю, что это партнерство будет работать очень хорошо.

Другая часть недели была потрачена на встречи с нашими клиентами aiXlr8, во время которых я провел их через учебник по маркировке VoTT, который я сделал, и продемонстрировал сеть сегментации (построенную поверх Detectron2).

Кроме того, нам наконец удалось обучить классификационную сеть на нашем новом расширенном и менее неоднозначном наборе данных, и результаты обнадеживают. Нам удалось повысить точность нашего теста примерно до 70% (ранее около 60%) примерно после 1000 периодов обучения. Однако в тестовом наборе все еще много различий, и, поскольку у нас так мало обучающих данных, мы еще не внедрили проверочный набор, который, вероятно, покажет, что на данный момент у нас довольно много переобучения. Используя этот учебник, я смог создать несколько хороших кривых обучения, показывающих точность наших тестовых и обучающих наборов в течение эпох, а также потери. Это помогает визуализировать то, что происходит в сети. Просматривая тестовые изображения, я заметил, что в наборе данных все еще есть некоторая неопределенность, которая может отбрасывать сеть. Эта неделя будет посвящена нашим поискам устранения неоднозначности, а также попыткам варьирования обучения, включая подавление всех дополнений данных, использование Keras-Tuner HyperResnet, использование EfficientNet, повторение дополнений данных, чтобы проверить, полезны ли они. или вредным — и, наконец, прибегают к GAN для создания дополнительных обучающих данных, если ничего не помогает. Большинство техник, упомянутых выше, для меня новы, поэтому я понятия не имею, сколько времени мне понадобится, чтобы освоить их, но поскольку моя жажда знаний никогда не утоляется, я с нетерпением жду этой недели!