Кочерга

One Hot Research. Лекторий Data Science

Каждую неделю публикуются сотни научных работ по машинному обучению, нейронным сетям, компьютерному зрению. Наша задача — разобраться в самых горячих!

Встречи в Кочерге с обзором статей по DataScience. Формат похож на семинарный — в разборе статьи, проверке и написании кода участвуют все желающие. Можно прийти посмотреть/послушать, но ведь гораздо интереснее приложить руку.

Ведущий — Дмитрий Евдокимов.

Чат в Телеграме: http://t.me/onehotresearch

Принципы

Мы разбираем статью вместе. Для каждой статьи можно выделить набор того, что нужно вытащить из текста: (основные результаты, архитектура модели, параметры обучения, пр.). Эти штуки мы можем вытаскивать параллельно, обсуждая, кто что нашел (возможны выходы к доске и все такое).

Мы проверяем статьи, насколько успеем. Это сложный пункт, но без него наша ценность стремится к нулю. Надо писать код, или хотя бы прикручивать чужой. Для кода есть следующие задачи:

  1. Понять, как устроен тот или иной кусок логики.
  2. Попытаться собрать и запустить все у себя.
  3. Собрать сервис в докере из репозитория (не пугайтесь, если до этого дойдет, будем делать вместе — как и все остальное).
  4. Попытаться поварьировать что-то и сравнить с тем, что было (от пальцем-в-небо экспериментов до сознательного импрувмента).

Нужны ноуты. Желательно с линуксом и докером. Еще всем, кто хочет участвовать в разборе, а не просто слушать, надо бы иметь аккаунт на гитхабе.

Есть идея стримить наши встречи хотя бы с одного экрана (или с экранов наиболее активных участников). Гипотезу, что это норм тема, мы проверим.

Основные провайдеры статей для нас — paperswithcode.com, потому что там легко выделить самые топовые, и arxiv.org, потому что там легко найти самые новые.

Основные провайдеры кода — репозитории из статей и github.com/trending, в котором еженедельно что-что по DS да появится.

Архив прошлых встреч

1 августа 2019

На этой неделе разберём статью из Samsung AI, в которой для восстановления 3D модели объекта по картинке предлагается использовать упрощенные отображения с малым числом параметров.

Если ты понимаешь, что такое частная производная, то скорее всего поймёшь и остальное.

P.S. Препринт статьи, которую будем разбирать: https://arxiv.org/abs/1907.10388

25 июля 2019

На этой неделе рассмотрим улучшенный вариант, пожалуй, самого известного метода разбиения данных на подгруппы — k-means, — который недавно представила группа учёных из пекинского Tsinghua university и университетского колледжа в Дублине. А чтобы понять, что к чему, разберём метод максимального правдоподобия, классический k-means и gaussian mixture model.

Если ты можешь посчитать, какова вероятность получить хотя бы одно чётное число при броске двух шестигранных игральных костей, то скорее всего поймёшь и остальное.

Препринт статьи, которую будем разбирать: https://arxiv.org/abs/1907.07442