AI & ML дайджест #1: Соревнования от OpenAI, предсказание звука по видео, “бесконечные” нейронные сети
В этом выпуске: интервью с представителем Яндекса о распознаванию речи, предсказание звука материала на основе «немого» видео, туториалы по character-level deep learning и API для построению нейронных сетей под iOS, обзоры генеративных моделей, прогнозирование финансовых временных рядов, «бесконечные» нейронные сети и многое другое.
Статьи, новости, интервью
Мегаинтереснейший проект по предсказанию звука, который издает материал при ударе по нему.
Новая красивая визуализация работы и активаций внутри рекуррентных нейронных сетей прямиком из Гарварда — LSTMVis.
Facebook рассказывает про свой инструмент для понимания текстов.
Предложение от OpenAI поработать над интересными задачами (в основном reinforcement learning) — есть площадка для публикации результатов как на Kaggle.
Интервью с руководителем отдела по речевым технологиям Яндекса о распознавании и синтезе речи, биометрии и будущем.
Нейронные сети делают предсказания на EURO-2016.
Профессор Уэльского университета опровергает теорию о том, что существует «языковой инстинкт».
DeepMind тоже в своем блоге пишет о последних результатах в Reinforcement Learning.
Что можно делать год на позиции Data Scientist в StackOverflow.
Как deep learning будет заботиться о природе, сохраняя коралловые рифы.
Программирование
Реализация разных архитектур нейронных сетей для прогнозирования финансовых временных рядов на Keras.
Туториал по интеграции Torch и OpenCV.
Туториал по data augmentation и fine-tuning в блоге Keras.
Инструмент от Facebook для обучения игры в Go, на Torch.
Построение нейронных сетей на Swift.
Magenta от Google Brain для создания своих аудио шедевров.
Про character-level deep learning, и почему по буквам «читать» лучше, чем по словам.
Теория: популярно
Сравнение архитектур сверточных нейронных сетей: от LeNet до ResNet.
Сравнительный пост генеративных моделей от OpenAI.
Переход нейронных сетей от «черных ящиков» до вероятностных моделей.
Доступное описание Inception-ResNet на Хабрахабре.
Веселый ресерч о рекомендации эмоджи к сообщению.
Краткий обзор методов unsupervised learning (все bleeding edge!).
Теория: научно
Учим градиентный спуск градиентным спуском.
Обучение «бесконечнослойных» нейронных сетей (точнее, «бесконечнонейронные», но все равно интересно с точки зрения математики).
ENet — архитектура для real-time сегментации.
Статья про эволюционные алгоритмы для обучения CNN.
Автодополнение кода с помощью рекуррентных нейронных сетей.
Еще одна статья, объясняющая успех RNN в моделировании речи — рекурсивные грамматики и глубокие сети выучивают зависимости между словами лучше, чем марковские процессы.
Если у вас есть интересные материалы, которые не попали в этот дайджест или вы хотите увидеть их в следующем, пишите на
Данный адрес e-mail защищен от спам-ботов, Вам необходимо включить Javascript для его просмотра.
, и мы добавим их.
← Предыдущий выпуск: AI & ML дайджест #0
От редакции: Приглашаем читателей, занятых в AI & ML сфере, принять участие в опросе о работе в этой отрасли.