КАРТОЧКА ПРОЕКТА ФУНДАМЕНТАЛЬНЫХ И ПОИСКОВЫХ НАУЧНЫХ ИССЛЕДОВАНИЙ,
ПОДДЕРЖАННОГО РОССИЙСКИМ НАУЧНЫМ ФОНДОМ

Информация подготовлена на основании данных из Информационно-аналитической системы РНФ, содержательная часть представлена в авторской редакции. Все права принадлежат авторам, использование или перепечатка материалов допустима только с предварительного согласия авторов.

 

ОБЩИЕ СВЕДЕНИЯ


Номер 17-71-20072

НазваниеНейробайесовские методы в задачах машинного обучения, масштабируемой оптимизации и компьютерного зрения

РуководительВетров Дмитрий Петрович, Кандидат физико-математических наук

Организация финансирования, регион федеральное государственное автономное образовательное учреждение высшего образования "Национальный исследовательский университет "Высшая школа экономики", г Москва

Период выполнения при поддержке РНФ 07.2017 - 06.2020 

Конкурс№24 - Конкурс 2017 года по мероприятию «Проведение исследований научными группами под руководством молодых ученых» Президентской программы исследовательских проектов, реализуемых ведущими учеными, в том числе молодыми учеными.

Область знания, основной код классификатора 01 - Математика, информатика и науки о системах, 01-202 - Интеллектуальный анализ данных и распознавание образов

Ключевые словаглубинное обучение, байесовские методы, большие данные, стохастическая оптимизация, генеративные модели, машинное обучение

Код ГРНТИ28.23.37


СтатусУспешно завершен


 

ИНФОРМАЦИЯ ИЗ ЗАЯВКИ


Аннотация
Проект направлен на разработку методов машинного обучения, сочетающих две наиболее успешные на сегодняшний день парадигмы – вероятностное (Байесовское) моделирование и глубинное (глубокое) обучение. В рамках первого направления удалось существеннно расширить круг задач, решающийся с помощью методов машинного обучения. В частности, на вероятностных принципах работают наиболее успешные алгоритмы сегментации изображений, коллаборативной фильтрации, тематического моделирования, и пр. К достоинствам Байесовского подхода при построении моделей обработки данных относятся: (1) возможность построения сложных моделей из простых, благодаря использованию результата Байесовского вывода (апостериорного распределения на скрытые переменные) в одной модели, в качестве априорного распределения в другой модели и т.д.; (2) возможность обрабатывать данные «на лету», обновляя апостериорные распределения без сохранения самих данных, поступающих в потоковом режиме; (3) возможность работать с неполными и зашумленными разметками обучающей выборки. К недостаткам Байесовского подхода можно отнести необходимость, за редким исключением т.н. сопряженных распределений, проводить вычислительно трудоемкий и не слишком точный приближенный Байесовский вывод. В рамках второго направления удалось добиться настоящей революции в области машинного обучения в течение последних 5 лет. Глубинные нейронные сети оказались превосходным инструментом для решения стандартных задач машинного обучения по большим объемам данных. В настоящее время в мире активно ведутся исследования по их адаптации под более сложные задачи обучения, например, построения генеративных моделей. В работах 2013-15гг впервые появляются работы, в которых делается попытка объединить два этих подхода и использовать нейронные сети для выполнения приближенного Байесовского вывода в сложных моделях обработки данных. Основной идеей является переход к т.н. вариационной нижней оценке (evidence lower bound) и ее оптимизация по весам нейронной сети. Первые результаты показывают, что такая технология существенно точнее существующих аналогов и гораздо лучше описывает распределение данных, что, потенциально, позволяет использовать такие нейронные сети для генерации объектов, создание которых традиционно считалось атрибутом высшей нервной деятельности (например, рисование картин, подделка почерка, сочинение текста, описывающего картину, перевод с одного языка на другой и др.). В настоящее время конвергенция нейросетевого и Байесовского подходов стала одним из трендов развития современных методов машинного обучения. Актуальность этого направления подтверждается шквалом работ в 2015-17гг и все более интересными результатами, полученными на стыке этих направлений (механизм внимания, вариационные автокодировщики, вариационный дропаут, нормализационные потоки и др.). Целью настоящего проекта является дальнейшая разработка математического аппарата и алгоритмических средств для комбинированного нейро-байесовского подхода к машинному обучению, который бы позволил проводить настройку параметров и вероятностный вывод более эффективно и, соответственно, расширил бы область применимости этого подхода. В ходе проекта предполагается существенно использовать уникальный задел, созданный в научной группе сразу в нескольких областях: Байесовском моделировании, глубинном обучении, стохастической оптимизации. Значительная часть исследований будет опираться на результаты 2015-17гг, полученные в мире. В рамках развития математического аппарата предполагается разработка новых математических моделей, позволяющих более экономно расходовать ресурсы компьютера при использовании нейронных сетей. Это крайне актуальное направление связано с трудностями, которые возникают при попытке перенести современные нейросетевые архитектуры на мобильные устройства, а также при необходимости вести обработку данных, поступающих в режиме реального времени. Основными ограничительными факторами являются требования по памяти, требования по скорости обучения и требования по скорости обработки новых объектов. Первую проблему предполагается решить на основе технологии вариационного дропаута, представляющей собой особый вид байесовской регуляризации нейронной сети. В процессе вариационного вывода апостериорное распределение большинства весов нейросети (до 99.9%) вырождается в дельта-функцию в нуле, что эквивалентно исключению таких весов из модели. При этом точность работы сети на валидации не снижается. Фактически, разработанная в 2017г участниками проекта технология обеспечивает устранение избыточности современных нейросетевых архитектур. Это открывает широкие возможности для их более компактного представления, требующего в десятки раз меньше памяти. Для решения второй проблемы предполагается использовать специальным образом обученную отдельную нейросеть, которая способна подобрать параметры для обучения базовой нейронной сети, путем учета специфики возникающего функционала качества. В случае успеха, такой подход может стать доминирующим в глубинном обучении, т.к. даже наиболее продвинутые методы стохастической оптимизации, разработанные в 2015-16гг и используемые для обучения нейронных сетей в настоящее время, очень мало учитывают специфику конкретной задачи и конкретной настраиваемой под нее нейросетевой архитектуры. Результаты, полученные как в научной группе, так и зарубежными коллегами в течение последних 6 месяцев, позволяют сделать вывод о принципиальной возможности такого подхода. Третью задачу, являющуюся в краткосрочной перспективе наиболее востребованной в индустрии, планируется решить разработкой технологии группового вариационного дропаута, обеспечивающего удаление не отдельных весов, а нейронов и отдельных фильтров в сверточных слоях сверточных нейросетей; а также технологии пространственно-адаптивного времени вычислений, которую предполагается сформулировать в виде задачи байесовского вывода в модели с дискретными латентными переменными. Помимо этого, в ходе проекта планируется разработать новые, альтернативные классическим вариационным (то есть, использующие отличные от evidence lower bound (ELBO) нижние оценки), модели приближенного байесовского вывода, версию вариационного дропаута для рекуррентных сетей, байесовскую модель для адаптации уже обученной нейронной сети на новые данные и новые задачи, масштабируемую модель гауссовских процессов в задачах машинного обучения. Разработанные в ходе проекта технологии предполаагется применить для улучшения качества нескольких генеративных нейросетевых моделей, а также для генерирования синтетических объектов, призванных расширить объем обучающей выборки в задачах компьютерного зрения.

Ожидаемые результаты
1. Метод сжатия нейронной сети без потери качества ее работы на основе процедуры вариационного дропаута. 2. Алгоритм ускорения нейронных сетей с помощью отбрасывания нерелевантных нейронов и фильтров в сверточных слоях. 3. Процедура байесовской регуляризации для рекуррентных нейронных сетей. 4. Способ обучения нейронной сети, испольющий специализированную нейросеть для подбора параметров метода оптимизации (длина шага, коэффициент инерции, направление изменения весов). 5. Байесовская модель пространственно-адаптивного времени вычислений и алгоритм ускорения остаточных сетей, содержащих сотни слоев. 6. Новые методы приближенного байесовского вывода, использующие нейронные сети, на основе альтернативных вариационных функционалов. 7. Масштабируемая модель гауссовсикх процессов на основе тензорных разложений и модели с латентными переменными. 8. Процедура генерации новых обучающих примеров с помощью нейронной сети в задачах компьютерного зрения. Успешное достижение хотя бы части результатов окажет существенное влияние на современное состояние машинного обучения и оптимизации в задачах с большими объемами данных. В частности, разработанные методы расширят функциональность нейронных сетей и сделают их более экономичными и эффективными. Комбинирование нейронных сетей с Байесовской парадигмой позволит устранить риски катастрофического переобучения, открытые в начале 2017г.


 

ОТЧЁТНЫЕ МАТЕРИАЛЫ


Аннотация результатов, полученных в 2017 году
В ходе выполнения проекта получен ряд результатов в области комбинирования нейросетевых моделей обработки больших объемов данных. Воспроизведены и улучшены результаты других исследовательских групп, показавших, что нейронные сети могут использоваться для обучения нейронных сетей. Разработана более устойчивая процедура для такого мета-обучения. Сам по себе этот результат свидетельствует, что оптимизируемый в ходе процедуры обучения глубинной нейронной сети функицонал обладает рядом особенностей, которые не учитываются стандартными методами (стохастической) оптимизации, но могут учитываться (и учитываются) нейросетевым оптимизатором. Известно, что современные нейронные сети обладают сильно избыточной параметризацией. С одной стороны, многочисленные исследования показывают, что избыточная параметризация позволяет упростить и ускорить процедуру обучения. С другой стороны, она приводит к неоправданно большим затратам по памяти и вычислительным ресурсам на этапе применения нейронной сети. Коллективом участником разработана технология т.н. разреживающего вариационного дропаута, которая позволяет устранить избыточность обученной нейроной сети за счет применения механизма стохастического вариационного вывода к нейробайесовской модели специального вида. Построен ряд расширений базовой модели, позволяющих использовать разработанный метод для ускорения сверточных (в том числе остаточных) сетей и для прореживания рекуррентных нейросетей. Одним интересным следствием перехода к нейробайесовским вероятностным моделям является возможность дообучения нейронной сети на новых данных без использования старых данных, на которых сеть была обучена исходно. Использование современных техник вариационного байесовского вывода позволило построить такие процедуры дообучения, обладающие существенно более высоким качеством, чем наивная донастройка на новые данные из текущего значения весов. Одной из наиболее перспективных байесовских парадигм является аппарат гауссовских процессов, обладающий рядом преимуществ при решении задач регрессии и классификации и, теоретически, допускающий комбинирование с современными нейронными сетями. Ключевым недостатком гауссовских процессов является высокая вычислительная сложность при переходе к обработке больших объемов обучающих выборок. Одним из возможных выходов является использование приближенного вариационного вывода на основе т.н. индуцируемых точек. В рамках проекта эта техника расширена на случай, когда индуцирующие точки образуют регулярную сетку в пространстве объектов. Это делает возможным использование тензорных разложений для существенного ускорения процедуры обучения, благодаря чему удается обучать гауссовские процессы даже с большим числом индуцирующих точек, чем объем исходной обучающей выборки. В ходе проекта начато исследование т.н. неявных вероятностных моделей (вариационных программ). Такие модели занимают промежуточное положение между МСМС самплерами (несмещенные, но неэффективные) и моделями на основе вариационного байесовского вывода (быстрые, но неточные). Простейшим примером таких моделей являются генеративные конкурирующие сети. На основе этих сетей предложена модель пополнения (огментации) обучающей выборки синтетическими примерами, позволившая улучшить качество обученного на пополненных данных классификатора в одной практически важной задаче (классификация дорожных знаков). Разработанные нейробайесовские моели успешно использованы в задаче синтеза новых химических веществ с заранее заданными свойствами и генерации определений по внутреннему представлению слова. По промежуточным результатам проекта опубликован ряд статей на ведущих мировых конференциях ранга А* (3 статьи) и А (2 статьи).

 

Публикации

1. Бартунов С.О., Ветров Д.П. Few-shot Generative Modelling with Generative Matching Networks Proceedings of Machine Learning Research, Volume 84: International Conference on Artificial Intelligence and Statistics, 2018, pp. 670-678 (год публикации - 2018)

2. Гадецкий А.В., Якубовский И.А., Ветров Д.П. Conditional Generators of Words Definitions 56th Annual Meeting of the Association for Computational Linguistics, - (год публикации - 2018)

3. Измайлов П.А., Новиков А.В., Кропотов Д.А. Scalable Gaussian Processes with Billions of Inducing Inputs via Tensor Train Decomposition Proceedings of Machine Learning Research, Volume 84: International Conference on Artificial Intelligence and Statistics, 2018, pp. 726 - 735 (год публикации - 2018)

4. Кузминых Д., Полыковский Д., Кадурин А., Жебрак А., Басков И., Николенко С., Шаяхметов Р., Жаворонков А. 3D Molecular Representations Based on the Wave Transform for Convolutional Neural Networks Molecular Pharmaceutics, - (год публикации - 2018) https://doi.org/10.1021/acs.molpharmaceut.7b01134

5. Лобачева Е.М., Чиркова Н.А., Ветров Д.П. Bayesian Sparsification of Recurrent Neural Networks Workshop on Learning to Generate Natural Language. 1. International Conference on Machine Learning, - (год публикации - 2017)

6. Молчанов Д.А., Ашуха А.П., Ветров Д.П. Variational Dropout Sparsifies Deep Neural Networks Proceedings of Machine Learning Research, Volume 70: Proceedings of the 34th International Conference on Machine Learning, 2017, pp. 2498-2507 (год публикации - 2017)

7. Неклюдов К. О., Молчанов Д. А., Ашуха А. П., Ветров Д. П. Structured Bayesian Pruning via Log-Normal Multiplicative Noise Advances in Neural Information Processing Systems 30, 2017, pp. 6778-6787 (год публикации - 2017)

8. Новиков А.В., Трофимов М.И., Оселедец И.В. Exponential Machines Bulletin of the polish academy of sciences, - (год публикации - 2018)

9. Шахуро В.И., Конушин А.С. Синтез обучающих выборок для классификации дорожных знаков с помощью нейросетей Компьютерная оптика, Т. 42, № 1. – С. 105-112 (год публикации - 2018) https://doi.org/10.18287/2412-6179-2018-42-1-105-112


Аннотация результатов, полученных в 2018 году
За отчетный период коллективом исполнителей проекта выполнен ряд практических исследований по разработке генеративных моделей и техник генерации выборок из сложных распределений, использующих глубинные нейронные сети. Получены теоретические результаты, обосновывающие условия корректности применения разработанных моделей. В частности: - Разработан новый метод генерации выборок из вероятностных моделей с использованием нейронных сетей, в которых часть параметров задаются матрицами с ортогональными столбцами. Доказаны теоремы о реверсивности и симплектичности итерации метода, требуемых для обоснования его корректности. - Адаптирован алгоритм Метрополиса-Хастингса на случай когда предложное распределение задано в виде неявной вероятностной модели, а целевое распределение задано эмпирически (в виде выборки). Эксперименты демонстрируют улучшение на выборках изображений (CIFAR-10, CelebA) для широкого класса неявных вероятностных моделей. - Введены метрики для оценки размера носителя и степени неравномерности генеративной модели. Проведено эмпирическое исследование носителей порождающих моделей с использованием предложенных метрик. Численно подтверждены выдвинутые ранее гипотезы о размере носителя конкурирующих сетей. -Разработан новый метод оценки градиента матожидания функции потерь по параметрам дискретных распределений, основанный на факторизованном представлении тензора потерь при восстановлении латентных переменных. Предложенный метод объединяет в одну парадигму ряд известных подходов. В рамках продолжения исследований предыдущего года разработан байесовский метод иерархического разреживания рекуррентных нейронных сетей, состоящий в комбинации разреживания отдельных весов, гейтового разреживания и удаления нейронов. Разработан метод регуляризации нейронных сетей, основанный на отдельной регуляризации направления и магнитуды входного вектора весов, относящегося к нейрону. Также в рамках проекта предложены методы для решения конкретных прикладных задач, частично опирающиеся на полученные в ходе выполнения проекта научные результаты: - Предложена новая генеративная модель для задачи разработки лекарств. Новая модель способна обнаруживать молекулярные структуры, удовлетворяющие сотням условий. Экспериментальное сравнение с базовыми методами показывает значительный прирост в частоте удовлетворения условиям. - Реализованы и протестированы два нейросетевых метода встраивания дорожных знаков: безусловный и условный. Безусловный метод встраивания обучается встраивать дорожные знаки фиксированного класса, условный метод получается на вход пиктограмму знака, который нужно встроить. Экспериментальная оценка методов показала, что разработанные методы позволяют качественно встраивать изображения дорожных знаков. - Разработан и экспериментально протестирован метод классификации дорожных знаков с открытым набором классов. Разработанный метод использует метод поиска аномалий для классификации частый-редкий знак, а затем использует один из двух классификаторов (нейросетевой или kNN на нейросетевых признаках).

 

Публикации

1. Измайлов П.А., Подоприхин Д.А., Гарипов Т.И., Ветров Д.П., Гордон Уилсон А. Averaging Weights Leads to Wider Optima and Better Generalization Proceeding of the Conference on Uncertainty in Artificial Intelligence, 2018, Pp. 876-885 (год публикации - 2018)

2. Кемаев Ю.Ю., Полыковский Д.А., Ветров Д.П. ReSet: Learning Recurrent Dynamic Routing in ResNet-like Neural Networks Proceedings of Machine Learning Research, Volume 95: Asian Conference on Machine Learning, 2018, pp. 422-437 (год публикации - 2018)

3. Никишин Е.С., Измайлов П.А., Ативараткун Б., Подоприхин Д.А., Гарипов Т.И., Швечиков П.Д., Ветров Д.П., Гордон Уилсон А. Improving Stability in Deep Reinforcement Learning with Weight Averaging Workshop on Uncertainty in Deep Learning, Conference on Uncertainty in Artificial Intelligence, - (год публикации - 2018)

4. Полыковский Д.А., Соловьев Д., Николенко С.И. Concorde: Morphological Agreement in Conversational Models Proceedings of Machine Learning Research, Volume 95: Asian Conference on Machine Learning, 2018, pp. 407-421 (год публикации - 2018)

5. Фигурнов М.В., Соболев А.А., Ветров Д.П. Probabilistic adaptive computation time Bulletin of the Polish Academy of Sciences:Technical Sciences, Том 66, номер 6, сс. 811-820 (год публикации - 2018) https://doi.org/10.24425/bpas.2018.125928


Аннотация результатов, полученных в 2019 году
В ходе работ по теме неявного вероятностного моделирования было достигнуто два основных научных результата: улучшение вероятностных моделей для сэмплирования из целевого эмпирического распределения с помощью алгоритма Метрополиса-Хастингса, а также разработка единого формализма методов Монте Карло с Марковскими цепями, который позволяет легкое внедрение нейросетевых алгоритмов в большое количество классических алгоритмов Монте Карло. По результатам работы была написана статья, которая в данный момент находится на рецензировании на конференцию ICML 2020. Разработан новый риманов метод оптимизации для многообразия тензоров в формате тензорного поезда ограниченного ранга. Основное преимущество нового метода по сравнению с ранее известными подходами – использование более эффективной операции ретракции, не требующей дорогостоящего SVD разложения. Эксперименты показывают значительное (до 11 раз) ускорение по времени нового метода относительно аналогов. В рамках направления по исследованию генеративных моделей с дискретными сущностями в латентном коде был проведен ряд экспериментов по ансамблированию одноранговых оценок тензора функции потерь при подсчете направления обучения вариационных автокодировщиков c дискретным латентным пространством: произведено сравнение ансамблирования независимых одноранговых оценок и последовательного приближения тензора остатков с помощью одноранговых приближений. Кроме того, был предложен метод введения дискретных сущностей в непрерывное пространство априорного распределения генеративных моделей благодаря использованию тензорного разложения. Для задачи поиска лекарств современными методами глубинного обучения был разработан метод детерминированного декодирования (deterministic decoding VAE, DD-VAE). Статья описывает новую генеративную модель, позволяющую выделять признаки в режиме обучения без учителя. Предложенный метод основан на максимизации приближенной нижней оценки на обоснованность для задачи детерминированного декодирования. Показано что, при выполнении определенных условий, решение приближенной задачи совпадает с решением исходной точной задачи оптимизации. Проведены эксперименты на синтетических данных, изображениях, а также молекулярных структурах. Для молекулярных структур модель исследовалась на задаче обучения распределению (distribution learning) и на задаче оптимизации свойств (goal-oriented learning). На обеих задачах модель показала лучший результат в сравнении с аналогичными известными ранее моделями. По результатам работы опубликована статья на конференции уровня Core A. В рамках работы по новым методам байесовского разреживания рекуррентных нейронных сетей разработана техника иерархического группового прунинга гейтовых рекуррентных нейронных сетей. В результате экспериментального сравнения с подходом (Wen18) на задаче генерации текстов показано, что разработанная техника приводит к более высокому уровню разреженности нейронов и гейтов при одинаковом уровне качества. В результате анализа полученных гейтовых структур выявлена их схожесть с гейтовыми структурами, полученными с помощью разработанной ранее техники иерархического байесовского разреживания. По направлению, связанному с созданием новых методов компьютерного зрения для анализа дорожной обстановки проведено экспериментальное исследование переносимости детектора дорожных знаков на примере переноса с российского набора данных на китайский набор данных. Эксперименты показали эффективность использования предобучения на российском наборе данных. Кроме этого, предложен метод прореживания выборки с помощью значений функции потерь детектора при обучении на данной выборке. Метод показал более высокое качество на выборках среднего размера по сравнению со случайным прореживанием обучающей выборки. Также Разработан метод повышения реализма синтетических изображений дорожных знаков, который позволяет синтезировать дорожные знаки тех классов, реальные примеры для которых отсутствуют. Метод позволяет повысить качество классификатора и детектора на редких знаках по сравнению с базовым методом, а именно генерацией синтетических данных без нейросетевого повышения реализма изображений знаков. В ходе выполнения проекта было начато исследование по стохастическому обобщению недавно предложенной парадигмы нейродифференциальных уравнений, обладающей рядом преимуществ относительно обычных глубинных нейронных сетей. При работе со стохастическими нейросетевыми дифференциальными уравнениями оказалось, что поведение модели на модельной задачи повторяется и на более сложных реальных задачах с классификацией изображений при условии, что не используется аугментация изображений. При этом при использовании аугментации изображений стохастические нейросетевые дифференциальные уравнения не дают прироста в качестве классификации в сравнении с обычными нейросетевыми дифференциальными уравнениями. Таким образом, можно сделать предположение, что добавление стохастического шума может помочь при работе с данными, для которых нет эффективных процедур аугментации данных - таких, как временные ряды. Результаты работы по стохастическим нейросетевым дифференциальным уравнениям представлены на уоркшопе конференции ICLR 2020. Были проведены эксперименты с использованием батч-нормализации в нейросетевых дифференциальных уравнениях, которые показали, что наивный способ добавления ее в архитектуру модели приводят к значительному падению в качестве классификации. При этом был предложен альтернативный способ нормализации, который помогает избежать падения.

 

Публикации

1. Аланов А., Кочуров М., Волконский Д., Яшков Д., Бурнаев Е., Ветров Д. User-controllable Multi-texture Synthesis with Generative Adversarial Networks Proceedings of the 15th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications - Volume 4: VISAPP, 214-221, 2020, Valletta, Malta, Proceedings of the 15th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications, Volume 4, pages 214-221 (год публикации - 2020) https://doi.org/10.5220/0008924502140221

2. Кузнецов М.Д., Полыковский Д.А.,Ветров Д.П., Жебрак А. A Prior of a Googol Gaussians: a Tensor Ring Induced Prior for Generative Models Advances in Neural Information Processing Systems 32, pp. 4104-4114 (год публикации - 2019)

3. Молчанов Д.А., Харитонов В.Д.,Соболев А.А., Ветров Д.П. Doubly Semi-Implicit Variational Inference Proceedings of Machine Learning Research, Volume 89: The 22nd International Conference on Artificial Intelligence and Statistics (AISTATS 2019), Proceedings of Machine Learning Research, Volume 89: The 22nd International Conference on Artificial Intelligence and Statistics (AISTATS 2019). PMLR, 2019. P. 2593-2602. (год публикации - 2019)

4. Оганесян В.В, Волохова А.К., Ветров Д.П, Stochasticity in Neural ODEs: An Empirical Study ICLR 2020 Workshop on Integration of Deep Neural Models and Differential Equations, - (год публикации - 2020)

5. Полыковский Д.А,, Ветров Д.П. Deterministic Decoding for Discrete Data in Variational Autoencoders AISTATS-2020, Proceedings, - (год публикации - 2020)

6. Соболев А.А., Ветров Д.П. Importance Weighted Hierarchical Variational Inference Advances in Neural Information Processing Systems 32, pp. 601-613 (год публикации - 2019)

7. Фаизов Б.В, Шахуро В.И., Санжаров В.В., Конушин А.С. Классификация редких дорожных знаков Компьютерная оптика, Т. 44, № 2, С. 236-243 (год публикации - 2020) https://doi.org/10.18287/2412-6179-CO-601


Возможность практического использования результатов
не указано