КАРТОЧКА ПРОЕКТА,
ПОДДЕРЖАННОГО РОССИЙСКИМ НАУЧНЫМ ФОНДОМ

Информация подготовлена на основании данных из Информационно-аналитической системы РНФ, содержательная часть представлена в авторской редакции. Все права принадлежат авторам, использование или перепечатка материалов допустима только с предварительного согласия авторов.

 

ОБЩИЕ СВЕДЕНИЯ


Номер 15-11-30022

НазваниеГлобальная оптимизация, суперкомпьютерные вычисления и приложения

РуководительСергеев Ярослав Дмитриевич, Доктор физико-математических наук

Организация финансирования, регионфедеральное государственное автономное образовательное учреждение высшего образования "Национальный исследовательский Нижегородский государственный университет им. Н.И. Лобачевского", Нижегородская обл

Года выполнения при поддержке РНФ 2015 - 2017 

КонкурсКонкурс 2015 года на получение грантов по приоритетному направлению деятельности Российского научного фонда «Проведение фундаментальных научных исследований и поисковых научных исследований с представлением результатов в рамках международной конференции (конгресса)»

Область знания, основной код классификатора 01 - Математика, информатика и науки о системах, 01-206 - Вычислительная математика

Ключевые словаМногоэкстремальная оптимизация, глобальный экстремум, многомерные задачи, невыпуклые ограничения, редукция сложности, параллельные вычисления, суперкомпьютеры, детерминированные и стохастические методы, большие базы данных, статистика, машинное обучение

Код ГРНТИ27.41.00


СтатусУспешно завершен


 

ИНФОРМАЦИЯ ИЗ ЗАЯВКИ


Аннотация
Целью настоящего проекта является эффективное развитие научных исследований в области анализа математических моделей сложных интеллектуальных систем и процессов принятия оптимальных решений, формулируемых как модели многоэкстремальной оптимизации. Указанные модели имеют фундаментальный характер, широко распространены в приложениях (оптимальное проектирование, идентификация моделей и др.) и обладают высокой вычислительной трудоемкостью. Область научных исследований, к проблематике которой относится предлагаемый проект, является быстро развивающейся и конкурентной. Актуальность и востребованность исследований в данной области подчеркивают факты высокой публикационной активности и проведения многочисленных научных конференций. Коллектив участников проекта имеет значительный (более 40 лет) опыт исследований по указанной проблематике в составе международно признанной научной Нижегородской школы глобальной оптимизации, усиленной ведущими специалистами из Великобритании и Италии, имеющими признанные во всем мире результаты в области стохастической глобальной оптимизации, статистики и машинного обучения. Участие этих специалистов привносит в проект компетенции, эффективно дополняющие опыт нижегородцев. В рамках проекта ставится задача создания и исследования взаимосвязанного комплекса уникальных современных эффективных вычислительных алгоритмов оптимизации, применимых в условиях сложного многоэкстремального поведения функционалов моделей (критериев и ограничений) и ориентированных на наиболее полное использование получаемой при измерениях функционалов информации. Разрабатываемые быстрые базовые алгоритмы теоретически обосновываются, а их эффективность подтверждается проведением представительного тестирования и решением прикладных задач. Теоретические результаты создают необходимый алгоритмический базис для применения к рассматриваемым задачам новейших технологий и технических возможностей высокопроизводительных вычислений, включая распределенные кластерные и общие конвейерные вычисления на графических процессорах с использованием возможностей суперкомпьютера Нижегородского госуниверситета с пиковой производительностью 570 Tflops (около 1 млн. вычислительных ядер). Полученные результаты позволят выйти на принципиально новый уровень сложности решаемых многоэкстремальных задач, существенно повысив их размерность. Результаты выполнения проекта образуют основу для внедрения достижений выполняемых научных работ в создание наукоемких программных систем параллельной глобальной оптимизации, позволяющих решать прикладные задачи высокой сложности, а также основу для внедрения результатов в образовательный процесс и систему подготовки кадров, включая кадры высшей квалификации. Все сформулированные в проекте задачи, связанные с разработкой и теоретическим обоснованием методов глобальной оптимизации, созданием программных средств и параллельных высокопроизводительных реализаций методов, являются новыми. Актуальность исследований определяется как ожидаемым расширением теоретических и алгоритмических результатов в области построения методов многоэкстремальной оптимизации, включая вопросы эффективной параллельной реализации в условиях суперкомпьютерных вычислений, так и конкретными результатами программных разработок, обеспечивающими возможности существенного расширения круга решаемых прикладных задач, в частности, в статистике, работе с большими объемами данных и машинном обучении. Будут проведены 3 молодежные школы по высокопроизводительным вычислениям, оптимизации и приложениям и одна международная конференция серии LION "Learning and Intelligent OptimizatioN" - Машинное обучение и интеллектуальная оптимизация. Профессор Сергеев, который является координатором проекта, тесно связан с серией ежегодных конференций LION, проводящихся с 2007 г. в странах Европы и США. Он был членом Научных Комитетов почти всех конференций серии LION, начиная с самой первой, где он был также одним из пленарных докладчиков. В 2013 г. он был приглашен провести тьюторил на LION-7. Создатель серии конференций LION и Председатель ее Управляющего Комитета (Steering Committee) профессор Роберто Баттити (Roberto Battiti) является одним из основных исполнителей проекта.

Ожидаемые результаты
Основные планируемые результаты проекта состоят в следующем: – новые методы, использующие сочетание аппроксимации фрактальных разверток Пеано- Гильберта с Гёльдеровой глобальной оптимизацией редуцированной задачи в условиях использования множественной оценки константы Липшица и применения двухфазной стратегии со встроенными техниками локального уточнения; – принципиально новые триангуляционные компонентные методы липшицевой глобальной оптимизации, основанные на разбиении исходного множества на симплексы, впервые применяемые в условиях множественной оценки константы Липшица; – диагональные компонентные методы липшицевой оптимизации с функциональными ограничениями, построенные в условиях неограниченности диапазонов значений констант Липшица, обобщающие принципы построения известного метода DIRECT; – новый многомерный компонентный диагональный метод с измеряемыми липшицевыми градиентами; – результаты теоретического обоснования и исследования указанных выше методов, представительного сопоставительного тестирования и применения к решению прикладных задач; – новый алгоритмический и программный инструментарий для экспериментального тестирования новых методов на задачах с функциональными ограничениями, позволяющий повторяемо генерировать случайные выборки многоэкстремальных задач с ограничениями, с управляемой сложностью как целевой функции, так и структуры допустимого множества; – ускоренные последовательные версии многомерного метода липшицевой оптимизации с локальной настройкой на основе адаптивной многошаговой схемы редукции размерности (перспективной для параллелизации метода) – для задач без функциональных ограничений и со сложными функциональными ограничениями, а также новая разработка параллельных реализаций этих вариантов метода; – новые комбинированные схемы редукции размерности задач на основе сочетания техники множественных вращаемых разверток или неинъективных отображений с использованием вложенных подзадач промежуточной размерности, редуцируемых через многошаговую схему; – новые параллельные методы и программные системы липшицевой многоэкстремальный оптимизации с высоким показателем параллелизма, соответствующем тысячам и десяткам тысяч вычислительных ядер, а также позволяющие использовать графические ускорители в плане проведения на них общих конвейерных вычислений с целью существенного ускорения процесса решения сложных задач оптимизации; оценка достигнутого уровня производительности. - эффективные методы решения низкоуровневых аппроксимационных задач структурированных матриц и применение этих методов для задач анализа временных рядов и обработки сигналов. - эффективные алгоритмы для решения оптимизационных задач высокой размерности, возникающих в оптимальном экспериментальном проектировании, в частности, алгоритмы оптимального проектирования для коррелированных наблюдений, что является очень важной практической задачей, ведущей к задачам оптимизации высоких размерностей. Будет показано, что задачи калибровки могут быть рассмотрены в качестве частного случая общей задачи оптимального проектирования эксперимента. - уменьшение ограничений применимости простых (по сравнению с методами имитации отжига и генетическими алгоритмами) стохастических алгоритмов поиска путем их тщательной поэтапной реализации и использованием вспомогательных структур данных. Упрощение будет пониматься в смысле уменьшения числа настраиваемых конечным пользователем параметров и улучшения вклада индивидуально построенных блоков в конечные результаты. - Реализация алгоритмов самообучающихся интеллектуальных систем из класса методов LION, основанных на дискретных весах и глобальной оптимизации, на графических процессорах с тщательно продуманными основными компоновочными блоками, начиная с библиотек от NVIDIA и других подобных поставщиков. Значимость планируемых теоретических и программно-алгоритмических результатов обусловлена тремя факторами: 1. Теоретические и прикладные разработки проекта являются оригинальными, соответствуют мировому уровню развития исследований в области многоэкстремальной оптимизации, в ряде случаев не имеют аналогов и будут способствовать дальнейшему развитию проблематики решения задач многоэкстремального выбора. 2. Новые эффективные методы и алгоритмы глобальной оптимизации с учетом их параллельных реализаций в условиях суперкомпьютерных вычислений приведут к расширению программного инструментария для решения сложных прикладных задач, сводимых к задачам многоэкстремального выбора с трудновычислимыми критериями качества. Такие задачи широко распространены в приложениях различной природы (в экономике, системах автоматического управления, инженерном проектировании и др.). 3. Планируемые теоретические, алгоритмические и программные разработки явятся основой для создания эффективных пользовательских программных систем как со стороны авторов-разработчиков, так и со стороны ИТ-компаний, занимающихся разработкой наукоемкого программного обеспечения. Результаты, полученные в ходе выполнения проекта будут обнародованы в следующих формах: 1. Через публикацию результатов в серии статей в высокорейтинговых международных и российских журналах. Из них – в журналах, индексируемых в Web of Science и Scopus не менее, чем 20; кроме того, в рецензируемых, индексируемых РИНЦ,– не менее 9. 2. Издание монографии Сергеева Я.Д., Квасова Е.Д. в издательстве Springer, New York, 2016 г. с результатами исследований. В настоящее время подписан контракт с издательством Springer, New York на издание монографии в 2016 году: Yaroslav D. Sergeyev, Dmitri E. Kvasov, “Deterministic global optimization based on the Lipschitz condition”. Издание по результатам исследований 2 монографий в 2017 г. в зарубежных издательствах. 3. Участие в научных конференциях и организация в рамках проекта в 2017 г. в Нижнем Новгороде международной конференции "Learning and Intelligent OptimizatioN" (LION)


 

ОТЧЁТНЫЕ МАТЕРИАЛЫ


Аннотация результатов, полученных в 2015 году
В соответствии с заявленным планом на 2015 г. выполнены все запланированные работы и получены следующие научные результаты. 1. Разработан новый алгоритм Липшицевой многомерной глобальной оптимизации с использованием кривых, заполняющих пространство, для редуцирования многомерной задачи к одномерной задаче глобальной оптимизации с Гёльдеровой целевой функцией. Данный алгоритм на каждой итерации применяет новую геометрическую технику, работающую со множеством констант Гёльдера от нуля до бесконечности, распространяя тем самыми идеи известного метода DIRECT на область Гёльдеровой глобальной оптимизации. Были проведены теоретическое обоснование предложенной техники и ее экспериментальная апробация на GKLS- классе 100 многоэкстремальных многомерных функций. Результаты численного сравнения с методом DIRECT и его локально ориентированной версией LBDIRECT подтвердили перспективность предложенного направления для решения сложных многоэкстремальных задач. 2. Проведено численное сравнение многомерного диагонального метода глобальной оптимизации с использованием безызбыточной стратегии разбиения гиперинтервалов и гладкой нижней огибающей, ранее предложенного коллективом авторов, с рядом широко распространенных методов глобальной оптимизации (как, например, методы с множественными оценками константы Липшица DIRECT и LBDIRECT). Результаты сравнения подтвердили эффективность разработанного метода по сравнению с традиционно используемыми подходами к решению многоэкстремальных задач принятия решений. 3. Разработана новая схема многомерной вложенной оптимизации (адаптивная схема), которая обобщает классическую известную схему вложенной оптимизации, в которой одномерные подзадачи решаются независимо друг от друга. Обобщение состоит в одновременном рассмотрении всех одномерных подзадач, что существенно расширяет информационную базу планирования поиска. Разработано детальное алгоритмическое описание адаптивной схемы в общем случае (без детализации алгоритмов решения одномерных подзадач). Рассмотрен конкретный вариант адаптивной схемы, когда в качестве одномерного метода глобальной оптимизации использован информационно-статистический алгоритм глобального поиска Р.Г.Стронгина. Теоретически обоснованы условия сходимости данного варианта адаптивной схемы к глобальному оптимуму многомерной задачи (достаточные условия сходимости). Проведено экспериментальное сравнение новой (адаптивной) схемы с классической схемой вложенной оптимизации, методом редукции размерности на основе кривых Пеано и популярным алгоритмом глобального поиска DIRECT. Сравнение проводилось на широко известных тестовых классах многоэкстремальных функций разной размерности на основе метода операционных характеристик. Результаты экспериментов продемонстрировали существенное превосходство адаптивной схемы над алгоритмами-соперниками. 4. Проведено исследование параллельного алгоритма глобальной оптимизации, разработанного исполнителями проекта. В рамках рассматриваемого подхода решение многомерных задач сводится к решению набора связанных подзадач меньшей размерности. Соответствующая редукция основана на использовании разверток единичного отрезка вещественной оси на гиперкуб; роль таких разверток играют непрерывные однозначные отображения типа кривой Пеано. Способ редукции размерности с использованием разверток комбинируется с многошаговой схемой редукции размерности, что позволяет решать многомерные задачи путем их сведения к параллельному решению информационно-независимых подзадач меньшей размерности. Новым элементом, реализованным в рамках проводимого исследования, является использование нескольких графических ускорителей, задействованных на разных вычислительных узлах кластера. Приводятся результаты решения нескольких серий тестовых задач на суперкомпьютере «Лобачевский» с использованием десятков тысяч вычислительных ядер на графических ускорителях. 5. Предложен новый параллельный алгоритм решения многомерных многоэкстремальных задач оптимизации в с нелинейными ограничениями специального вида, которые могут порождать допустимые области сложной структуры. Алгоритм основан на использовании многошаговой схемы редукции размерности и реализует явный учет ограничений таким образом, что испытания (вычисления значений целевой функции) вне допустимой области не производятся. Учет ограничений не требует подбора каких-либо параметров типа константы штрафа, которые используются в классическом методе штрафных функций. Проведен вычислительный эксперимент на многопроцессорном кластере Нижегородского университета, включая сравнение с методом штрафных функций. Получены экспериментальные оценки ускорения поиска в зависимости от числа используемых в параллели процессоров. Численные эксперименты подтвердили эффективность метода. 6. Выполнено моделирование и решение прикладной задачи численного анализа кавитационных явлений, возникающих при движении поршня в замкнутой трубе, заполненной жидкостью. С использованием алгоритма глобальной оптимизации было выявлено сочетание кинематических параметров вибраций поршня, соответствующее максимальной концентрации кавитационных пузырьков. 7. Рассмотрены геометрический и информационно-статистический подходы к созданию алгоритмов одномерной глобальной оптимизации и предложено несколько новых идей по ускорению поиска с использованием новых техник локальных настроек и локального улучшения. Данные ускоренные методы глобальной оптимизации автоматически исследуют локальное поведение в многообещающих подынтервалах, без необходимости остановки процедуры глобального поиска. Более того, все испытания, выполненные во время локальной фазы, используются в глобальном поиске. Итоговые геометрические и информационно-статистические методы глобальной оптимизации имеют схожую структуру, а различные смеси новых и традиционных вычислительных шагов порождают 22 различных алгоритма глобальной оптимизации. Были исследованы условия сходимости новых алгоритмов и проведен их теоретический анализ. Численное сравнение методов на трех классах тестовых функций убедительно показало преимущество предложенных техник локальной настройки по сравнению с ранее используемыми. 8. Рассмотрена важная практическая задача эффективного сравнения методов глобальной оптимизации разной природы. Проведено представительное численное сравнение ряда наиболее используемых на практике эвристических алгоритмов: алгоритма дифференциальной эволюции, метода роя частиц, метода искусственной пчелиной колонии и алгоритма светлячков, с алгоритмами Липшицевой глобальной оптимизации на основе двух различных подходов к оцениванию константы Липшица: с глобальной априорно данной оценкой и с локальной настройкой. Для сравнения методов использовались два класса одномерных тестовых задач, состоящих из 120 функций. Исследовано поведение эвристических алгоритмов в среднем, стандартное отклонение и число нерешенных задач на всех запусках. Результаты численных экспериментов показали превосходство (на заданном классе тестов) разработанных Липшицевых методов глобальной оптимизации по сравнению с часто используемыми на практике эвристическими методами. 9. Предложен новый тип преобразования целевой функции в задачах оптимизации как инструмент ускорения процесса поиска экстремума и построены обобщения информационно-статистического алгоритма глобального поиска и метода ломаных С.А.Пиявского, использующих данное преобразование. Использование методологии преобразования для ускорения поиска методом ломаных также является новым элементом исследования. Предложенные методы применены к многомерным задачам поиска глобального оптимума липшицевых функций посредством схемы вложенной оптимизации, редуцирующей решение многомерной задачи к решению семейства рекурсивно связанных одномерных подзадач. На широко известном классе тестовых функций GKLS размерности 5 проведено представительное тестирование предложенных методов в сравнении с алгоритмами, не использующими преобразований и алгоритмами, использующими ранее предложенный тип преобразования. Показано, что изменение (за счет преобразования) локального поведения целевой функции в окрестности глобального оптимума существенно ускоряет поиск, а наиболее эффективным является применение информационно-статистического алгоритма глобального поиска с новым типом преобразования. 10. Проведено исследование алгоритмов стохастического локального поиска для обучения нейронных сетей с функциями пороговой активации. Предложен новый метод, названный Бинарным Машинным Обучением (БМО), который действует посредством изменения индивидуальных битов в двоичном представлении каждого веса и отбором улучшающих шагов. Проведено сравнение с альтернативными методами, демонстрирующее эффективность подхода. БМО превосходит современные техники либо по достижению более качественных свойств обобщения, либо по использованию более компактных сетей, пригодных для приложений, в которых первоначально были применены пороговые нейронные сети. 11. Исследована проблема Ганкелевой структурированной низкоранговой аппроксимации, состоящей в нахождении ближайшей (в некоторой предопределенной норме) к заданной Ганкелевой матрице другой матрицы Ганкеля ранга r. Изучена сложность анализа данной проблемы и разработано семейство алгоритмов для ее решения. Предложенные алгоритмы в отличие от многих известных методов обладают свойством гарантированной сходимости. Разработанные методы Ганкелевой аппроксимации применены в рамках методологии сингулярного спектрального анализа для построения прогнозов максимальных температур Земли и установления связи данных температур с размерами Арктических и Антарктических ледовых полей и океанического Nino-индекса. 12. Выполнен анализ методов одновременного конструирования для случая коррелированных наблюдений, в которых аппроксимируются лучшие возможные пары «проектирование плюс оценочная функция» в задаче линейной регрессии. Соответствующая оптимизационная задача является чрезвычайно трудной, т.к. она представляет собой невыпуклую задачу оптимизации в пространстве вероятностных мер. Эта задача исследована в ситуации, когда ошибки измерений образуют процесс авторегрессии. Для ряда случаев получены аналитические формы для асимптотически оптимальных пар «проектирование плюс оценочная функция» и разработаны численные алгоритмы, которые сходятся к асимптотически оптимальным решениям. Полученные результаты применены к задаче оптимальной организации процесса интернет-рекламы в реальном времени на основе сочетания проектирования и адекватных оценочных функций. 13. Подготовлены 13 статей в качестве публикаций, индексируемых в международных базах данных Web of Science и/или Scopus, из числа которых 3 опубликованы и 10 приняты к публикации. 16-20 ноября 2015 г. в Нижегородском госуниверситете проведена молодежная научная школа "Высокопроизводительные вычисления, оптимизация и приложения" с приглашением в качестве лекторов ведущих российских и зарубежных ученых по тематике проекта. В работе школы приняли участие 10 российских и 5 зарубежных ученых, которые прочитали 16 пленарных докладов для 67 молодых слушателей школы (студентов, аспирантов, молодых ученых) из 23 городов и 28 университетов и институтов России. Наряду с пленарными заседаниями проведены практические и лабораторные занятия по 4 направлениям (трекам). Создан сайт школы и издана программа работы школы. Интернет-ресурсы, связанные с проектом. Сайт проекта: http://hpc-education.unn.ru/ru/research/overview/global-optimization Сайт молодежной школы: http://agora.guru.ru/hpc2015

 

Публикации

1. Баркалов К.А., Гергель В.П., Лебедев И.Г. Solving Global Optimization Problems on GPU Cluster AIP Conference Proceedings, Vol. 1738, 400006 (год публикации - 2016).

2. Брунато М., Баттити Р. Stochastic Local Search for Direct Training of Threshold Networks Proc. 2015 International Joint Conference on Neural Networks, IEEE Publisher, Proc. 2015 International Joint Conference on Neural Networks , pp. 1-8 (год публикации - 2015).

3. Гергель В.П., Гришагин В.А., Гергель В.П. Adaptive nested optimization scheme for multidimensional global search Journal of Global Optimization, Vol. 66, No.1, pp. 35-51 (год публикации - 2016).

4. Гиллард Дж., Жиглявский А.А. Global optimization for structured low rank approximation AIP Conference Proceedings, Vol. 1738, 400003 (год публикации - 2016).

5. Гришагин В.А., Исрафилов Р.А. Global Search Acceleration in the Nested Optimization Scheme AIP Conference Proceedings, Vol.1738, 400010 (год публикации - 2016).

6. Гришагин В.А., Исрафилов Р.А. Multidimensional Constrained Global Optimization in Domains with Computable Boundaries CEUR Workshop Proceedings, Vol-1513, pp. 75-84 (год публикации - 2015).

7. Квасов Д.Е., Мухаметжанов М.С. One-Dimensional Global Search: Nature-Inspired vs. Lipschitz Methods AIP Conference Proceedings, Vol.1738, 400012 (год публикации - 2016).

8. Лера Д., Сергеев Я.Д. Space-filling curves and multiple estimates of Hölder constants in derivative-free global optimization AIP Conference Proceedings, Vol. 1738, 400008 (год публикации - 2016).

9. Модорский В.Я., Гайнутдинова Д.Ф., Гергель В.П., Баркалов К.А. Optimization in Design of Scientific Products for Purposes of Cavitation Problems AIP Conference Proceedings, Vol. 1738, 400013 (год публикации - 2016).

10. Пепелышев А., Жиглявский А. SSA analysis and forecasting of records for Earth temperature and ice extents Statistics and Its Interface, Vol. 10, pp. 151–163 (год публикации - 2016).

11. Пепелышев А., Старосельский А., Жиглявский А. Adaptive targeting for online advertisment Lecture Notes in Computer Science, Vol. 9432, pp.240-251 (год публикации - 2016).

12. Сергеев Я.Д., Квасов Д.Е., Мухаметжанов М.С. Comments upon the Usage of Derivatives in Lipschitz Global Optimization AIP Conference Proceedings, Vol. 1738, 400004 (год публикации - 2016).

13. Сергеев Я.Д., Мухаметжанов М.С., Квасов Д.Е., Лера Д. Derivative-Free Local Tuning and Local Improvement Techniques Embedded in the Univariate Global Optimization Journal of Optimization Theory and Applications, Vol. 171, No. 1, pp. 186–208 (год публикации - 2016).


Аннотация результатов, полученных в 2016 году
В соответствии с заявленным планом на 2016 г. выполнены все запланированные работы и получены следующие научные результаты. 1. На основе геометрического и информационного подходов предложены новые методы многоэкстремальной оптимизации с использованием локальной информации о липшицевой целевой функции, обеспечивающие ускорение сходимости к глобальному экстремуму. Проведен теоретический анализ методов и их экспериментальное сравнение по методу операционных характеристик с рядом известных алгоритмов, использующих только глобальную оценку константы Липшица. Результаты обобщены на класс многоэкстремальных функций, удовлетворяющих условию Гельдера. Для гельдеровых задач оптимизации разработаны новые типы локальных настроек, превосходящие локальную балансировку в методе DIRECT, и проведена их экспериментальная верификация. 2. Выполнено обобщение результатов на многомерный случай посредством включения методов с локально уточненными нижними огибающими в многошаговую схему редукции размерности, заменяющую решение многомерной задачи решением вложенных подзадач меньшей размерности. Проведен представительный вычислительный эксперимент, продемонстрировавший существенное повышение эффективности поиска в случае применения предложенных локальных техник учета поисковой информации. 3. Продолжено изучение общей схемы блочной вложенной оптимизации, сочетающей идеи редукции размерности классической многошаговой схемы оптимизации и редукции на основе кривых, заполняющих пространство. Предложены обобщения блочной схемы, связанные с использованием характеристических алгоритмов, включая алгоритмы глобального поиска с локальной настройкой, обеспечивающие более полный учет информации об оптимизируемой функции и за счет этого существенно ускоряющие сходимость. 4. Блочная схема реализована в программной системе глобальной оптимизации ExaMin. Система ExaMin приняла участие в международном конкурсе солверов задач глобальной оптимизации GENeralization-based challenge in global OPTimization (GENOPT) , где заняла 3-е место в общем зачете и 1-е по общему числу решенных задач, что свидетельствует о высокой конкурентоспособности методов глобального поиска и реализующих их программных средств, разработанных в рамках проекта. 5. Для эффективного численного сравнения алгоритмов глобальной оптимизации разной природы (детерминированных, стохастических, в том числе метаэвристических) предложена методология операционных зон, обобщающая известную концепцию операционных характеристик. На основе построения операционных зон проведено сравнение некоторых метаэвристических алгоритмов с рядом традиционных методов и новых алгоритмов, использующих техники локальной настройки. 6. Рассмотрена важная прикладная задача приближения зашумленного сигнала при помощи набора затухающих синусоид. Для определения аппроксимирующих параметров сформулирована по методу наименьших квадратов оптимизационная задача с многоэкстремальной целевой функцией. Для ее решения предложены детерминированные методы Липшицевой глобальной оптимизации, использующие нижние огибающие различных типов: геометрические, информационные, гладкие (с учетом производных) в сочетании с различными типами локальных настроек. Установлено существенное ускорение поиска при использовании методами локальной информации в форме настроек на локальное поведение функции и/или оценок первой производной. Приведены и исследованы результаты численного сравнения предлагаемых методов. 7. Идеи редукции сложности распространены на задачи дискретной оптимизации и применены к исследованию многоиндексной целочисленной транспортной задачи, редуцируемой к задаче поиска потока минимальной стоимости в сети древовидной структуры. Установлены необходимые и достаточные условия редуцирования, построен и обоснован эффективный алгоритм решения многоиндексной целочисленной транспортной задачи и даны оценки его вычислительной сложности. 8. Разработано обобщение адаптивной многошаговой схемы редукции размерности, связанное с использованием характеристических алгоритмов оптимизации. Проведена оценка эффективности трех различных схем редукции размерности, используемых в глобальной оптимизации: классической многошаговой схемы вложенной оптимизации, редукции на основе кривых, заполняющих пространство, и адаптивной схемы вложенной рекурсивной оптимизации, которые применялись в комбинации с несколькими характеристическими алгоритмами. Получены результаты сравнения эффективности по методу операционных характеристик на классическом для тестирования алгоритмов глобального поиска классе функций GKLS, согласно которым адаптивная схема редукции оказалась наиболее эффективной. 9. Предложен новый параллельный алгоритм решения многомерных многоэкстремальных задач, ориентированный на суперкомпьютерные системы с графическими процессорами (GPU). Алгоритм основан на редукции многомерной задачи к эквивалентной одномерной задаче глобального поиска с помощью кривых, заполняющих пространство. Для решения редуцированной задачи применяется параллельный информационно-статистический алгоритм поиска глобального экстремума функций, удовлетворяющих условию Гельдера. Дано теоретическое обоснование эффективности распараллеливания синхронной версии метода через установление условий безызбыточности вычислений. Предложена схема реализации с использованием графических процессоров и разработана программная система, реализующая предложенные алгоритмические решения на суперкомпьютерных архитектурах. На суперкомпьютере "Лобачевский" Нижегородского госуниверситета проведены вычислительные эксперименты по верификации теоретических результатов и сравнению различных реализаций алгоритма. Результаты экспериментов показали существенное ускорение вычислений в случае использования графических процессоров по сравнению с реализацией алгоритма на CPU-архитектурах. 10. Выполнено обобщение на параллельный случай блочной схемы вложенной оптимизации, реализующей редукцию размерности исходной многоэкстремальной задачи к системе параллельных подзадач меньших размерностей, решаемых через использование кривых Пеано-Гильберта. Предложена модификация блочной схемы , в которой для решения внутренних подзадач используется параллельный алгоритм глобального поиска с локальной настройкой. Разработана структура организации параллельных вычислений на основе блочной схемы и реализована программная система решения задач поиска глобального оптимума многомерных функций на суперкомпьютерных вычислительных установках. Проведены вычислительные эксперименты на суперкомпьютере Нижегородского госуниверситета "Лобачевский", которые продемонстрировали эффективность использования параллельной блочной схемой гетерогенных (CPU, GPU) ресурсов современных суперкомпьютерных систем, обеспечив значительное ускорение вычислительного процесса. 11. Для суперкомпьютерных вычислений, реализуемых на компьютере нового типа – компьютере бесконечности, который может выполнять операции с бесконечно малыми и бесконечно большими величинами, разработаны принципиально новые численные методы решения задач вычислительной математики в области многокритериальной оптимизации, обыкновенных дифференциальных уравнений и фрактальной геометрии. В области многокритериальной оптимизации предложен подход, который в случае лексикографического упорядочивания критериев позволяет заменить традиционный способ решения семейства однокритериальных подзадач решением одной скалярной задачи без введения дополнительных параметров. Для численного решения обыкновенных дифференциальных уравнений предложены новые методы, обеспечивающие существенно более высокую точность решения по сравнению с традиционными методами за счет сочетания в структуре методов конечных и бесконечно малых величин шага интегрирования. Проведено сравнение с известными методами численного решения задачи Коши, подтвердившее перспективность предложенного подхода. В области фрактальной геометрии изучено динамическое поведение в бесконечности фрактала, называемого снежинкой Коха. Было показано, что после бесконечного числа шагов его конструирования, на каждой стадии изменения аналитически точно могут быть вычислены его характеристики в терминах исчисления бесконечно малых и бесконечно больших величин. 12. Разработан новый алгоритм обучения нейронных сетей (бинарной обучающей машины), основанный на многомасштабном стохастическом локальном поиске с двоичным представлением. Изучено влияние стратегий оценивания окрестностей, влияние числа битов на вес и числа максимального ранга весов, используемых для отображения битовых строк в вещественные числа. На основе данных результатов построена "телескопическая" многомасштабная версия локального поиска, где количество битов увеличивается адаптивно, приводя к более быстрому (реактивному) поиску. Рассмотрено применение обучающей машины к прикладным задачам и сетям с обратной связью. 13. В рамках спектрально-сингулярного анализа временных рядов выполнено теоретическое исследование методов аппроксимации, порождающих оптимизационные задачи на основе построения траекторных матриц с возможно более низким рангом (задачи низкоранговой аппроксимации). Для решения задач данного класса при использовании аппроксимирующих матриц Ганкеля построены методы глобального поиска с гарантированными оценками, изучено их поведение и проведено сравнение с другими оптимизационными алгоритмами. 14. 7-11 ноября 2016 г. в Нижегородском госуниверситете проведена молодежная научная школа "Высокопроизводительные вычисления, оптимизация и приложения" с приглашением в качестве лекторов ведущих российских и зарубежных ученых по тематике проекта. В работе школы приняли участие 10 российских и 6 зарубежных ученых, которые прочитали 16 лекций для 71 молодого слушателя школы (студентов, аспирантов, молодых ученых) из 21 города и 28 университетов и научных организаций России. Наряду с лекциями проведены практические и лабораторные занятия по 3 направлениям (трекам). Создан сайт школы и издана программа работы школы. 15. По итогам исследований проекта в 2016 году опубликовано 19 работ в международных научных журналах и материалах международных конференций (еще одна статья принята к публикации). Из числа опубликованных в 2016 г. работ 6 публикаций проиндексированы в Web of Science, 16 работ проиндексированы в базе данных Scopus. Подготовлена монография, представленная для публикации в международном издательстве Springer. По итогам исследований 2016 года на международных конференциях сделано 3 пленарных доклада, проведено 2 тьюториала и представлено 13 секционных докладов. 16. Для организации работ по проведению в рамках проекта 19-21 июня 2017 года в Нижнем Новгороде международной конференции Learning and Intelligent OptimizatioN Conference - LION 11 издан приказ ректора Нижегородского госуниверситета о проведении конференции, сформированы Организационный и Программный комитеты, определены секции и создан веб-сайт, содержащий необходимую информацию для участников. 17. Интернет-ресурсы, связанные с проектом. Сайт проекта: http://hpc-education.unn.ru/ru/research/overview/global-optimization Сайт молодежной школы: http://agora.guru.ru/hpc2015 Сайт конференции LION: http://intelligent-optimization.org/lion11/

 

Публикации

1. Афраймович Л.Г., Катеров А.С., Прилуцкий М.Х. Multi-Index Traffic Problems with 1-Nested Structure Automation and Remote Control, Vol. 77, No. 11, pp. 1894–1913 (год публикации - 2016).

2. Баркалов К.А., Гергель В.П. Parallel global optimization on GPU Journal of Global Optimization, Vol. 66, No. 1, pp. 3–20 (год публикации - 2016).

3. Баркалов К.А., Лебедев И.Г. Local tuning in multilevel scheme of parallel global optimization AIP Conference Proceedings, Vol. 1776, pp. 060006-1 - 060006-4 (год публикации - 2016).

4. Баркалов К.А., Лебедев И.Г. Решение задач глобальной оптимизации на графических ускорителях Суперкомпьютерные дни в России: Труды международной конференции (26-27 сентября 2016 г., г. Москва), с. 640-650 (год публикации - 2016).

5. Баркалов К.А., Лебедев И.Г. Solving Multidimensional Global Optimization Problems Using Graphics Accelerators Communications in Computer and Information Science, - (год публикации - 2017).

6. Баркалов К.А., Сысоев А.В., Лебедев И.Г., Соврасов В.В. Solving GENOPT Problems with the Use of ExaMin Solver Lecture Notes in Computer Science, Vol. 10079, pp. 1-13 (год публикации - 2016).

7. Баттити Р., Сергеев Я.Д., Брунато М., Квасов Д.Е. GENOPT 2016: Design of a generalization-based challenge in global optimization AIP Conference Proceedings, Vol. 1776, pp. 060005-1 - 060005-4 (год публикации - 2016).

8. Брунато М., Баттити Р. A Telescopic Binary Learning Machine for Training Neural Networks IEEE Transactions on Neural Networks and Learning Systems, Vol. PP, No.99, pp. 1-13 (год публикации - 2016).

9. Гиллард Дж., Квасов Д.Е., Жиглявский А.А. Optimization Problems in Structured Low Rank Approximation AIP Conference Proceedings, Vol. 1776, pp. 060004-1 - 060004-4 (год публикации - 2016).

10. Гиллард Дж.У., Квасов Д.Е. Lipschitz optimization methods for fitting a sum of damped sinusoids to a series of observations Statistics and Its Interface, Volume 10, No. 1, pp. 59–70 (год публикации - 2017).

11. Гришагин В.А., Исрафилов Р.А., Сергеев Я.Д. Comparative Efficiency of Dimensionality Reduction Schemes in Global Optimization AIP Conference Proceedings, Vol. 1776, pp. 060011-1 - 060011 -4 (год публикации - 2016).

12. Жиглявский А., Голяндина Н., Грязнов С. Deconvolution of a discrete uniform distribution Statistics and Probability Letters, Vol. 118, pp. 37-44 (год публикации - 2016).

13. Жилинскас А., Жиглявский А.А. Stochastic Global Optimization: A Review on the Occasion of 25 Years of Informatica Informatica, Vol. 27, No. 2, pp. 229–256 (год публикации - 2016).

14. Кокоччони М., Паппалардо М., Сергеев Я.Д. Towards lexicographic multi-objective linear programming using grossone methodology AIP Conference Proceedings, Vol. 1776, pp. 090040-1 - 090040-5 (год публикации - 2016).

15. Лера Д., Сергеев Я.Д. Remarks on Global Optimization Using Space-Filling Curves AIP Conference Proceedings, Vol. 1776, pp. 060010-1 - 060010-4 (год публикации - 2016).

16. Мацциа Ф., Сергеев Я.Д., Иавернаро Ф., Амодио П., Мухаметжанов М.С. Numerical methods for solving ODEs on the infinity computer AIP Conference Proceedings, Vol. 1776, pp. 090033-1 - 090033-4 (год публикации - 2016).

17. Сергеев Я.Д. The exact (up to infinitesimals) infinite perimeter of the Koch snowflake and its finite area Communications in Nonlinear Science and Numerical Simulation, Vol. 31, pp. 21-29 (год публикации - 2016).

18. Сергеев Я.Д., Квасов Д.Е. Deterministic Global Optimization: Diagonal Approach Briefly Springer Science+Business Media LLC, New York, USA, - (год публикации - 2017).

19. Сергеев Я.Д., Квасов Д.Е., Мухаметжанов М.С. On the Least-Squares Fitting of Data by Sinusoids Advances in Stochastic and Deterministic Global Optimization, Series Springer Optimization and Its Applications, Springer International Publishing, Vol.107, pp. 209-226 (год публикации - 2016).

20. Сергеев Я.Д., Квасов Д.Е., Мухаметжанов М.С., Де Франко А. Acceleration Techniques in the Univariate Lipschitz Global Optimization AIP Conference Proceedings, Vol.1776, pp. 090051-1 - 090051-4 (год публикации - 2016).

21. Сергеев Я.Д., Мухаметжанов М.С., Мацциа Ф., Иавернаро Ф., Амодио П. Numerical Methods for Solving Initial Value Problems on the Infinity Computer International Journal of Unconventional Computing, Vol. 12, No. 1, pp. 3–23 (год публикации - 2016).


Аннотация результатов, полученных в 2017 году
В соответствии с заявленным планом на 2017 г. выполнены все запланированные работы и получены следующие научные результаты. 1. Разработан новый метод глобальной оптимизации, основанный на редукции с помощью кривой Пеано многомерной задачи с липшицевой целевой функцией к решению одномерной задачи оптимизации с функцией, удовлетворяющей условию Гёльдера. Алгоритм вместо единой константы Гёльдера использует семейство оценок константы (множественные константы), что позволяет более точно оценивать поведение целевой функции. Разработана модификация метода, автоматически сочетающая в себе глобальную фазу поиска новых перспективных решений с локальной фазой уточнения текущего лучшего решения, которая также производится на кривой, что ускоряет поиск глобального решения. Дано теоретическое обоснование сходимости метода. Приведены результаты численных экспериментов по сравнению предложенного метода с рядом известных методов глобального поиска на тестовых функциях GKLS-генератора многомерных многоэкстремальных задач оптимизации. 2. Предложена новая методология сравнения детерминированных и стохастических глобальных алгоритмов оптимизации, получившая название «метод операционных зон». Данная техника является обобщением метода операционных характеристик, широко используемого для сравнения детерминированных методов глобальной оптимизации, но неприменимого для алгоритмов стохастической оптимизации. Дано теоретическое описание метода операционных зон и приведены примеры его использования для сравнения детерминированных алгоритмов Липшицевой глобальной оптимизации с эвристическими популяционными методами поиска глобального минимума. 3. Проведено масштабное численное сравнение одномерных детерминированных липшицевых и стохастических популяционных методов глобальной оптимизации. Системное сравнение методов данных классов является новым элементом, поскольку ранее такого сравнения между ними не проводилось, методы сравнивались только внутри своих классов. 4. Предложены новые планарные методы, предотвращающие вырождение метода сопряженных градиентов за счет использования вычислений с бесконечно малыми величинами. 5. Для решения задач лексикографического многокритериального линейного программирования (LMOLP) предложен подход, который вместо решения семейства линейных задач или скаляризации критериев, требующей трудоемкого подбора весов свертки, конструирует однокритериальную задачу, решение которой позволяет получить решение задачи LMOLP. Теоретически доказано эквивалентность исходной многокритериальной и конструируемой однокритериальной задачи. Предложен численный алгоритм для построения оптимальной свертки, описана его реализация и приведены результаты численных экспериментов. 6. Установлено свойство строгой однородности нескольких одномерных алгоритмов глобальной оптимизации, предотвращающих плохую обусловленность масштабированной задачи при очень малых или очень больших константах масштабирования. 7. Разработан алгоритм негладкой безусловной оптимизации на основе метода переменной метрики D-Bundle, в котором в отличие от метода-прототипа матрица, определяющая метрику, всегда является хорошо обусловленной. Получены результаты численных экспериментов, иллюстрирующие преимущества предложенного подхода. 8. Предложен новый тестовый класс многомерных условных оптимизационных задач с непрерывно-дифференцируемыми многоэкстремальными целевыми функциями и нелинейными ограничениями для экспериментального анализа алгоритмов глобального поиска. Реализована программная система, обеспечивающая построение задач данного класса. 9. Построен параллельный алгоритм многомерной глобальной безусловной оптимизации на основе адаптивной многошаговой схемы редукции размерности. Разработана программная реализация параллельной адаптивной схемы, ориентированная на суперкомпьютерные вычислительные системы, в том числе системы, использующие вычислительные ускорители (типа графических процессоров общего назначения). Получены результаты экспериментального тестирования, продемонстрировавшие значительное ускорение вычислений адаптивной параллельной схемы по сравнению с ее чисто последовательной версией. 10. Предложен новый многомерный алгоритм условной оптимизации, комбинирующий адаптивную многошаговую схему с индексным методом учета ограничений. Алгоритм ориентирован на решение задач с липшицевой целевой функцией и липшицевыми ограничениями, которые могут быть нелинейными и невыпуклыми и порождать области сложной конфигурации, в том числе неодносвязные. Разработана программная система, реализующая вычислительную схему алгоритма. Получены результаты эксперимента, свидетельствующие о существенном превосходстве предложенного алгоритма по сравнению с использованием традиционного способа учета ограничений – метода штрафных функций. 11. Получены результаты сравнительной оценки эффективности методов, основанных на разных подходах к редукции размерности: классической многошаговой схемы, адаптивной схемы и редукции размерности на основе кривых Пеано. В рамках исследования предложен новый метод, сочетающий многошаговую схему редукции с известным методом ломаных, и теоретически обоснована его сходимость к глобальному минимуму многомерной задачи. По результатам эксперимента построены операционные характеристики сравниваемых методов, продемонстрировавшие эффективность методов на основе адаптивной схемы редукции. 12. Предложен новый подход рекуррентного многоуровневого разбиения графов, ориентированный на применение в сложных сетевых структурах, включая нейронные, и основанный на идеях табу-поиска. Новизна подхода состоит во включении в табу-поиск метапараметров, обеспечивающих гибкую самонастройку как элемент машинного обучения алгоритма в зависимости от индивидуальных характеристик решаемой задачи, в сочетании с рекуррентной многоуровневой процедурой разбиения графа (многоуровневый реактивно-рандомизированный табу-поиск). Получены результаты вычислительного эксперимента по решению задач из классического бенчмарк-репозитория, подтвердившие эффективность предложенного подхода. 13. Обобщены свойства задач низкоранговой аппроксимации в оптимизационной постановке, проведено качественное сравнение подходов к исследованию моделей низкоранговой аппроксимации как оптимизационных задач. 14. Для широкого класса алгоритмов глобального случайного поиска (ГСП) получены общие условия сходимости к глобальному оптимуму и установлена их выполнимость для различных подклассов методов ГСП. Получены оценки скорости сходимости для алгоритмов ГСП с независимыми испытаниями (вычислениями целевой функции) и вероятностным распределением проведения испытаний, одинаковом на каждом шаге поиска, а также оценки скорости сходимости для общего случая. 15. Для методов глобального случайного поиска определена точность статистических оценок глобального минимума в случае больших размерностей. Установлены асимптотические свойства оптимальных статистических оценок в алгоритмах глобального случайного поиска, когда размер допустимой области стремится к бесконечности. Проведен численный эксперимент, результаты которого подтвердили асимптотическое поведение, установленное аналитически. 16. 19-21 июня 2017 г. в Нижегородском государственном университете им. Н.И.Лобачевского проведена международная конференция "Learning and Intelligence OptimizatioN" - LION 11 с участием 36 российских ученых (из них 16 молодых ученых) и 35 зарубежных ученых. В издательстве Springer издан сборник трудов конференции. 17. С 7 по 10 сентября 2017 г. в Нижегородском государственном университете им. Н.И.Лобачевского проведена школа молодых ученых "Высокопроизводительные вычисления, оптимизация и приложения" с приглашением в качестве лекторов ведущих российских и зарубежных ученых по тематике проекта. В пленарной программе школы сделано 6 докладов известными зарубежными учеными и 10 докладов российскими учеными. Наряду с лекциями проведены практические и лабораторные занятия по 3 направлениям (трекам). 18. В международном издательстве Springer опубликовано две монографии и одна монография в том же издательстве принята к опубликованию. 19. Подготовлены к изданию 17 статей, из них 16 опубликованы и 1 принята к опубликованию. 14 статей опубликованы в международных журналах, индексируемых в Web Of Science и/или Scopus. Из числа опубликованных работ 7 публикаций проиндексированы в Web of Science, 12 работ проиндексированы в базе данных Scopus. На международных конференциях было сделано 4 пленарных и 8 секционных докладов, проведен один тьюториал. На молодежной научной школе, проведенной в соответствии с планом работ 2017 года, участниками проекта прочитано 3 лекции для молодых ученых, аспирантов и студентов. 20. Интернет-ресурсы, связанные с проектом. Сайт конференции LION: http://intelligent-optimization.org/lion11/ Сайт проекта: http://hpc-education.unn.ru/ru/research/overview/global-optimization Сайт молодежной школы: http://agora.guru.ru/hpc2017

 

Публикации

1. - Российский ученый удостоен престижной премии "Аль-Хорезми" в Иране (интервью) Россия 24, Вести 13.02.2017 16.17 (год публикации - ).

2. - Российские ученые создали уникальный метод сверхбыстрых расчетов МИА "Россия сегодня", РИА Новости-РИА Наука, 24.10.2017 (год публикации - ).

3. - Российские математики обобщили знания о глобальной оптимизации ГАЗЕТА.ru, gazeta.ru/science/news/2017/10/13/ (год публикации - ).

4. - Российский ученый удостоен престижной премии "Аль-Хорезми" в Иране Информационное агентство России «ТАСС», ТАСС Наука, 11.02.2017 (год публикации - ).

5. - Diagonal methods for expensive global optimization developed by Russian scientists EurekAlert! Science News by the American Association for the Advancement of Science, Public Release: 10-Nov-2017 (год публикации - ).

6. Афраймович Л.Г. Нижняя оценка для трехиндексной аксиальной задачи о назначениях с 1,2-декомпозиционной матрицей стоимостей Вестник Волжской государственной академии водного транспорта, Выпуск 49, с. 25-29 (год публикации - 2016).

7. Афраймович Л.Г., Ильин С.Ю. Многоиндексная задача построения расписания семинара Управление большими системами, Вып. 73, с.55-66 (год публикации - 2018).

8. Баркалов К.А., Гетманская А.А., Исрафилов Р.А. Применение адаптивной схемы редукции размерности для задач многоэкстремальной оптимизации с нелинейными ограничениями Вестник ВГАВТ, - (год публикации - 2018).

9. Баттити Р., Квасов Д.Е., Сергеев Я.Д. (ред.) Learning and Intelligent Optimization. 11th International Conference, LION 11, Nizhny Novgorod, Russia, June 19-21, 2017, Revised Selected Papers. Lecture Notes in Computer Science. Springer, Cham, Vol. 10556. 403 pp. (год публикации - 2017).

10. Гаудиозо М., Джалломбардо Дж., Мухаметжанов М. Numerical infinitesimals in a variable metric method for convex nonsmooth optimization Applied Mathematics and Computation, Vol. 318, pp. 312-320 (год публикации - 2017).

11. Гиллард Дж., Жиглявский А. Global Optimization Challenges in Structured Low Rank Approximation In: Battiti R., Kvasov D., Sergeyev Y. (eds) Learning and Intelligent Optimization. LION 2017. Lecture Notes in Computer Science, vol 10556, pp. 326–330 (год публикации - 2017).

12. Гиллард Дж., Жиглявский А.А. Optimal estimation of direction in regression models with large number of parameters Applied Mathematics and Computation, Vol. 318, pp. 281–289 (год публикации - 2017).

13. Голяндина Н., Коробейников А., Жиглявский А. Singular Spectrum Analysis with R Springer, Heidelberg, - (год публикации - 2018).

14. Гришагин В.А., Исрафилов Р.А. Параллельная реализация адаптивной многошаговой схемы редукции размерности для задач глобальной оптимизации Суперкомпьютерные дни в России: Труды международной конференции (25-26 сентября 2017 г., г. Москва)., с. 671-682 (год публикации - 2017).

15. Гришагин В.А., Исрафилов Р.А., Сергеев Я.Д. Convergence conditions and numerical comparison of global optimization methods based on dimensionality reduction schemes Applied Mathematics and Computation, Vol. 318, pp. 270-280 (год публикации - 2017).

16. Де Леоне Р., Фазано Дж., Сергеев Я.Д. Planar methods and grossone for the Conjugate Gradient breakdown in nonlinear programming Computational Optimization and Applications, pp. 1-21 (год публикации - 2017).

17. Калайчи Т.Е., Баттити Р. A reactive self-tuning scheme for multilevel graph partitioning Applied Mathematics and Computation, vol. 318, pp. 227-244 (год публикации - 2017).

18. Квасов Д.Е., Мухаметжанов М.С. Metaheuristic vs. deterministic global optimization algorithms: The univariate case. Applied Mathematics and Computation, Vol. 318, pp. 245–259 (год публикации - 2017).

19. Кокоччони М., Паппалардо М., Сергеев Я.Д. Lexicographic multi-objective linear programming using grossone methodology: Theory and algorithm Applied Mathematics and Computation, Vol.318, pp. 298–311 (год публикации - 2017).

20. Лера Д., Сергеев Я.Д. GOSH: derivative-free global optimization using multi-dimensional space-filling curves Journal of Global Optimization, - (год публикации - 2017).

21. Пепелышев А., Жиглявский А., Жилинскас А. Performance of global random search algorithms for large dimensions Journal of Global Optimization, pp.1-15 (год публикации - 2017).

22. Пепелышев А., Корников В., Жиглявский А. Statistical Estimation in Global Random Search Algorithms in Case of Large Dimensions In: Battiti R., Kvasov D., Sergeyev Y. (eds) Learning and Intelligent Optimization. LION 2017. Lecture Notes in Computer Science., Vol. 10556, pp. 364–369 (год публикации - 2017).

23. Сергеев Я.Д., Квасов Д.Е., Мухаметжанов М.С. Operational zones for comparing metaheuristic and deterministic one-dimensional global optimization algorithms Mathematics and Computers in Simulation, Vol. 141, pp. 96–109 (год публикации - 2017).

24. Сергеев Я.Д., Квасов Д.Е., Мухаметжанов М.С. On the efficiency of nature-inspired metaheuristics in expensive global optimization with limited budget Scientific Reports, Vol.8, No. 453, pp. 1-9 (год публикации - 2018).

25. Сергеев Я.Д., Квасов Д.Е., Мухаметжанов М.С. On strong homogeneity of a class of global optimization algorithms working with infinite and infinitesimal scales Communications in Nonlinear Science and Numerical Simulation, Vol. 59, pp. 319-330 (год публикации - 2017).

26. Сергеев Я.Д., Квасов Д.Е., Мухаметжанов М.С. Emmental-Type GKLS-Based Multiextremal Smooth Test Problems with Non-linear Constraints In: Battiti R., Kvasov D., Sergeyev Y. (eds) Learning and Intelligent Optimization. LION 2017. Lecture Notes in Computer Science., Vol. 10556, pp. 383–388 (год публикации - 2017).