Федеративное обучение - Federated learning

Федеративное обучение (также известный как совместное обучение) это машинное обучение метод, который обучает алгоритм на нескольких децентрализованных периферийных устройствах или серверы проведение местных образцы данных, не меняя их. Этот подход отличается от традиционных централизованных методов машинного обучения, когда все локальные наборы данных загружаются в один сервер, а также к более классическим децентрализованным подходам, которые часто предполагают, что локальные выборки данных одинаково распределены.

Федеративное обучение позволяет нескольким субъектам создавать общую надежную модель машинного обучения без совместного использования данных, что позволяет решать такие важные проблемы, как конфиденциальность данных, безопасность данных, права доступа к данным и доступ к разнородным данным. Его приложения распространены в ряде отраслей, включая оборону, телекоммуникации, Интернет вещей, и фармацевтика.

Определение

Федеративное обучение направлено на обучение алгоритму машинного обучения, например, глубокому нейронные сети для нескольких локальных наборов данных, содержащихся в локальных узлах, без явного обмена выборками данных. Общий принцип состоит в обучении локальных моделей на выборках локальных данных и обмене параметры (например, веса и смещения глубокой нейронной сети) между этими локальными узлами с некоторой частотой для создания глобальной модели, разделяемой всеми узлами.

Основное различие между федеративным обучением и распределенным обучением заключается в предположениях, сделанных в отношении свойств локальных наборов данных,[1] в качестве распределенное обучение изначально нацелен на распараллеливание вычислительной мощности где федеративное обучение изначально направлено на обучение разнородные наборы данных. Хотя распределенное обучение также направлено на обучение одной модели на нескольких серверах, общее базовое предположение состоит в том, что локальные наборы данных одинаково распределены (i.i.d.) и имеют примерно одинаковый размер. Ни одна из этих гипотез не относится к федеративному обучению; вместо этого наборы данных обычно неоднородны, и их размеры могут охватывать несколько порядков. Более того, клиенты, участвующие в федеративном обучении, могут быть ненадежными, поскольку они подвержены большему количеству неудач или выбывают из школы, поскольку они обычно полагаются на менее мощные средства коммуникации (т.е. Вай фай ) и систем с батарейным питанием (т.е. смартфоны и устройства IoT) по сравнению с распределенным обучением, где узлы обычно центры обработки данных которые обладают мощными вычислительными возможностями и связаны друг с другом быстрыми сетями.[2]

Централизованное федеративное обучение

В настройке централизованного федеративного обучения центральный сервер используется для организации различных этапов алгоритмов и координации всех участвующих узлов в процессе обучения. Сервер отвечает за выбор узлов в начале процесса обучения и за агрегирование полученных обновлений модели. Поскольку все выбранные узлы должны отправлять обновления одному объекту, сервер может стать узким местом системы.[2]

Децентрализованное федеративное обучение

В условиях децентрализованного федеративного обучения узлы могут координировать свои действия для получения глобальной модели. Эта настройка предотвращает одноточечные сбои, поскольку обновления модели обмениваются только между взаимосвязанными узлами без оркестровки центрального сервера. Тем не менее конкретная топология сети может повлиять на производительность учебного процесса.[2] См. Федеративное обучение на основе блокчейна[3] и ссылки в нем.

Общий процесс федеративного обучения в настройке центрального оркестратора
Общий процесс федеративного обучения в настройке центрального оркестратора

Основные особенности

Итеративное обучение

Чтобы обеспечить хорошее выполнение задач окончательной центральной модели машинного обучения, федеративное обучение основывается на итеративном процессе, разбитом на атомарный набор взаимодействий клиент-сервер, известный как цикл федеративного обучения. Каждый раунд этого процесса состоит в передаче текущего состояния глобальной модели участвующим узлам, обучении локальных моделей на этих локальных узлах для создания набора потенциальных обновлений модели на каждом узле, а затем объединении и обработке этих локальных обновлений в одно глобальное обновление и применяя его к глобальной модели.[2]

В методике ниже центральный сервер используется для агрегирования, а локальные узлы выполняют локальное обучение в зависимости от заказов центрального сервера. Однако другие стратегии приводят к тем же результатам без центральных серверов, в пиринговый подход, используя сплетни[4] или же консенсус методологии.[5]

Предполагая, что федеративный раунд состоит из одной итерации процесса обучения, процедуру обучения можно резюмировать следующим образом:[6]

  1. Инициализация: согласно входным данным сервера модель машинного обучения (например, линейная регрессия, нейронная сеть, повышение ) выбирается для обучения на локальных узлах и инициализации. Затем узлы активируются и ждут, пока центральный сервер выдаст расчетные задачи.
  2. Выбор клиента: выбирается часть локальных узлов для начала обучения на локальных данных. Выбранные узлы получают текущую статистическую модель, в то время как другие ждут следующего раунда объединения.
  3. Конфигурация: центральный сервер приказывает выбранным узлам пройти обучение модели на их локальных данных заранее заданным способом (например, для некоторых мини-пакетных обновлений градиентный спуск ).
  4. Составление отчетов: каждый выбранный узел отправляет свою локальную модель на сервер для агрегирования. Центральный сервер агрегирует полученные модели и отправляет обновления моделей на узлы. Он также обрабатывает сбои для отключенных узлов или потерянные обновления модели. Следующий раунд федерации начинается с возврата к фазе выбора клиентов.
  5. Прекращение: как только предопределенный критерий завершения выполняется (например, достигается максимальное количество итераций или точность модели превышает пороговое значение), центральный сервер объединяет обновления и завершает глобальную модель.

Рассмотренная ранее процедура предполагает синхронизированные обновления модели. Недавние разработки в области федеративного обучения представили новые методы решения проблемы асинхронности во время тренировочного процесса. По сравнению с синхронными подходами, при которых обмен локальными моделями происходит после того, как вычисления были выполнены для всех уровней нейронной сети, асинхронные используют свойства нейронных сетей для обмена обновлениями моделей, как только становятся доступны вычисления определенного уровня. Эти методы также часто называют раздельным обучением.[7][8] и они могут применяться как во время обучения, так и во время вывода независимо от централизованных или децентрализованных настроек федеративного обучения.[2]

Данные без идентификатора

В большинстве случаев предположение о независимых и идентично распределенных выборках на локальных узлах не выполняется для установок федеративного обучения. При этой настройке характеристики процесса обучения могут значительно различаться в зависимости от несбалансированности локальных выборок данных, а также от конкретного распределения вероятностей обучающих примеров (т. Е. Особенности и этикетки ) хранятся на локальных узлах. Для дальнейшего изучения влияния данных, отличных от iid, в следующем описании рассматриваются основные категории, представленные в документе Peter Kiarouz и др. в 2019 году.[2]

Описание данных без идентификаторов ID основывается на анализе совместная вероятность между функциями и метками для каждого узла. Это позволяет разделить каждый вклад в соответствии с конкретным распределением, доступным на локальных узлах. Основные категории для данных без идентификаторов можно резюмировать следующим образом:[2]

  • Ковариальный сдвиг: локальные узлы могут хранить примеры, которые имеют другое статистическое распределение по сравнению с другими узлами. Пример встречается в обработка естественного языка наборы данных, в которых люди обычно пишут одни и те же цифры / буквы с разной шириной штриха или наклоном.[2]
  • Априорный сдвиг вероятности: локальные узлы могут хранить метки, статистические распределения которых отличаются от других узлов. Это может произойти, если наборы данных разделены по регионам и / или демографически. Например, наборы данных, содержащие изображения животных, значительно различаются от страны к стране.[2]
  • Смена концепции (та же этикетка, разные функции): локальные узлы могут иметь одинаковые метки, но некоторые из них соответствуют разным функциям на разных локальных узлах. Например, изображения, на которых изображен конкретный объект, могут различаться в зависимости от погодных условий, в которых они были сняты.[2]
  • Смена концепции (одинаковые функции, разные надписи): локальные узлы могут иметь одни и те же функции, но некоторые из них соответствуют разным меткам на разных локальных узлах. Например, при обработке естественного языка анализ тональности может давать разные настроения, даже если просматривается один и тот же текст.[2]
  • Несбалансированность: данные, доступные на локальных узлах, могут значительно различаться по размеру.[2]

Другие дескрипторы данных, отличные от iid, учитывают динамическое изменение топологии сети,[9] из-за сбоев или недопустимости локальных узлов во время объединенного процесса обучения или сдвигов набора данных, когда узлы, участвующие в фазе обучения для изучения глобальной модели, могут не иметь права во время вывода из-за недостаточных вычислительных возможностей. Это приводит к различию между статистикой обучающих и тестовых выборок данных.[2]

Алгоритмические гиперпараметры

Топология сети

Способ объединения статистических локальных выходных данных и способ взаимодействия узлов друг с другом могут отличаться от централизованной модели, описанной в предыдущем разделе. Это приводит к множеству подходов к федеративному обучению: например, отсутствие центрального сервера оркестровки или стохастическая связь.[10]

В частности, одним из важных вариантов являются распределенные сети без оркестратора. В этом случае нет центрального сервера, отправляющего запросы локальным узлам и агрегирования локальных моделей. Каждый локальный узел отправляет свои выходные данные нескольким случайно выбранным другим узлам, которые собирают свои результаты локально. Это ограничивает количество транзакций, тем самым иногда сокращая время обучения и затраты на вычисления.[11]

Параметры федеративного обучения

После выбора топологии сети узлов можно управлять различными параметрами процесса объединенного обучения (в отличие от собственных гиперпараметров модели машинного обучения) для оптимизации обучения:

  • Количество раундов федеративного обучения:
  • Общее количество узлов, используемых в процессе:
  • Доля узлов, используемых на каждой итерации для каждого узла:
  • Местный размер партии используется на каждой итерации обучения:

Также можно изменить другие параметры, зависящие от модели, например:

  • Количество итераций для локального обучения перед объединением:
  • Скорость обучения на местном уровне:

Эти параметры должны быть оптимизированы в зависимости от ограничений приложения машинного обучения (например, доступная вычислительная мощность, доступная память, пропускная способность ). Например, стохастический выбор ограниченной доли узлов для каждой итерации снижает стоимость вычислений и может предотвратить переоснащение, точно так же, как стохастический градиентный спуск может уменьшить переобучение.

Варианты федеративного обучения

В этом разделе изложение статьи, опубликованной Х. Бренданом МакМаханом и др. в 2017 году следует.[12]

Для описания федеративных стратегий введем некоторые обозначения:

  • : общее количество клиентов;
  • : индекс клиентов;
  • : количество выборок данных, доступных во время обучения для клиента ;
  • : вектор веса модели на клиенте , на федеральном раунде ;
  • : функция потерь для весов и партия ;
  • : количество местных эпох;

Федеративный стохастический градиентный спуск (FedSGD)

Глубокое обучение обучение в основном опирается на варианты стохастический градиентный спуск, где градиенты вычисляются на случайном подмножестве общего набора данных, а затем используются для выполнения одного шага градиентного спуска.

Федеративный стохастический градиентный спуск[13] является прямым переносом этого алгоритма в федеративную установку, но с использованием случайной дроби узлов и используя все данные на этом узле. Градиенты усредняются сервером пропорционально количеству обучающих выборок на каждом узле и используются для выполнения шага градиентного спуска.

Федеративное усреднение

Федеративное усреднение (FedAvg) - это обобщение FedSGD, которое позволяет локальным узлам выполнять более одного пакетного обновления локальных данных и обмениваться обновленными весами, а не градиентами. Обоснование этого обобщения заключается в том, что в FedSGD, если все локальные узлы начинают с одной и той же инициализации, усреднение градиентов строго эквивалентно усреднению самих весов. Кроме того, усреднение настроенных весов, полученных в результате одной и той же инициализации, не обязательно ухудшает производительность итоговой усредненной модели.[12]

Технические ограничения

Федеративное обучение требует частого обмена данными между узлами в процессе обучения. Таким образом, требуется не только достаточная локальная вычислительная мощность и память, но и соединения с высокой пропускной способностью, чтобы иметь возможность обмениваться параметрами модели машинного обучения. Однако эта технология также позволяет избежать передачи данных, что может потребовать значительных ресурсов перед запуском централизованного машинного обучения. Тем не менее, устройства, обычно используемые в федеративном обучении, имеют ограничения связи, например, устройства IoT или смартфоны обычно подключаются к сетям Wi-Fi, таким образом, даже если модели обычно дешевле для передачи по сравнению с необработанными данными, механизмы федеративного обучения могут не подходить в общем виде.[2]

Федеративное обучение ставит несколько статистических задач:

  • Неоднородность между различными локальными наборами данных: каждый узел может иметь некоторую погрешность по отношению к генеральной совокупности, а размер наборов данных может значительно различаться;
  • Временная неоднородность: распределение каждого локального набора данных может меняться со временем;
  • Совместимость из набора данных каждого узла является предпосылкой;
  • Набор данных каждого узла может потребовать регулярных курирований;
  • Скрытие обучающих данных может позволить злоумышленникам ввести бэкдоры в глобальную модель;[14]
  • Отсутствие доступа к глобальным данным обучения затрудняет выявление нежелательных предубеждений при обучении, например возраст, пол, сексуальная ориентация;
  • Частичная или полная потеря обновлений модели из-за сбоев узлов, влияющих на глобальную модель.[2]

Свойства федеративного обучения

Конфиденциальность по дизайну

Основное преимущество использования федеративных подходов к машинному обучению - обеспечение данных Конфиденциальность или секретность данных. Действительно, никакие локальные данные не выгружаются извне, не объединяются или не обмениваются. Поскольку вся база данных сегментирована на локальные биты, это затрудняет ее взлом.

При федеративном обучении осуществляется обмен только параметрами машинного обучения. Кроме того, такие параметры могут быть зашифрованный перед обменом между раундами обучения, чтобы продлить конфиденциальность и гомоморфное шифрование схемы могут использоваться для непосредственного вычисления зашифрованных данных без предварительного их дешифрования. Несмотря на такие защитные меры, эти параметры могут по-прежнему давать утечку информации о базовых выборках данных, например, путем выполнения нескольких конкретных запросов к конкретным наборам данных. Таким образом, возможность запросов узлов является основным вопросом, который можно решить с помощью дифференциальной конфиденциальности или безопасного агрегирования.[15]

Персонализация

Сгенерированная модель обеспечивает понимание на основе глобальных шаблонов узлов. Однако, если участвующий узел желает учиться на глобальных шаблонах, но также адаптировать результаты к своему особому статусу, методология федеративного обучения может быть адаптирована для создания двух моделей одновременно в одном многозадачное обучение рамки. Кроме того, кластеризация методы могут применяться к агрегатным узлам, которые имеют некоторое сходство после завершения процесса обучения. Это позволяет обобщать модели, изученные узлами, в соответствии с их локальными данными.[16]

В случае глубоких нейронных сетей можно разделить некоторые слои на разных узлах и сохранить некоторые из них на каждом локальном узле. Обычно первые слои выполняют общие распознавание образов разделяются и обучаются все наборы данных. Последние слои останутся на каждом локальном узле и будут обучаться только на наборе данных локального узла.[17]

Юридические преимущества федеративного обучения

Западные правовые системы все больше и больше делают упор на защиту данных и отслеживание данных. Отчет Белого дома за 2012 год[18] рекомендовал применять принцип минимизации данных, упомянутый в Европейском GDPR.[19] В некоторых случаях передача данных из одной страны в другую (например, геномных данных) является незаконной, однако для достижения научных результатов иногда необходимы международные консорциумы. В таких случаях федеративное обучение предлагает решения для обучения глобальной модели при соблюдении ограничений безопасности.

Текущие темы исследований

Федеративное обучение стало важной темой исследования в 2015 году.[1] и 2016,[20] с первыми публикациями по федеративному усреднению в телекоммуникационной среде. Еще одним важным аспектом активных исследований является снижение коммуникативной нагрузки в процессе федеративного обучения. В 2017 и 2018 годах в публикациях особое внимание уделялось разработке стратегий распределения ресурсов, особенно для сокращения коммуникаций.[12] требования[21] между узлами с алгоритмами сплетен[22] а также характеристики устойчивости к дифференциальным атакам на конфиденциальность.[23] Другая исследовательская деятельность сосредоточена на уменьшении полосы пропускания во время обучения с помощью методов разрежения и квантования.[21] где модели машинного обучения разрежены и / или сжимаются, прежде чем они будут переданы другим узлам. Недавние исследования начинают рассматривать распространение в реальном слове каналы[24] как и в предыдущих реализациях предполагались идеальные каналы. Обучение гетерогенных локальных моделей с различной сложностью вычислений и создание единой глобальной модели логического вывода возможно с помощью HeteroFL.[25]

Сценарии использования

Федеративное обучение обычно применяется, когда отдельные участники должны обучать модели на более крупных наборах данных, чем их собственные, но не могут позволить себе делиться данными сами по себе с другими (например, по юридическим, стратегическим или экономическим причинам). Однако эта технология требует хороших соединений между локальными серверами и минимальной вычислительной мощности для каждого узла.[2]

Транспорт: беспилотные автомобили

Беспилотный автомобиль инкапсулируют многие технологии машинного обучения для работы: компьютерное зрение для анализа препятствий, машинное обучение для адаптации их темпа к окружающей среде (например, неровности дороги). Из-за потенциально большого количества беспилотных автомобилей и необходимости их быстрого реагирования на реальные ситуации традиционный облачный подход может создавать риски для безопасности. Федеративное обучение может стать решением для ограничения объема передачи данных и ускорения процессов обучения.[26][27]

Индустрия 4.0: умное производство

В Индустрия 4.0, широко применяются методы машинного обучения.[28] для повышения эффективности производственного процесса при обеспечении высокого уровня безопасности. Тем не менее, конфиденциальность важных данных для промышленности и производственных компаний имеет первостепенное значение. К этим проблемам можно применить алгоритмы федеративного обучения, поскольку они не раскрывают конфиденциальные данные.[20]

Медицина: цифровое здоровье

Федеративное обучение направлено на решение проблемы управления данными и конфиденциальности путем совместного обучения алгоритмов без обмена самими данными. Сегодняшний стандартный подход к централизации данных из нескольких центров достигается за счет серьезных проблем, связанных с конфиденциальностью пациентов и защитой данных. Для решения этой проблемы критически важной технологией является возможность масштабного обучения моделей машинного обучения в нескольких медицинских учреждениях без перемещения данных. В сентябре 2020 года компания Nature Digital Medicine опубликовала документ `` Будущее цифрового здравоохранения с федеративным обучением ''.[29] где авторы исследуют, как федеративное обучение может предоставить решение для будущего цифрового здравоохранения, и выделяют проблемы и соображения, которые необходимо решить.

Рекомендации

  1. ^ а б Конечный, Якуб; МакМахан, Брендан; Рэймидж, Дэниел (2015). «Федеративная оптимизация: распределенная оптимизация за пределами центра обработки данных». arXiv:1511.03575 [cs.LG ].
  2. ^ а б c d е ж грамм час я j k л м п о п Кайруз, Питер; Брендан МакМахан, H .; Авент, Брендан; Белле, Орелиен; Беннис, Мехди; Арджун Нитин Бхагоджи; Бонавиц, Кейт; Чарльз, Захари; Кормод, Грэм; Каммингс, Рэйчел; D'Oliveira, Rafael G.L .; Салим Эль-Руайхеб; Эванс, Дэвид; Гарднер, Джош; Гаррет, Захари; Гаскон, Адриа; Гази, Бадих; Гиббонс, Филип Б .; Gruteser, Marco; Харчауи, Заид; Он, Чаоян; Он, ложь; Хо, Чжоуюань; Хатчинсон, Бен; Хсу, Джастин; Джагги, Мартин; Джавиди, Тара; Джоши, Гаури; Ходак Михаил; и другие. (10 декабря 2019 г.). «Достижения и открытые проблемы в федеративном обучении». arXiv:1912.04977 [cs.LG ].
  3. ^ Покхрел, Шива Радж; Чой, Джинхо (2020). «Федеративное обучение с помощью блокчейна для автономных транспортных средств: проблемы анализа и проектирования». Транзакции IEEE по коммуникациям. 68 (8): 4734–4746. Дои:10.1109 / TCOMM.2020.2990686. S2CID  219006840.
  4. ^ Децентрализованное совместное изучение персонализированных моделей по сетям Пол Ванхезбрук, Орелиен Белле, Марк Томмази, 2017
  5. ^ Савацци, Стефано; Николи, Моника; Рампа, Витторио (май 2020 г.). «Федеративное обучение с взаимодействующими устройствами: консенсусный подход для массовых сетей IoT». Журнал IEEE Internet of Things. 7 (5): 4641–4654. arXiv:1912.13163. Дои:10.1109 / JIOT.2020.2964162. S2CID  209515403.
  6. ^ На пути к федеративному обучению в масштабе: проектирование системы, Кейт Бонавиц, Хуберт Эйхнер и др., 2019
  7. ^ Гупта, Открист; Раскар, Рамеш (14 октября 2018 г.). «Распределенное обучение глубокой нейронной сети несколькими агентами». arXiv:1810.06060 [cs.LG ].
  8. ^ Вепакомма, Пранит; Гупта, Открист; Шведский, Тристан; Раскар, Рамеш (3 декабря 2018 г.). «Раздельное обучение для здоровья: распределенное глубокое обучение без обмена необработанными данными пациентов». arXiv:1812.00564 [cs.LG ].
  9. ^ Эйхнер, Хуберт; Корен, Томер; МакМахан, Х. Брендан; Сребро, Натан; Талвар, Кунал (22 апреля 2019 г.). «Полициклический стохастический градиентный спуск». arXiv:1904.10120 [cs.LG ].
  10. ^ Совместное глубокое обучение в сетях с фиксированной топологией, Чжаньхун Цзян, Адитья Балу, Чинмай Хегде, Соумик Саркар, 2017 г.
  11. ^ GossipGraD: масштабируемое глубокое обучение с использованием асинхронного градиентного спуска на основе Gossip Communication, Джефф Дейли, Абхинав Вишну, Чарльз Сигел, Томас Варфель, Винай Аматия, 2018
  12. ^ а б c Коммуникационно-эффективное обучение глубоких сетей на основе децентрализованных данных, Х. Брендан МакМахан и др. 2017 г.
  13. ^ Глубокое обучение с сохранением конфиденциальности, Р. Шокри и В. Шматиков, 2015 г.
  14. ^ Как использовать федеративное обучение через бэкдор, Евгений Багдасарян, 2018
  15. ^ Практическое безопасное агрегирование для машинного обучения с сохранением конфиденциальности, Кит Бонавиц, 2018 г.
  16. ^ Саттлер, Феликс; Мюллер, Клаус-Роберт; Самек, Войцех (4 октября 2019 г.). «Кластерное федеративное обучение: независимая от модели распределенная многозадачная оптимизация при ограничениях конфиденциальности». arXiv:1910.01991 [cs.LG ].
  17. ^ Ариважаган, Манодж Гухан; Аггарвал, Винай; Сингх, Аадитья Кумар; Чоудхари, Сунав (2 декабря 2019 г.). «Федеративное обучение со слоями персонализации». arXiv:1912.00818 [cs.LG ].
  18. ^ Аноним (1 марта 2013 г.). «Конфиденциальность данных потребителей в сетевом мире: основа для защиты конфиденциальности и продвижения инноваций в глобальной цифровой экономике». Журнал конфиденциальности и конфиденциальности. Дои:10.29012 / jpc.v4i2.623.
  19. ^ Изложение 39 Регламента (ЕС) 2016/679 (Общие правила защиты данных)
  20. ^ а б Федеративная оптимизация: распределенное машинное обучение для анализа на устройстве, Якуб Конечны, Х. Брендан МакМахан, Даниэль Рэймидж и Питер Рихтарик, 2016 г.
  21. ^ а б Конечный, Якуб; МакМахан, Х. Брендан; Ю, Феликс Х .; Richtárik, Питер; Суреш, Ананда Тиртха; Бэкон, Дэйв (30 октября 2017 г.). «Федеративное обучение: стратегии повышения эффективности коммуникации». arXiv:1610.05492 [cs.LG ].
  22. ^ Тренинг сплетен для глубокого обучения, Майкл Блот и др., 2017
  23. ^ Дифференциально частное федеративное обучение: перспектива на уровне клиента Робин С. Гейер и др., 2018 г.
  24. ^ Амири, Мохаммад Мохаммади; Гюндуз, Дениз (10 февраля 2020 г.). «Федеративное обучение по беспроводным каналам с замиранием». arXiv:1907.09769 [cs.IT ].
  25. ^ Дяо, Энмао; Дин, Цзе (2 декабря 2020 г.). «HeteroFL: Эффективное федеративное обучение вычислений и коммуникаций для гетерогенных клиентов». arXiv:2010.01264 [cs.IT ].
  26. ^ Покхрел, Шива Радж (2020). «Федеративное обучение встречается с блокчейном на границе 6G: сеть с использованием дронов для реагирования на стихийные бедствия»: 49-54. Дои:10.1145/3414045.3415949. Цитировать журнал требует | журнал = (помощь)
  27. ^ Эльбир, Ахмет М .; Колери, С. (2 июня 2020 г.). «Федеративное обучение для автомобильных сетей». arXiv:2006.01412 [eess.SP ].
  28. ^ Чоффи, Рафаэле; Травальони, Марта; Пискителли, Джузеппина; Петрилло, Антонелла; Де Феличе, Фабио (2019). «Приложения искусственного интеллекта и машинного обучения в интеллектуальном производстве: прогресс, тенденции и направления». Устойчивость. 12 (2): 492. Дои:10.3390 / su12020492.
  29. ^ Рике, Никола; Хэнкокс, Джонни; Ли, Вэньци; Миллетари, Фаусто; Roth, Holger R .; Албаркуни, Шади; Бакас, Спиридон; Galtier, Mathieu N .; Landman, Bennett A .; Майер-Хайн, Клаус; Урселен, Себастьен; Шеллер, Мика; Саммерс, Рональд М .; Траск, Андрей; Сюй, Дагуанг; Бауст, Максимилиан; Кардозу, М. Хорхе (14 сентября 2020 г.). «Будущее цифрового здравоохранения с федеративным обучением». NPJ Цифровая медицина. 3 (1): 119. arXiv:2003.08119. Дои:10.1038 / s41746-020-00323-1. ЧВК  7490367. PMID  33015372. S2CID  212747909.

внешняя ссылка