Инновационные фреймворки ИИ могут улучшить конфиденциальность в здравоохранении

Источник: quimono / Pixabay

Искусственный интеллект (ИИ) все чаще используется в здравоохранении. Сохранение конфиденциальности при использовании данных пациентов для машинного обучения — ключевой фактор, влияющий на темпы внедрения искусственного интеллекта в отрасли здравоохранения. . Недавно в рамках глобального исследовательского сотрудничества под руководством ученых из Технического университета Мюнхена (TUM) была создана структура искусственного интеллекта с открытым исходным кодом, которая обеспечивает сквозную конфиденциальность для глубокого обучения данных визуализации в медицинских учреждениях, а также опубликованы результаты их рецензирования. учиться в Разум машин природы.

Машинное обучение с искусственным интеллектом набирает обороты во многих отраслях, особенно в здравоохранении. В 2020 году частные инвестиции в искусственный интеллект для улучшения здоровья людей в мире составили 13,8 миллиарда долларов, что в 4,5 раза больше, чем в предыдущем году, согласно данным Индекс AI 2021 Отчет подготовлен Институтом искусственного интеллекта, ориентированного на человека (HAI) Стэнфордского университета. В сфере здравоохранения необходимы инновационные решения для защиты конфиденциальности пациентов во время обучения машинному обучению без необходимости передачи данных.

Глобальная группа исследователей из Германии, Великобритании, США, Франции и Бразилии объединила свои усилия для создания программной платформы с открытым исходным кодом для комплексного, децентрализованного глубокого обучения с учетом конфиденциальности и использования данных медицинских изображений из нескольких учреждений.

Почему одной анонимности данных недостаточно

«Часто данные пациентов анонимизируются или псевдонимизируются в учреждении-источнике, а затем передаются и хранятся на месте анализа и обучения модели (известное как централизованный обмен данными)», — пишут исследователи. «Однако анонимизация обнаружила недостаточную защиту от атак повторной идентификации. Поэтому крупномасштабный сбор, агрегирование и передача данных о пациентах имеет жизненно важное значение с правовой и этической точки зрения. Кроме того, основное право пациента — осуществлять контроль над хранением, передачей и использованием личных медицинских данных ».

Подход команды — это структура под названием PriMIA (анализ медицинских изображений с сохранением конфиденциальности). «Наша структура включает обучение диверсифицированной частной федеративной модели с зашифрованным агрегированием обновлений модели, а также зашифрованный удаленный вывод», — пишут исследователи.

По словам исследователей, PriMIA легко настраивается пользователем, поддерживает несколько форматов данных медицинской визуализации и упрощает федеративное образовательное обучение с функциями, которые включают в себя различные обогащения данных, взвешенный градиентный спуск / усреднение федерации, локальную раннюю остановку, совместное использование данных, дифференциальные данные конфиденциальности. обмен. и оптимизация гиперпараметров по всей федерации.

Почему федеративная наука

Федеративное обучение — это метод, который позволяет обучать модели ИИ на распределенных наборах данных без прямого участия пользователя. Преимущество федеративного обучения состоит в том, что оно улучшает конфиденциальность, снижает ответственность и уменьшает полосу пропускания, необходимую для передачи больших наборов данных. Дополнительным преимуществом является то, что данные для обучения находятся на оборудовании пользователя.

Глубокая сверточная нейронная сеть на реальных данных

Набор обучающих данных с более чем 5100 изображениями был набором данных о детской пневмонии, который рентгенолог проанализировал на предмет качества и репрезентативности изображений. Набор данных проверки состоял из более 600 изображений.

Команда обучила глубокую сверточную нейронную сеть (CNN) ResNet-18 из детской рентгенографии грудной клетки с использованием федеративного обучения (FL), расширенного до PriMIA, платформы, которая совместима с широким спектром форматов медицинских изображений.

PriMIA — это расширение инструментов защиты конфиденциальности машинного обучения (PPML) с открытым исходным кодом PySyft и PyGrid. PySyft — это среда Python, которая обеспечивает зашифрованное глубокое обучение и удаленное выполнение задач. PyGrid — это одноранговая платформа, которая позволяет владельцам данных управлять своими собственными частными кластерами данных для частной науки о данных и федеративного обучения.

Чтобы проверить структуру искусственного интеллекта, команда собрала более 490 рентгенограмм грудной клетки из двух университетских больниц. Команда сообщила, что классификация модели ИИ «сопоставима с локальными моделями, которые не прошли безопасное обучение».

По словам исследователей, они показали, что не только «обеспеченная безопасность предотвратила восстановление полезных данных с помощью атаки инверсии градиентной модели», но и что «они успешно применяют обученную модель в зашифрованной удаленной конечной точке». сценарий вывода с использованием безопасных многосторонних вычислений для предотвращения раскрытия данных и моделей «.

Copyright © 2021 Cami Rosso Все права защищены.

Мы будем рады и вашему мнению

Оставить отзыв

Эзотерика Онлайн
Shopping cart