Проблема уязвимости глубокого обучения к «состязательным атакам» пока не решена. Добавление к вводным системы ИИ случайной или скрытой информации может привести к сбою в работе. Системам распознавания изображений уделяется большое внимание, но системы реконструкции изображений, основанные на глубоком обучении, не менее уязвимы.
Это создаёт большие риски в сфере здравоохранения: такие системы используются для восстановления снимков КТ, МРТ и рентгена. То есть кибератака, к примеру, может привести к тому, что система покажет опухоль там, где её быть не должно.
В Иллинойском университете предложили новый метод обучения глубоких нейронных сетей, снижающий число ошибок и повышающий надёжность в критических ситуациях. Он основан на сопоставлении нейронных сетей, ответственных за реконструкцию изображений, и сетей, генерирующих примеры состязательных атак, по типу GAN алгоритмов.
Через повторяющиеся циклы состязательная сеть попытается обмануть сеть, отвечающую за реконструкцию изображений – чтобы та генерировала элементы, не являющиеся частью оригинальных данных. Сеть реконструкции же будет модифицироваться с тем, чтобы не дать себя обмануть, таким образом повышая свою надежность.
Хотя на этапе теста в плане восстановления оригинальных данных обученная сеть оказалась эффективнее по сравнению с прочими «отказоустойчивыми» системами, она всё еще требует доработки.