Обучение сети глубокого обучения, решение проблемы Нэн в растерянности
Обучение сети глубокого обучения, решение проблемы Нэн в растерянности
Каталог статей
Предисловие
1. Причины
2. Типичные примеры
1. Градиентный взрыв
2. Неправильная функция потерь.
3. Неправильный ввод
Предисловие
Обучение модели — это не просто корректировка параметров. Важно уметь находить правильные решения различных возникающих проблем. В этой статье проводится подробный анализ причин, по которым появляется потеря обучающей сети, Нэн, и представлены подробные решения, я надеюсь, что она будет полезна всем при обучении модели.
1. Причины
Вообще говоря, NaN возникает в следующих ситуациях:
Если NaN появляется в течение 100 раундов итераций, общая причина заключается в том, что ваша скорость обучения слишком высока и вам необходимо снизить скорость обучения. Скорость обучения можно непрерывно снижать до тех пор, пока NaN не появится. Вообще говоря, она может быть в 1–10 раз ниже существующей скорости обучения.
Если текущая сеть представляет собой рекуррентную нейронную сеть, подобную RNN, может появиться NaN, поскольку градиентный причиной взрыва, эффективным способом является увеличение «градиента отсечение» (усечение градиента для решения).
Возможно, 0 используется в качестве делителя.
В качестве натурального логарифма можно использовать 0 или отрицательное число.
Массив, который необходимо вычислить на предмет потерь, находится за пределами границ (особенно если вы сами определяете новую сеть, такое может случиться).
В некоторых случаях, связанных с экспоненциальными вычислениями, окончательное расчетное значение может быть INF (бесконечность) (например, числитель и знаменатель softmax без другой обработки должны вычислять ex(x), а значение слишком велико, и окончательное значение может быть INF/INF, что приведет к NaN. В этом случае вы должны убедиться, что используемый вами softmax выполнил соответствующую обработку (например, вычитание максимального значения и т. д.) при вычислении exp(x).
При тренировке глубины сети,Проблема отсутствия меток также приведет к тому, что потери всегда будут nan.,Нужно проверить этикетку.
2. Типичные примеры
1. Градиентный взрыв
причина:Градиент становится очень большим,Затруднение продолжения процесса обучения.
Феномен:наблюдатьlog,Обратите внимание на потери после каждой итерации. С каждой итерацией потери становятся все больше и больше.,Наконец-то превышен диапазон представления с плавающей запятой,Оно становится NaN.
мера:
Уменьшите base_lr в Solver.prototxt хотя бы на порядок. Если имеется несколько потерь слое, вам нужно выяснить, какие потери вызвал градиентный взрыв,И уменьшите loss_weight этого слоя в train_val.prototxt.,Вместо уменьшения общего значения base_lr.
Установите градиент клипа, чтобы ограничить слишком большие различия.
2. Неправильная функция потерь.
причина:Иногда слой потерьlossРасчет может привести кNaNвнешний вид。например,Ввод ненормализованных значений в слой InfogainLoss (потери энтропии информации),Используйте собственные слои потерь с ошибками и многим другим.
Феномен:в результате наблюдательной тренировкиlogНа первый взгляд исключений не видно,Потери также постепенно уменьшаются,Но внезапно появляется NaN.
мера:Посмотрите, сможете ли вы воспроизвести ошибку,в убытке Добавьте выходные данные в слой для отладки.
3. Неправильный ввод
причина:Входные данные содержатNaN。
Феномен:Всякий раз, когда я сталкиваюсь с этим неправильным вводом в процессе обучения,станет NaN. Возможно, вы не сможете обнаружить какие-либо отклонения при просмотре журнала.,потери постепенно уменьшаются,Но внезапно оно становится NaN.
мера:Измените свой набор данных,Убедитесь, что в обучающем наборе и наборе проверки нет поврежденных изображений. Во время отладки вы можете использовать простую сеть для чтения входного слоя.,Есть потеря по умолчанию,и пройти через все входные данные,Если есть неправильные входные данные,Этот слой по умолчанию также создает NaN.