bookmate game
ru
Шолле Ф.

Глубокое обучение на Python

Повідомити про появу
Щоб читати цю книжку, завантажте файл EPUB або FB2 на Букмейт. Як завантажити книжку?
  • Kirill Kruglikovцитує4 роки тому
    Этот вопрос открыл двери в новую парадигму программирования. В классическом программировании, в парадигме символического ИИ, люди вводят правила (программу) и данные для обработки в соответствии с этими правилами и получают ответы (рис. 1.2). В машинном обучении люди вводят данные и ответы, соответствующие этим данным, а на выходе получают правила. Эти правила затем можно применить к новым данным для получения оригинальных ответов.
  • Андрейцитує5 років тому
    Вообще говоря, чем меньше обучающих данных, тем скорее наступит переобучение, а использование маленькой сети — один из способов борьбы с ним.
  • Андрейцитує5 років тому
    С целочисленными метками следует использовать функцию sparse_categorical_crossentropy:
    model.compile(optimizer='rmsprop',
    loss='sparse_categorical_crossentropy',
    metrics=['acc'])
  • kostalginцитує6 років тому
    В частности, нейронные сети едва ли имеют какое-то сходство с мозгом. Более подходящим было бы название обучаемые многоуровневые представления, или обучаемые иерархические представления, или даже глубокие дифференцируемые модели, или последовательные геометрические преобразования, чтобы подчеркнуть непрерывность манипуляций с геометрическим пространством.
  • kostalginцитує6 років тому
    Это означает, что геометрическое преобразование входных данных в выходные должно быть гладким и непрерывным, что является существенным ограничением.
  • kostalginцитує6 років тому
    Вот что такое генеративно-состязательная сеть: она состоит из двух сетей — выполняющей подделку и оценивающей эту подделку, постепенно обучающих друг друга:
  • kostalginцитує6 років тому
    Сеть-генератор обучается обманывать сеть-дискриминатор и, соответственно, учится создавать все более реалистичные изображения: поддельные изображения, неотличимые от настоящих в той мере, на какую способна сеть-дискриминатор (рис.
  • kostalginцитує6 років тому
    В последнее время большим успехом на практике пользовалась обширная категория моделей, сочетающих глубокое и поверхностное обучение. Такие модели состоят из совместно обучаемых глубокой нейронной сети и большой линейной модели. Совместное обучение семейства разных моделей — еще один способ ансамблирования.
  • kostalginцитує6 років тому
    Во многих областях, и особенно в творчестве, ИИ будет использоваться людьми как инструмент для расширения своих возможностей: более широких, чем возможности ИИ.
  • kostalginцитує6 років тому
    Для поиска оптимальных весов в ансамбле можно использовать алгоритм случайного поиска или простой оптимизации, такой как Nelder-Mead:
fb2epub
Перетягніть файли сюди, не більш ніж 5 за один раз