Искусственные нейронные сети презентация

Содержание


Презентации» Информатика» Искусственные нейронные сети
Искусственные нейронные сети
 Высшая школа экономики, Нижегородский филиал
 Кафедра прикладной математикиЛитература
 Хайкин С. Нейронные сети. Полный курс, 2-е изд. – М.:Искусственные нейронные сети –  вычислительные структуры, которые  моделируют процессыНемного истории
 1904 	С.Рамон-и-Кахаль
 Открытие нейронов – нервных клеток
 1943 	У.Мак-Каллок,Немного истории
 1957 	В.И.Арнольд, А.Н.Колмогоров
 Решение 13 проблемы Гильберта: любую непрерывнуюНемного истории
 1986		Д.Румельхарт, Дж.Хинтон, Р.Вильямс
 Метод обратного распространения ошибки
 Середина 1980х				НейросетевойЗадачи, решаемые с помощью ИНС
 Классификация образов
 Определить принадлежность входного образаЗадачи, решаемые с помощью ИНС
 Оптимизация
 Найти решение x, удовлетворяющее системеБиологический нейронИскусственный нейронИскусственный нейронМатематическая модель искусственного нейрона
 S = wixi + b
 y =Функции активацииФункции активацииФункции активацииИскусственная нейронная сеть
 ИНС – набор искусственных нейронов, соединенных между собой
ПримерПостроение ИНС
 Выбор архитектуры
 Топология 	
 Функции активации
 Входы-выходы
 Для каждойКлассификация ИНС  По топологииКлассификация ИНС  По наличию задержекКлассификация ИНС  По наличию обратной связиПо функциям активации
 По функциям активации
 Однородные
 Неоднородные
 По типу входногоУвеличение числа слоев и числа нейронов повышает возможности сети, но замедляетОбучение ИНС
 Нейронная сеть – адаптивная система
 Способность сети обрабатывать информациюМногослойная ИНСТеоретические результаты
 Теорема Хехт-Нильсена
 m-мерная функция от n переменных с заданнойЧисло нейронов в скрытом слое
 Многослойная сеть с сигмоидными функциями активации
Отсутствует строгая теория, касающаяся
 Многослойных сетей (число слоев больше 2)
 БольшинстваТехнологии обучения
 «С учителем»
 Обучающее множество – множество пар (сигнал, правильныйТехнологии обучения
 «Без учителя»
 Обучающее множество – множество примеров; правильные ответыОбучение «с учителем»
 Сеть обучена, если она дает правильные ответы наОбучение «с учителем»
 Имеется неизвестная функция Y=F(X), XG Rn, YRm
 ЗаданоПроблемы обучения
 Недообучение
 Сеть недостаточно точно аппроксимирует данные обучающего множества (неАналогия с полиномом аппроксимацииКонтрольное и тестовое множества
 Как проверить качество обучения?
 Кросс-проверка
 Q=Q1Q2 (обучающее+контрольное)
Обучение ИНС – задача многомерной оптимизации
 Задача оптимизации:	  min E(W)	Практика  Решение задачи классификации
 import numpy as np
 import pylabПрактика  Решение задачи классификации
 Создание сети прямого распространения с сигмоиднымиПрактика  Решение задачи классификации
 Обучение сети
 err = MyFirstNet.train(xtrain, d,Практика  Решение задачи классификации
 Создание тестового множества
 ntest = 25Практика  Решение задачи классификации
 Проверка способности сети к обобщению
 y



Слайды и текст этой презентации
Слайд 1
Описание слайда:
Искусственные нейронные сети Высшая школа экономики, Нижегородский филиал Кафедра прикладной математики и информатики ст.преп. Бабкина Татьяна Сергеевна tbabkina@hse.ru taty-bab@yandex.ru 2016


Слайд 2
Описание слайда:
Литература Хайкин С. Нейронные сети. Полный курс, 2-е изд. – М.: «И.Д. Вильямс», 2016. Галушкин А.И. Нейронные сети: основы теории. – М.: Горячая линия – Телеком, 2012. Тархов Д.А. Нейросетевые модели и алгоритмы. Справочник – Радиотехника, 2014. Рутковская Д., Пилиньский М., Рутковский Л. Нейронные сети, генетические алгоритмы и нечеткие системы. – М.: Горячая линия – Телеком, 2013. Борисов В.В., Круглов В.В., Федулов А.С. Нечеткие модели и сети. – М.: Горячая линия – Телеком, 2012. Конышева Л.К., Назаров Д.М. Основы теории нечетких множеств. – Питер, 2011. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. – М.: Горячая линия – Телеком, 2001– 382 с. Круглов В.В., Дли М.И., Голунов Р.Ю. Нечеткая логика и искусственные нейронные сети: Учеб. Пособие. – М.: Издательство Физико-математической литературы, 2001– 224 с. George F. Luger Artifitial Intelligence. Fifth Edition. – Addison Wesley, 2005. – 903 p. (353 – 357, 453 – 506 pp.)

Слайд 3
Описание слайда:
Искусственные нейронные сети – вычислительные структуры, которые моделируют процессы человеческого мозга Способность к обучению Искусственный нейрон

Слайд 4
Описание слайда:
Немного истории 1904 С.Рамон-и-Кахаль Открытие нейронов – нервных клеток 1943 У.Мак-Каллок, У.Питтс Модель искусственного нейрона; основные принципы построения ИНС 1949 Д.Хебб Идеи о соединении и взаимодействии нейронов мозга; правила обучения ИНС 1951 М.Минский, Д.Эдмондс SNARC: крыса в лабиринте

Слайд 5
Описание слайда:
Немного истории 1957 В.И.Арнольд, А.Н.Колмогоров Решение 13 проблемы Гильберта: любую непрерывную функцию многих переменных можно представить как суперпозицию непрерывных функций одной переменной и сложения 1962 Ф.Розенблатт Энтузиазм Персептрон; попытки предсказания погоды, анализа электрокардиограмм, распознавания рукописных букв 1969 М.Минский, С.Пейперт Пессимизм Критическая работа «Персептроны»; возможности персептронов ограничены 1970е Т.Кохонен, С.Гроссберг и др. Многослойные сети различной архитектуры; успешное решение задач, считавшихся неразрешимыми 1982 Дж.Хопфилд Динамическая сеть

Слайд 6
Описание слайда:
Немного истории 1986 Д.Румельхарт, Дж.Хинтон, Р.Вильямс Метод обратного распространения ошибки Середина 1980х Нейросетевой бум Новые модели нейронных сетей 1987 Р. Хехт-Нильсен Вариант 13 проблемы Гильберта: любую непрерывную функцию многих переменных можно с любой точностью приблизить с помощью трехслойного персептрона 1990е Развитие новых нейропарадигм замедлилось; нейрочипы, нейрокомпьютеры

Слайд 7
Описание слайда:
Задачи, решаемые с помощью ИНС Классификация образов Определить принадлежность входного образа одному из заранее заданных классов Распознавание речи и изображений, мед.диагностика Кластеризация (классификация без учителя) Разместить близкие образы в один кластер (кластеры заранее не определены) Сжатие данных, извлечение знаний Аппроксимация функций Найти оценку неизвестной функции F(x) по обучающей выборке {(x1,y1)…(xN,yN)} Инженерное и научное моделирование Прогноз Найти неизвестное y(tN+1) по известным y(t1)…y(tN) Принятие решений в науке, технике, бизнесе

Слайд 8
Описание слайда:
Задачи, решаемые с помощью ИНС Оптимизация Найти решение x, удовлетворяющее системе ограничений и максимизирующее (минимизирующее) целевую функцию Принятие решений в науке, технике, бизнесе Ассоциативная память Организовать память с доступом по частичному или искаженному содержанию Информационно-вычислительные системы Управление Рассчитать управляющее воздействие u на динамическую систему {u(t),y(t)}, чтобы выход y совпадал с эталоном

Слайд 9
Описание слайда:
Биологический нейрон

Слайд 10
Описание слайда:
Искусственный нейрон

Слайд 11
Описание слайда:
Искусственный нейрон

Слайд 12
Описание слайда:
Математическая модель искусственного нейрона S = wixi + b y = f (S) xi, i=1,2…n – сигнал от другого нейрона wi, i=1,2…n – сила синаптической связи b – смещение f – функция активации нейрона y – выходной сигнал нейрона

Слайд 13
Описание слайда:
Функции активации

Слайд 14
Описание слайда:
Функции активации

Слайд 15
Описание слайда:
Функции активации

Слайд 16
Описание слайда:
Искусственная нейронная сеть ИНС – набор искусственных нейронов, соединенных между собой Функции активации фиксированы Веса и смещения могут изменяться (свободные параметры) Входные и выходные нейроны

Слайд 17
Описание слайда:
Пример

Слайд 18
Описание слайда:
Построение ИНС Выбор архитектуры Топология Функции активации Входы-выходы Для каждой задачи – своя архитектура Обучение «С учителем» и «без учителя» Настройка весов и смещений (10000) Для каждой архитектуры – свои алгоритмы

Слайд 19
Описание слайда:
Классификация ИНС По топологии

Слайд 20
Описание слайда:
Классификация ИНС По наличию задержек

Слайд 21
Описание слайда:
Классификация ИНС По наличию обратной связи

Слайд 22
Описание слайда:
По функциям активации По функциям активации Однородные Неоднородные По типу входного сигнала Бинарный Целый Действительный

Слайд 23
Описание слайда:
Увеличение числа слоев и числа нейронов повышает возможности сети, но замедляет обучение Увеличение числа слоев и числа нейронов повышает возможности сети, но замедляет обучение Введение обратных связей повышает возможности сети, но возникает вопрос об устойчивости

Слайд 24
Описание слайда:
Обучение ИНС Нейронная сеть – адаптивная система Способность сети обрабатывать информацию развивается в результате обучения на примерах Нейронная сеть – «черный ящик» Знания накапливаются в виде весовых коэффициентов и не поддаются содержательной интерпретации

Слайд 25
Описание слайда:
Многослойная ИНС

Слайд 26
Описание слайда:
Теоретические результаты Теорема Хехт-Нильсена m-мерная функция от n переменных с заданной точностью может быть приближена функцией, вычисляемой двуслойной ИНС с прямыми связями Теорема о полноте (следствие) Любая непрерывная функция на замкнутом ограниченном множестве может быть равномерно приближена функциями, вычисляемыми ИНС, функции активации которых непр. и дважды непр. дифференцируемы

Слайд 27
Описание слайда:
Число нейронов в скрытом слое Многослойная сеть с сигмоидными функциями активации mN/(1+log2N)  Lw  m(N/m+1)(n+m+1)+m Двуслойная сеть L=Lw/(n+m) Другая формула для двуслойной сети N/10-n-m  L  N/2-n-m

Слайд 28
Описание слайда:
Отсутствует строгая теория, касающаяся Многослойных сетей (число слоев больше 2) Большинства рекуррентных сетей Сетей со связями от слоя l к слою l+k

Слайд 29
Описание слайда:
Технологии обучения «С учителем» Обучающее множество – множество пар (сигнал, правильный ответ) Q={(X1,D1) … (XN,DN)}

Слайд 30
Описание слайда:
Технологии обучения «Без учителя» Обучающее множество – множество примеров; правильные ответы неизвестны Q={X1 … XN} Самоорганизующееся обучение Обучение с подкреплением

Слайд 31
Описание слайда:
Обучение «с учителем» Сеть обучена, если она дает правильные ответы на примеры из обучающего множества Сеть способна к обобщению, если она дает правильные ответы на примеры из всей области определения

Слайд 32
Описание слайда:
Обучение «с учителем» Имеется неизвестная функция Y=F(X), XG Rn, YRm Задано множество Q={(X1,D1) … (XN,DN)}, где Dk=F(Xk), XkG, k=1,2…N Найти функцию A(X), вычисляемую ИНС и близкую к F(X) в смысле некоторой функции ошибки E Сеть обучена: A(X) близка к F(X) на множестве Q Сеть способна к обобщению: A(X) близка к F(X) на всем множестве G Качество обучения зависит: от количества обучающих примеров от полноты описания области определения G

Слайд 33
Описание слайда:
Проблемы обучения Недообучение Сеть недостаточно точно аппроксимирует данные обучающего множества (не способна обучиться) Усложнить сеть Переобучение Сеть чрезмерно точно аппроксимирует данные обучающего множества (обучена, но не способна к обобщению) Упростить сеть

Слайд 34
Описание слайда:
Аналогия с полиномом аппроксимации

Слайд 35
Описание слайда:
Контрольное и тестовое множества Как проверить качество обучения? Кросс-проверка Q=Q1Q2 (обучающее+контрольное) E(Q1) и E(Q2) убывают – обучение идет правильно E(Q1) убывает, E(Q2) возрастает – переобучение E(Q1) и E(Q2) не убывают – недообучение Многократная проверка нескольких сетей Q=Q1Q2 Q3 (обучающее+контрольное+тестовое)

Слайд 36
Описание слайда:
Обучение ИНС – задача многомерной оптимизации Задача оптимизации: min E(W) W Произвольный вид функции E, большая размерность Многомерная невыпуклая задача оптимизации Алгоритмы Локальная оптимизация с использованием производных первого порядка Градиентный метод, метод сопряженных градиентов Локальная оптимизация с использованием производных первого и второго порядков Ньютона, Гаусса-Ньютона, разреженных матриц Гессе Стохастическая оптимизация Монте-Карло, имитация отжига, генетические алгоритмы

Слайд 37
Описание слайда:
Практика Решение задачи классификации import numpy as np import pylab as pl import neurolab as nl Рисование линии, разделяющей классы pl.plot([0., 5.],[5., 0.], 'b’) Создание и рисование обучающих примеров n = 10 xtrain = np.random.uniform(0, 5, (n, 2)) for i in range(n): pl.plot(xtrain[i, 0], xtrain[i, 1], 'b+’) Вычисление правильных ответов d = np.zeros(n) for i in range(n): d[i] = np.sign(xtrain[i, 0] + xtrain[i, 1] - 5) d = d.reshape(n, 1)

Слайд 38
Описание слайда:
Практика Решение задачи классификации Создание сети прямого распространения с сигмоидными функциями активации MyFirstNet = nl.net.newff([[0, 5], [0, 5]], [5, 1]) Опрос необученной сети y = MyFirstNet.sim(xtrain) for i in range(n): if y[i] > 0: pl.plot(xtrain[i, 0], xtrain[i, 1], 'ro') if y[i] < 0: pl.plot(xtrain[i, 0], xtrain[i, 1], 'go')

Слайд 39
Описание слайда:
Практика Решение задачи классификации Обучение сети err = MyFirstNet.train(xtrain, d, show=15) Опрос обученной сети y = MyFirstNet.sim(xtrain) for i in range(n): if y[i] > 0: pl.plot(xtrain[i, 0], xtrain[i, 1], 'ro') if y[i] < 0: pl.plot(xtrain[i, 0], xtrain[i, 1], 'go')

Слайд 40
Описание слайда:
Практика Решение задачи классификации Создание тестового множества ntest = 25 * 25 xtest = np.zeros(ntest * 2) xtest = xtest.reshape(ntest, 2) i = 0 k0 = 0. while k0 < 5: k1 = 0. while k1 < 5: xtest[i, 0] = k0 xtest[i, 1] = k1 i += 1 k1 += 0.2 k0 += 0.2

Слайд 41
Описание слайда:
Практика Решение задачи классификации Проверка способности сети к обобщению y = MyFirstNet.sim(xtest) for i in range(ntest): if y[i] > 0: pl.plot(xtest[i, 0], xtest[i, 1], 'r+') if y[i] < 0: pl.plot(xtest[i, 0], xtest[i, 1], 'g+') pl.axis([0, 5, 0, 5]) pl.show() Обучена ли сеть? Способна ли сеть к обобщению? Хорошо ли описана область определения? Правильно ли подобрано число нейронов в скрытом слое?


Скачать презентацию на тему Искусственные нейронные сети можно ниже:

Похожие презентации