|
Решил немного для разнообразия заняться нейронными сетями | ☑ | ||
---|---|---|---|---|
0
мой_ник
16.04.18
✎
23:36
|
Может, кто из форума знает специализированные живые форуму по данной тематике? ну или ответит на такой вопрос:
Вопрос по поводу того, почему функция ошибки в нейронных сетях это квадрат разности правильного ответа и ответа выходного нейрона сети E=(a-f(х))^2 , где а - правильный ответ, а Е - ошибка конкретного выходного нейрона, ну а f(x) - это сигмоида. Градиентный спуск, по идее это поиск градиента, т.е. вектора указывающий направление изменения скорости функции, относительно аргументов, т.е. поиск производных, по каждому аргументу и определение направления куда двигаться, что бы найти минимум функции. По сути должна быть функция у которой в точке где ошибка равна 0 должен быть минимум, а минимум это по идее там где скорость изменения функции стремиться к 0, т.е. производная в точке минимума функции равна 0 и для нейронных сетей и была выбрана функция ошибки E=(a-f(х))^2, что она в точке минимума имеет значение производной равной 0, я правильно размышляю или не очень)? |
|||
1
Darych
16.04.18
✎
23:37
|
форумом, Паш, в который раз ошибся
|
|||
2
мой_ник
16.04.18
✎
23:38
|
(1) так написал же в самом начале, может кто знает нужный живой форум по данной тематике...
|
|||
3
Darych
16.04.18
✎
23:43
|
||||
4
мой_ник
16.04.18
✎
23:44
|
шутник
|
|||
5
Йохохо
16.04.18
✎
23:46
|
зачем тебе это? чтобы заработать на этом надо осваивать фреймворки, а там понимания не нужно
|
|||
6
vs84
16.04.18
✎
23:48
|
(0) "я правильно размышляю?"
Да, именно так люди и размышляют. Но лучше желать это не вслух - мы все слышим и нам это не нравиться. |
|||
7
мой_ник
16.04.18
✎
23:50
|
(5) нет, написал же хочу понять принцип сам по себе, а в частности почему функция ошибки элемента нейронной сети именно такая, а не другая
|
|||
8
ВРедная
16.04.18
✎
23:50
|
(0) http://www.cyberforum.ru/ai/
Тут ведется общение на эту тему, не знаю, правда, насколько результативно |
|||
9
мой_ник
16.04.18
✎
23:51
|
(8) спасибо
|
|||
10
Йохохо
16.04.18
✎
23:52
|
(7) чтобы использовать наработки тервера, взяв формулу дисперсии
|
|||
11
vs84
16.04.18
✎
23:54
|
(10) "взяв формулу дисперсии"
диспепсии, двоечник! |
|||
12
Йохохо
16.04.18
✎
23:54
|
(11) откуда вас столько разморозилось?
|
|||
13
Darych
16.04.18
✎
23:56
|
(11,12) )))))
|
|||
14
мой_ник
16.04.18
✎
23:56
|
(10) там простая формула, сумма квадратов разности по всем выходным нейронам, если там и есть часть формулы, то почему не вся, а только квадрат разности?
|
|||
15
Darych
17.04.18
✎
00:00
|
так "сумма квадратов разности" или "квадрат разности"?
|
|||
16
мой_ник
17.04.18
✎
00:04
|
(15) есть функция ошибки сети, она характеризуется как сумма ошибок всех нейронов сети по всем примерам, если представить, что выходной нейрон один и пример один, то можно в конкретном случае свести к квадрату разности E=(a-f(х))^2 для данного конкретного нейрона, почему выбрана именно эта функция определения ошибки, а не какая-то другая, почему разность правильного ответа и ответа нейрона возводят в квадрат?
|
|||
17
Darych
17.04.18
✎
00:07
|
млин.. ну наверное надо почитать и подружиться с матаном?.. КЭП
|
|||
18
ВРедная
17.04.18
✎
00:16
|
(17) В данном случае еще и с математической статистикой
|
|||
19
мой_ник
17.04.18
✎
00:22
|
(18) мне как бы ответ на вроде бы простой вопрос, почему выбрана эта формула, а не какая-либо другая, ну скажем, в рамках данной задачи она оказалось самой простой или что-то в этом роде..
|
|||
20
Darych
17.04.18
✎
00:34
|
ппц.. квадрат гипотинузы равен сумме квадратов катетов - это Пифагор просто взял потому, как красиво получилось?
|
|||
21
мой_ник
17.04.18
✎
00:38
|
(20) вот это и спрашиваю, в чем математическая обоснованность именно такой формулы ошибки,А не какой-то другой, я вижу, то , что находить минимум данной функции имеется возможным, в отличие от других вариантов, может еще какие-то причины есть, хотелось бы узнать, о них или что почитать про это...только не весь матан там или статистику, а что-то конкретное
|
|||
22
Darych
17.04.18
✎
00:42
|
какая в опу "математическая обоснованность"? нет такого понятия "математическая обоснованность". Хорош пить/дуть/употреблять
|
|||
23
мой_ник
17.04.18
✎
00:51
|
(22) ладно не знаешь, так и скажи, не знаю, почему эта, а не к примеру сумма разности по модулю или еще чего.
|
|||
24
Darych
17.04.18
✎
00:54
|
(23) ))) причем здесь знаешь/не знаешь. Это же математика - тут все можно вывести и доказать)).. это та долпаепп
|
|||
25
Волшебник
17.04.18
✎
07:16
|
весна...
|
|||
26
vde69
17.04.18
✎
07:25
|
возможно по тому, что сплайны так строятся?
|
|||
27
Bigbro
17.04.18
✎
07:35
|
потому что большие отклонения от искомого значения должны давать больший вклад в ошибку. и должно быть исключено влияние знака ошибки.
при указанных требованиях квадратичная функция самое простое. сколько классов образования нужно иметь чтобы не понимать настолько очевидных вещей? |
|||
28
Pahomich
17.04.18
✎
07:47
|
(0) Из лучших по нейросетям конечно фишки.нет, там и разности и квадраты и фишки правильно ложаться!
|
|||
29
мой_ник
17.04.18
✎
09:13
|
(27) вот уже ближе, про это я то же думал, что сдвиг в торону ошибки уменьшается в пропорции, но опять же почему не 4я степень или по модулю, ладно раз самое простое, значит такой ответ.
|
|||
30
Йохохо
17.04.18
✎
09:17
|
(29) почитай что такое метрика и дисперсия
|
Форум | Правила | Описание | Объявления | Секции | Поиск | Книга знаний | Вики-миста |