Имя: Пароль:
IT
 
Решил немного для разнообразия заняться нейронными сетями
,
0 мой_ник
 
16.04.18
23:36
Может, кто из форума знает специализированные живые форуму по данной тематике? ну или ответит на такой вопрос:

Вопрос по поводу того, почему функция ошибки в нейронных сетях это квадрат разности правильного ответа и ответа выходного нейрона сети E=(a-f(х))^2 , где а - правильный ответ, а Е - ошибка конкретного выходного нейрона, ну а f(x) - это сигмоида.

Градиентный спуск, по идее это поиск градиента, т.е. вектора указывающий направление изменения скорости функции, относительно аргументов, т.е. поиск производных, по каждому аргументу и определение направления куда двигаться, что бы найти минимум функции.

По сути должна быть функция у которой в точке где ошибка равна 0 должен быть минимум, а минимум это по идее там где скорость изменения функции стремиться к 0, т.е. производная в точке минимума функции равна 0 и для нейронных сетей и была выбрана функция ошибки E=(a-f(х))^2, что она в точке минимума имеет значение производной равной 0, я правильно размышляю или не очень)?
1 Darych
 
16.04.18
23:37
форумом, Паш, в который раз ошибся
2 мой_ник
 
16.04.18
23:38
(1) так написал же в самом начале, может кто знает нужный живой форум по данной тематике...
3 Darych
 
16.04.18
23:43
4 мой_ник
 
16.04.18
23:44
шутник
5 Йохохо
 
16.04.18
23:46
зачем тебе это? чтобы заработать на этом надо осваивать фреймворки, а там понимания не нужно
6 vs84
 
16.04.18
23:48
(0) "я правильно размышляю?"
Да, именно так люди и размышляют. Но лучше желать это не вслух - мы все слышим и нам это не нравиться.
7 мой_ник
 
16.04.18
23:50
(5) нет, написал же хочу понять принцип сам по себе, а в частности почему функция ошибки элемента нейронной сети именно такая,  а не другая
8 ВРедная
 
16.04.18
23:50
(0) http://www.cyberforum.ru/ai/
Тут ведется общение на эту тему, не знаю, правда, насколько результативно
9 мой_ник
 
16.04.18
23:51
(8) спасибо
10 Йохохо
 
16.04.18
23:52
(7) чтобы использовать наработки тервера, взяв формулу дисперсии
11 vs84
 
16.04.18
23:54
(10) "взяв формулу дисперсии"
диспепсии, двоечник!
12 Йохохо
 
16.04.18
23:54
(11) откуда вас столько разморозилось?
13 Darych
 
16.04.18
23:56
(11,12) )))))
14 мой_ник
 
16.04.18
23:56
(10) там простая формула, сумма квадратов разности по всем выходным нейронам, если там и есть часть формулы, то почему не вся, а только квадрат разности?
15 Darych
 
17.04.18
00:00
так "сумма квадратов разности" или "квадрат разности"?
16 мой_ник
 
17.04.18
00:04
(15) есть функция ошибки сети, она характеризуется как сумма ошибок всех нейронов сети по всем примерам, если представить, что выходной нейрон один и пример один, то можно в конкретном случае свести к квадрату разности E=(a-f(х))^2 для данного конкретного нейрона, почему выбрана именно эта функция определения ошибки, а не какая-то другая, почему разность правильного ответа и ответа нейрона возводят в квадрат?
17 Darych
 
17.04.18
00:07
млин.. ну наверное надо почитать и подружиться с матаном?.. КЭП
18 ВРедная
 
17.04.18
00:16
(17) В данном случае еще и с математической статистикой
19 мой_ник
 
17.04.18
00:22
(18) мне как бы ответ на вроде бы простой вопрос, почему выбрана эта формула, а не какая-либо другая, ну скажем, в рамках данной задачи она оказалось самой простой или что-то в этом роде..
20 Darych
 
17.04.18
00:34
ппц.. квадрат гипотинузы равен сумме квадратов катетов - это Пифагор просто взял потому, как красиво получилось?
21 мой_ник
 
17.04.18
00:38
(20) вот это и спрашиваю, в чем математическая обоснованность именно такой формулы ошибки,А  не какой-то другой, я вижу, то , что находить минимум данной функции имеется возможным, в отличие от других вариантов, может еще какие-то причины есть, хотелось бы узнать, о них или что почитать про это...только не весь матан там или статистику, а что-то конкретное
22 Darych
 
17.04.18
00:42
какая в опу "математическая обоснованность"? нет такого понятия "математическая обоснованность". Хорош пить/дуть/употреблять
23 мой_ник
 
17.04.18
00:51
(22) ладно не знаешь, так и скажи, не знаю, почему эта, а не к примеру сумма разности по модулю или еще чего.
24 Darych
 
17.04.18
00:54
(23) ))) причем здесь знаешь/не знаешь. Это же математика - тут все можно вывести и доказать)).. это та долпаепп
25 Волшебник
 
17.04.18
07:16
весна...
26 vde69
 
17.04.18
07:25
возможно по тому, что сплайны так строятся?
27 Bigbro
 
17.04.18
07:35
потому что большие отклонения от искомого значения должны давать больший вклад в ошибку. и должно быть исключено влияние знака ошибки.
при указанных требованиях квадратичная функция самое простое.
сколько классов образования нужно иметь чтобы не понимать настолько очевидных вещей?
28 Pahomich
 
17.04.18
07:47
(0) Из лучших по нейросетям конечно фишки.нет, там и разности и квадраты и фишки правильно ложаться!
29 мой_ник
 
17.04.18
09:13
(27) вот уже ближе, про это я то же думал, что сдвиг в торону ошибки уменьшается в пропорции, но опять же почему не 4я степень или по модулю, ладно раз самое простое, значит такой ответ.
30 Йохохо
 
17.04.18
09:17
(29) почитай что такое метрика и дисперсия