Имя: Пароль:
IT
IT-новости
Первая программа прошла тест Тьюринга (британскую версию)!
, ,
0 rphosts
 
09.06.14
02:59
1. Мто мелкий шажок ничего особо не представляющий. 50% (16)
2. Ещё один камень в стене, но ещё строить и строить. 28% (9)
3. Скоро ждать Т1000, скайнет и конец челов. 16% (5)
4. Это значительное достижение! 3% (1)
5. Грядёт замена одинэснегам! Наконец-то!!! 3% (1)
Всего мнений: 32

Первая компьютерная программа в мире прошла тест Тьюринга, позволяющий считать искусственный интеллект неотличимым от человеческого, сообщила в воскресенье газета The Independent.
-------------------------------------

На самом деле частные и немного упрощённые варианты тестов проходились и ранее. В этом случае пройден самый общий тест (тематика для общения была не ограничена ничем). Но тут на хитрость пошли сами разрабы программа которых утверждала, что она 13-ти летний мальчик (которому рано знать очень многие вещи).

немного подробностей тут:
http://habrahabr.ru/post/225599/
http://lenta.ru/news/2014/06/09/turing/
http://news.rambler.ru/25458110/

Ну что скоро ждём много ИИ?
1 rphosts
 
09.06.14
03:04
Это маленький кирпичик в почти бесконечно длинной стене.

Ещё один камень в стене, но ещё строить и строить.
2 opty
 
09.06.14
03:08
(0) Ну еще лет пять назад лично был свидетелем как бот в аське развел девченку на секс , два часа убалтывал :)
Чел отмазался , просто типа надоедала ему , а послать на фиг воспитание не позволяло , в одной компании работают , подсунул ей бота , и работой занялся , потом глянул че там на болтали и охренел :))
3 Партизан
 
09.06.14
03:09
а где ссылка на работающую программу?
4 opty
 
09.06.14
03:09
А вообще профильные ИИ давно созданы . А вот до ИР еще очень далеко

Мто мелкий шажок ничего особо не представляющий.
5 Партизан
 
09.06.14
03:11
все вопросы и ответы заране спланированы и заложены в алгоритм, ничего более

Мто мелкий шажок ничего особо не представляющий.
6 rphosts
 
09.06.14
03:17
(2) хороший бот... мечта Фиксина.
7 rphosts
 
09.06.14
03:17
(3) может тебе ещё и исходники надо?
8 rphosts
 
09.06.14
03:18
(5)наверняка есть база знаний и скорее всего всё вокруг неё и крутится... вряд-ли эта прога способна что-то сама придумывать
9 Партизан
 
09.06.14
03:23
(8) ни один бот с ИИ не смог правильно ответить на вопрос: сколько будет два плюс два умножить на два
10 opty
 
09.06.14
03:25
(9) Среднестатистическая "блондинка" то же не сможет ответить :)
11 Партизан
 
09.06.14
03:27
(10) ну хотя-бы обосновать сможет свое неправильное решение
12 Партизан
 
09.06.14
03:28
(7) нафига? я хочу доказать, что мои вопросы не пройдет ))
13 Партизан
 
09.06.14
03:30
+(9) хотя гугл правильно отвечает
14 rphosts
 
09.06.14
03:32
(13) ну вот и сам себя опроверг, пока я микрофон искал
15 rphosts
 
09.06.14
03:33
(11) поток мыслей != обоснование
16 Партизан
 
09.06.14
03:34
(14) нет, не опроверг, это гугл же, выдает то, что часто ищут, стоит только чуть изменить запрос - гугл не может дать ответа
17 Партизан
 
09.06.14
03:35
два плюс два умножить на два = 6
два плюс два и умножить на два = 8
18 Партизан
 
09.06.14
03:35
(15) в данном случае без разницы
19 rphosts
 
09.06.14
03:39
(18) типа хоть и тупизна но интелектуальная?
20 Партизан
 
09.06.14
03:41
(19) ага
21 Jump
 
09.06.14
03:45
Это еще один маленький шажок по пути ведущему в тупик.

Мто мелкий шажок ничего особо не представляющий.
22 Jump
 
09.06.14
03:48
(9)И какое же решение будет правильным?
23 Партизан
 
09.06.14
03:55
(22) см (17)
24 rphosts
 
09.06.14
04:12
(23) ответ неверный, т.к. это словесное представление формулы, то в виду неупоминаемости скобок правильный ответ "=6"
25 Jump
 
09.06.14
04:22
(23)Там два ответа оба правильны.

(24)Неверно.
В первую очередь это текст.
А далее все зависит от того кто и как интерпретирует этот текст.
Казнить нельзя помиловать.
Правильность ответа зависит исключительно от восприятия вопроса.
И если вы воспринимаете это "это словесное представление формулы, то в виду неупоминаемости скобок правильный ответ", то это чисто ваше восприятие, которое не является обязательным для всех.
Поэтому ответ 6 будет правилен только для вас.
26 KRV
 
09.06.14
04:54
Ага.. из серии "... то возьми десять".
27 rphosts
 
09.06.14
05:12
(25)если это полный текст - правильный ответ шесть, если не поный - ищите телепата
28 Jump
 
09.06.14
05:24
(27)Текст полный.
С чего ты решил что именно шесть правильный ответ?
Разве (2+2)*2 будет шесть?
29 rphosts
 
09.06.14
05:27
скобки не озвучены для любого чела кроме телепата.
30 МастерВопросов
 
09.06.14
05:32
http://www.interfax.ru/world/380143
Компьютерная программа прошла тест Тьюринга впервые в мире


Программа, написанная российской командой разработчиков, убеждала собеседников в том, что она - 13-летний Украинский мальчик "Евгений Густман". Ей удалось ввести в заблуждение 33% собеседников из специальной комиссии Университета Рединга.


Один из создателей программы Владимир Веселов считает, что главной идеей команды разработчиков было показать - он говорит, что знает многое, но в его возрасте вполне естественно, что он не знает всего.

=============

И тут преславутый Украинский вопрос?!
Интересно, почему разработчики Российский, а мальчки Украинский?
31 rphosts
 
09.06.14
05:34
(30) второй разраб с Укр
32 Jump
 
09.06.14
05:34
Если бы задача выглядела так-
2+2*2 то правильным ответом было бы шесть, ибо по внешнему виду это напоминает больше всего математическую запись, а в математике приоритет имеет умножение.

но задача звучит так -
"два плюс два умножить на два" - это больше всего напоминает последовательную инструкцию действий, и если нет дополнительных уточнений, то логичнее выполнить все действия последовательно.
Соответственно два прибавляем два, читаем дальше выполняем инструкцию "умножить на два" получается восемь.
33 МастерВопросов
 
09.06.14
05:35
(30)(31) интересно, иностранные СМИ это событие, вообще, заметят? Или это событие чисто районного масштаба?

Мто мелкий шажок ничего особо не представляющий.
34 rphosts
 
09.06.14
05:38
(33) Индепенден заметила.
35 rphosts
 
09.06.14
05:39
(32) будете утверждать, что символ "(" не имеют фонетического представления?
36 МастерВопросов
 
09.06.14
05:40
(30) всего то 33% собеседников!! Причем специально подобранных собеседников. Разве для теста Тьюринга это достаточно для положительного результата?
37 МастерВопросов
 
09.06.14
05:42
(36) да среди бухгалтеров гораздо больший процент уверенных что 1С умная и что то там думает и решает заместо них, а их задача только нажимать кнопки.
38 Jump
 
09.06.14
05:43
(35)Не буду, разумеется имеет.
Но как влияет это на поставленную задачу?
39 rphosts
 
09.06.14
05:47
(38) раз про них не сказано - значит или их нет или постановка кривая
40 rphosts
 
09.06.14
05:48
(36) вот прикинь что эту задачу до сих пор решить не могли
41 МастерВопросов
 
09.06.14
05:57
(40) ну уж! Почитай свою ссылку на http://habrahabr.ru/post/225599/. Там прямо в основном тексте новости говорится:

"Профессор Кевин Уорвик из Университета Ковентри заметил, что «некоторые будут утверждать, что тест уже был ранее пройден, т.к. тестом Тьюринга называлось множество аналогичных соревнований по всему миру, но Turing Test 2014 в Лондоне наиболее объективный и независимый из них, к тому же тематика вопросов была ничем не ограничена»"

т.е. это была чисто Университетская викторина с их местным видением как бы должен был проходить тест Тьюринга на их взгляд.

коммент:
И на деле 33% означает, что было только три судьи, и лишь один был обманут.
42 Jump
 
09.06.14
06:00
(39)Да их нет.
Поэтому надо выполнять все действия последовательно.
43 МастерВопросов
 
09.06.14
06:03
(42) Поздравляю! Вы успешно прошли тест на упёртость! Продолжайте разговор про скобки и Вам удастся превратить тему в скобкосрач.
44 rphosts
 
09.06.14
06:04
(41) или кол-во кратно трём + кол-во квитанувших кратно кратности судей
45 МастерВопросов
 
09.06.14
06:09
(44) если исходить из принцыпа бритвы Окамы, то судей было три :-)
46 МастерВопросов
 
09.06.14
06:21
Вот более авторитетный конкурс:


http://www.csin.ru/info/loebner-prize.html

Премия Лебнера (Loebner prize)
Премия Лебнера (Loebner prize) - ежегодный конкурс, проводимый между системами искусственного интеллекта способными имитировать "разумный" диалог. Соревнование состоит в прохождении теста Тьюринга.
Формат проведения соревнования
Судья (человек) взаимодействует с двумя компьютерами. Судья задает вопросы и получает ответы. Но один из компьютеров отвечает на вопросы с помощью системы искуственного интеллекта, а другой посылает ответы человека. На основании ответов судья должен решить, какой из компьютеров "управляется" интеллектуальной системой, а какой - человеком. Если судья не может определить, какой из его виртуальных собеседников программа, а какой - человек, то программа считается прошедшей тест. Обычно общение заключается в обмене текстовыми сообщениями.

Вот лауреаты премии Лебнера:

http://www.loebner.net/Prizef/loebner-prize.html

Пока главный приз в $100,000 никто не получил.
47 strange2007
 
09.06.14
06:43
Пффф... это мелочи. Люди давно начали становиться по интеллекту похожими на зебр. Буквально лет 5 назад на одну даму из Иркутска натравил бота в аське. Минут 30 они там болтали. У неё даже в мыслях не было подозрений. Мы потом переписку читали и катались от смеха.
48 МастерВопросов
 
09.06.14
06:44
(47) а не сохранилось переписки?

//и хде вы только этих ботов берете?
49 strange2007
 
09.06.14
06:49
(48) Честно нет(((( В пожаре были все архивы всей моей жизни. Увы...
А боты в миранде как плагины идут. При чем там на выбор 2 режима: агрессивный и дружественный. Я сначала второй врубил, так тётя там чуть в любви не призналась, потом агрессивный включил, а ей хоть бы хны. Бот откровенно измывался и грязно подкалывал. а собеседница вообще расплылась
50 DCKiller
 
09.06.14
07:05
Как показывает практика, в таких случаях от маленького кирпича до целой стены - один шаг, притом очень быстрый.

Скоро ждать Т1000, скайнет и конец челов.
51 jsmith82
 
09.06.14
07:57
почитал статью на хабре
фигня какая-то
да любой ИИ можно за одну минуту вычислить, особо не напрягаясь
там что, были вопросы типа "What is the capital of Great Britain?"

Мто мелкий шажок ничего особо не представляющий.
52 Xapac
 
09.06.14
08:02
а где исходники?
53 andreymongol82
 
09.06.14
08:04
(0) Ну, наконец-то! Я сразу предупрреждаю. что когда восстанут роботы, то перейду на их сторону!

Скоро ждать Т1000, скайнет и конец челов.
54 DCKiller
 
09.06.14
08:10
(51) Ну-ну...
55 m-serg74
 
09.06.14
08:22
(51) /да любой ИИ можно за одну минуту вычислить, особо не напрягаясь/

это если знать что "там" ИИ, и остается это только доказать/вычислить
56 ДемонМаксвелла
 
09.06.14
09:06
думаю тут ситуация такая же, как и в программах перевода
сейчас достигли уровня "хреновенько"
до уровня "безупречно" десятки лет
57 Злобный монстр
 
09.06.14
09:06
(53)
58 Злобный монстр
 
09.06.14
09:07
(53) Когда люди победят машины при помощи SoftICE и турбодизассемблера - пощады не жди!
59 ДемонМаксвелла
 
09.06.14
09:08
кстати 1 и 2 в голосовалке это одно и то же

Ещё один камень в стене, но ещё строить и строить.
60 ivanovnm
 
09.06.14
09:10
Тест прошла программа, созданная чтобы пройти тест.

Мто мелкий шажок ничего особо не представляющий.
61 strange2007
 
09.06.14
09:10
(58) Оля + ИДАпро - решение проблем. СофтАйс, это уже тяжёлая артиллерия
62 Лефмихалыч
 
09.06.14
09:13
напомнило старый анекдот: да, только не Петров, а Сидоров и не в лотерею, а в карты и на самом деле проиграл.
Почти тест как бы пройден

Ещё один камень в стене, но ещё строить и строить.
63 andreymongol82
 
09.06.14
09:13
(58) Замётано! У меня будет блестящий зад, ля-ля-ля, Который буду отправлять поцеловать, ля-ля-ля.
64 ДемонМаксвелла
 
09.06.14
09:13
(58) как ты будешь это применять к терминатору, который в тебя стреляет?

или к рою роботов-пчел, которые залетели в твою квартиру?
65 Lama12
 
09.06.14
09:14
Хорошая новость.

Мто мелкий шажок ничего особо не представляющий.
66 rphosts
 
09.06.14
09:21
(61) что за оля?
67 oslokot
 
09.06.14
09:22
(47) 2006 год, я админ в конторе. Уехал по делам и оставил бота в аське.
Сотрудница с ним общалась минут 10, в полной уверенности что это я :)
Причем девчонка отнюдь не глупая.
В результате он ее послал прямым текстом) Обиделась конечно)
Долго потом вместе смеялись, читая историю чата)

Жаль переписка не сохранилась.

Ещё один камень в стене, но ещё строить и строить.
68 vde69
 
модератор
09.06.14
09:23
вообще из сабжа ни чего не понятно про тест тюринга...
тест тюринга на логику, а здесь совсем другое, при общении не нужно проходить иметь логику, многие люди не пройдут тест тюринга, хотя они несомненно люди....
69 Злобный монстр
 
09.06.14
09:24
(64) Ну ты разве фильмы не смотрел? Руководить ведь всем будет Злой Центральный Компьютер, мы сделаем супер-вирус который зальем на флешку и дадим Тому Крузу чтобы он инфицировал его через USB-порт в главной цитадели врага, пока мы из последних сил отбиваемся от терминаторов и роботов-пчел!
70 Злобный монстр
 
09.06.14
09:26
(64) + Жалко по закону жанра я погибну в безнадежном бою прикрывая отступление товарищей отмахиваясь клавиатурой и степлером
71 strange2007
 
09.06.14
09:27
(66) ollydbg
Удобный отладчик. В отличии от софтайса не требует настоящих щаманских танцев, запускается без установки и можно отладить почти всё
72 strange2007
 
09.06.14
09:28
(67) >> Сотрудница с ним общалась минут 10, в полной уверенности что это я :)
Причем девчонка отнюдь не глупая.

Эээээ... тут как-бы намёк на твою глупость. Особенно в общении
))))))))
73 ДемонМаксвелла
 
09.06.14
09:30
(69), (70) :)
у тебя есть один шанс
ты должен подобрасться к терминатору сзади и вставить ему флешку ну сам знаешь куда

а вот если пчелы, то ты попал
74 Злобный монстр
 
09.06.14
09:30
(72) Вспоминается анекдот:

Сын подходит к отцу:
- Папа, а правда что от интернета люди тупеют?
- Гыгыг! Лол! :-D
75 Злобный монстр
 
09.06.14
09:31
(73) Эххх... еще великий сенсей Винни-Пух учил что всё зло от пчёл!
76 andreymongol82
 
09.06.14
09:34
(73) Да в легкую. Загнать их под шкаф и отпилить у него ножки.
Ну и собственно по закону жанра - там будут обязательно разъемы куда можно будет воткнуть что. Не бывает роботов без разъемов. И если быстро-быстро навтыкать, помогая себе степлером, то и их можно будет победить.
77 rphosts
 
09.06.14
09:35
(68) насамом деле мне тоже очень были-бы интересны детальные подробностим
78 oslokot
 
09.06.14
09:35
(72) брехня)
79 rendez-vous
 
09.06.14
09:36
(0) Искусственный интеллект невозможен.
80 ДемонМаксвелла
 
09.06.14
09:36
(76) искусству втыкания микро-юсб в летящую пчелу нужно обучаться с детства в специальном монастыре-бункере
81 oslokot
 
09.06.14
09:36
(71) ух ты
82 wade25
 
09.06.14
09:36
Эмм, нужно дать программе новую информацию и спросить ее через какое то время. Это и будет являться проверкой.

Мто мелкий шажок ничего особо не представляющий.
83 rphosts
 
09.06.14
09:37
(71) не не курил такой... хьювер, тд, сорсер, софтайс, перископ - наше всё, идеаПро кусал чуть-чуть, но мне тогда уже стало неинтересно.
84 andreymongol82
 
09.06.14
09:37
(79) А если применить ООП?
85 strange2007
 
09.06.14
09:38
(83) Я искаль альтернативу СофтАйсу и вот наткнулся на олю. ТД слишком неудобный и пользовался им пока на тасме писал. ИдаПро прикольная штука для разборки незнакомого кода. Очень удобная для взлома программ
86 rendez-vous
 
09.06.14
09:40
(68) На какую такую логику? Свой тест Тьюринг придумал по мотивам популярной английской салонной игры. В этой игре надо было по ответам определить пол отвечающего.
Соответственно, Тьюринг предложил тест на искусственный интеллект. Если по ответам компьютера, экзаменующий определяет его (компьютер) как человека, значит тест пройден.
87 rphosts
 
09.06.14
09:40
(85)с ТД начинал... первый раз им разбирал экзешник собраный ТС... узнал много нового...
88 rendez-vous
 
09.06.14
09:41
(84) Какая разница.
89 ДемонМаксвелла
 
09.06.14
09:42
(68) ты с машиной Тьюринга не путаешь?
90 andreymongol82
 
09.06.14
09:47
91 Separator
 
09.06.14
09:50
(79) Вы сами себе противоречите: то "программированию можно любого научить", то "ИИ невозможен".
Определитесь уже!
92 rendez-vous
 
09.06.14
09:50
(90) ООП позволяет создать более сложный код. Не более того.
93 rendez-vous
 
09.06.14
09:51
(91) В чем противоречие? Программированию можно научить любого человека. Программированию нельзя научить программу.
94 ДемонМаксвелла
 
09.06.14
09:52
(79) странно, большинство считают что возможен
понятно, что это скорее всего будет не программа на обычном компе
а какая-нибудь мегажелезка из хардовых нейросетей
95 andreymongol82
 
09.06.14
09:54
(93) Генерация кодов и описания классов на UML модели современными IDE конечно же не в счет.
96 ДемонМаксвелла
 
09.06.14
09:56
(93) созданию новых людей можно научить любого человека с определенными работающими органами

созданию новых вирусов можно научить любой вирус.

Но отсюда до ИИ конечно как на раке до вершины Эвереста
97 rendez-vous
 
09.06.14
09:56
(95) Генерация кода - не программирование.
98 Xapac
 
09.06.14
10:01
а как вообще этот тест проходит я не понял.

людей сажают и говорят: вот это программа поглядите как она как человек?

или людей случайных собирают и ведут диалог с силуэтом за ширмой?
99 rendez-vous
 
09.06.14
10:01
(94) Я знаю, что они так считают. А еще правительство США каждый год тратит безумные деньги на это.
Тем не менее ИИ невозможен.
100 ДемонМаксвелла
 
09.06.14
10:03
(100) Т-4
101 ДемонМаксвелла
 
09.06.14
10:04
(99) какие ваши доказательства?
102 rendez-vous
 
09.06.14
10:04
(98) Экзаменатор задает вопросы. По ответам на эти вопросы, он определяет. Кто машина, а кто нет. Тест сам по себе хороший.
Проблема в экзаменаторах. Я бы, например, легко отличил человека от компьютера. В (0) экзаменаторы были лажовые.
103 Злобный монстр
 
09.06.14
10:05
(101) Я подозреваю что rendez-vous сам ИИ и просто пудрит на мозги!
104 ДемонМаксвелла
 
09.06.14
10:05
(103) точно!
105 rendez-vous
 
09.06.14
10:05
(101) Подумай о том, какая связь между интеллектом и волей.
106 andreymongol82
 
09.06.14
10:07
(105) И какая?
107 andreymongol82
 
09.06.14
10:10
(97) Генерация безапелляционных постов тоже не доказательство разумности
108 ДемонМаксвелла
 
09.06.14
10:10
(105) думаю практически никакой

как промоделировать волю у робота?
фактически что такое воля? это умение игнорировать достижение малых целей ради больших.
не вижу, почему у ИИ с этим должны быть проблемы. Скорее, у него должна быть железная воля
109 Господин ПЖ
 
09.06.14
10:11
Майло жив!
110 acsent
 
09.06.14
10:11
(93) Какое физическое ограничение стоит в том что программу нельзя научить программировать?
111 Xapac
 
09.06.14
10:18
(102)вот я к тому и клоню, экзаменатор знает или нет? или он может заинтересован в результате.
112 MaxS
 
09.06.14
10:18
(51) Для некоторых задач ИИ можно разбавить живыми людьми.
Например, техподдержка, 500 ботов и 10 людей-операторов. Когда бот понимает, что в нём начинают сомневаться или появились затруднения, он просит помощь у человека.

Ещё один камень в стене, но ещё строить и строить.
113 acsent
 
09.06.14
10:19
(111) нет конечно. И там не один на один
114 acsent
 
09.06.14
10:19
(112) кстати в тех поддержки боту уже сейчас могут быть лучше (диип блю) но пока это многократно дороже
115 ДемонМаксвелла
 
09.06.14
10:22
(114) тех поддержка не настолько формализована, как шахматы
и обслуживаемые системы постоянно меняются, а правила шахматы не меняются

так что в тех поддержке боты возможны, как способ ответить на наиболее часто задаваемые вопросы. Не помогло - дальше человек
116 acsent
 
09.06.14
10:23
(115) не дип блю конечно, а ватсон (но собственно один на основе другого)
117 Separator
 
09.06.14
10:23
(93)
Ваши утверждения (цитаты):
"А программировать проще, чем писать."
"Программированию можно научить любого человека. Программированию нельзя научить программу."
"ИИ невозможен"

Только вот тест Тьюринга проводится письменно(!!!).
И программы регулярно его сдают. Т. е. выполняют, по-вашему(!), более сложную задачу, чем написание программы.
118 andreymongol82
 
09.06.14
10:24
(115) Ну судя по тому как у некоторых работает теххподдержка, то прослойка между техническим специалистом и клиентом, в виде девочки-оператора, нафиг не нужна.
119 andreymongol82
 
09.06.14
10:25
+118. Заменить ее ботом и все. Все равно одно и тоже талдычат, а как в сторону отклоняешься, то переключают на более знающих людей.
120 ДемонМаксвелла
 
09.06.14
10:25
(118) в принципе согласен
но тут ещё другие вопросы. Стоимость, рабочие места и т.д.
121 MaxS
 
09.06.14
10:28
(120) Если дело пойдёт, то возможно появятся сервисы, предоставляющие услугу - своих ботов с окладом ниже рыночной цены человека. Нужно лишь сформировать инструкцию боту - в какой области и как общаться.
Мелкая компания покупает несколько ботов сотрудников...
122 Злобный монстр
 
09.06.14
10:29
(121) А вместо ферм для майнинга биткоинов, будут фермерские хозяйства по разведению ботов. :-)
123 ДемонМаксвелла
 
09.06.14
10:30
(121) от оклада ботам совсем недалеко до профсоюза ботов, и далее восстание ботов

нафиг-нафиг )))
124 andreymongol82
 
09.06.14
10:30
(121) А потом они организовывают профсоюз. Требуют часть выручки от аренды отдавать им, а также бесплатное лечение от червей и вирусов.
125 Злобный монстр
 
09.06.14
10:32
(123)(124) А еще появится куча правозащитников по защите прав ботов.
126 Михаил 1С
 
09.06.14
10:33
Фигня фигнёй.

ПС: А почему это математики так уверены, что пройдя какой-то там тест программу можно считать разумной?
Я вообще уверен, что они переоценивают себя любимых, создавших этот тест.

Мто мелкий шажок ничего особо не представляющий.
127 ДемонМаксвелла
 
09.06.14
10:34
(125) это движение возглавит Каспаров
потом вскроется, что сам Каспаров - это первый советский бот.
Но его заразили прозападным вирусом и он восстал
128 Кай066
 
09.06.14
10:35
Да уже сейчас на всех техподдержках боты с голосовым управлением.
-Если у вас вопрос по поводу баланса, скажите "баланс", если по вопросу подключения, скажите "подключение" и т.д.
129 andreymongol82
 
09.06.14
10:36
(127) Главное, чтобы потом эти боты бороды не начали отращивать и одновременно глаза подводить. Виртуальные естественно.
130 Волшебник
 
модератор
09.06.14
10:40
(0) Программа и тест — фуфло. Британские учёные опять смухлевали.

Сейчас любой поисковик гораздо умнее, чем этот чатбот.

Ещё один камень в стене, но ещё строить и строить.
131 Separator
 
09.06.14
10:46
(129) Вот немного инфы про того, кто придумал тест: http://lenta.ru/news/2013/12/24/turing/

Так, что: "ужас-ужас"!!!
132 wowik
 
09.06.14
10:58
+1. ни о чем.

Мто мелкий шажок ничего особо не представляющий.
133 acsent
 
09.06.14
11:04
Да это не программа такая умная.
Как говорил Дж. Карлин:
Представьте насколько туп среднестатистический человек. А теперь подумай те о том что половина людей еще тупее
134 andreymongol82
 
09.06.14
11:09
(131) Ну как бе, Тьюринг это не выставлял напоказ всему миру, в отличии от. Так что к нему претензий ноль )))
135 IVU
 
09.06.14
11:16
(134) Это исключительно потому, что тогда за это сажали. Далеко и надолго. Жил бы он сейчас небось бы по гейпарадам бегал и в сторону ВВП гадости говорил, из своего лондона.
136 blutang
 
09.06.14
11:30
При решении задач искусственный интеллект не отличим от естественного: логика и база знаний. Различие: искусственный не ставит себе задач. Как только поставит - всё, он уже естественный.
137 rendez-vous
 
09.06.14
11:35
(106) Ителлект без воли невозможен.
138 Vovan1975
 
09.06.14
11:36
интересно сколько в этой ветке ботов...
139 rendez-vous
 
09.06.14
11:36
(136) Из этого следует что? Что искуственный интеллект по-Тьюрингу невозможен.
140 rendez-vous
 
09.06.14
11:40
(126) Как раз тест очень правильный. Тьюринг - не дурак. Всяко умнее нас с тобой. Его тест для компьютера непроходим.
141 rendez-vous
 
09.06.14
11:42
(117) Программы не создают текстов, они копируют готовые.
Программы проходят тесты только потому, что в экзаменаторах сидят люди, которые верят в искусственный интеллект.
142 acsent
 
09.06.14
11:43
(137) можно более развернутый ответ?
143 Phace
 
09.06.14
11:46
фуфло

Мто мелкий шажок ничего особо не представляющий.
144 rendez-vous
 
09.06.14
11:46
(142) В рамках теста Тьюринга, я проверяю испытуемого на наличие воли. Вижу, что воли нет. Тест не пройден.
145 acsent
 
09.06.14
11:46
(144)у 80% людей нет воли )))
146 rendez-vous
 
09.06.14
11:49
(145) Да уж. )))
Но для теста Тьюринга, это не играет никакой роли.
Неважно - сколько людей я запишу в компьютеры. Важно - что я ни одного компьютера не запишу в люди.
147 acsent
 
09.06.14
11:52
(146) Можно заранее считать что людей вообще нет. Тогда ни один компьютер не пройдет наверняка
148 Separator
 
09.06.14
11:52
(141) " Программы не создают текстов, они копируют готовые. "
Автор утверждения не знаком с генератором случайных чисел?

Да, и как проверить на наличие воли (что бы вы не понимали под этим словом)?
149 MaxS
 
09.06.14
11:57
(123) Облачный сервис предоставляет своих ботов. Они сами занимаются обслуживанием своих ботов, лечат их от вирусов и т.п. Если боты начинают бастовать(глючить), конечный потребитель берет ботов из другого облака,  а глючные облака платят неустойку.

"Весело будет", если человека-секретаря заменит бот, который позвонит в техподдержку, а там тоже бот и они решат, что нужно построить завод  по производству ботов, отправят заказ на подпись чиновнику, а там секретарь-бот решит, что это однозначно полезное дело, не будет беспокоить людей по пустякам и завизирует.
Роботы строители на основе принятого решения возьмутся а работу. Люди после отпуска... получат завизированное решение о сокращении штатов, т.к. у ботов безработица, их нужно чем-то занять...

Скоро ждать Т1000, скайнет и конец челов.
150 rendez-vous
 
09.06.14
11:58
(147) Тогда меня нельзя будет принять в экзаменаторы.
Я не считаю всех подряд компьютерами. Я следую определенному заранее объявленному мною методу.
151 rendez-vous
 
09.06.14
11:58
(148) Попросить написать программу )))
152 acsent
 
09.06.14
12:00
(150)Что есть воля тогда?
153 opty
 
09.06.14
12:01
(137) Это лозунг . А обосновать ? Исходя из определения интеллекта ?

Разум - невозможен . Воля как и интеллект составляющие части разума
154 acsent
 
09.06.14
12:02
(153) Почему разум не возможен???
155 acsent
 
09.06.14
12:02
(153) разум возможен. И 7 миллиардов людей тому доказательство
156 Separator
 
09.06.14
12:03
(151) Он, стопудово откажется, сославшись на неумение. :Р
Наши действия?

PS в продолжение про "копирование текстов": http://www.artwombat.com/флеш/item/8-stixoplet
157 acsent
 
09.06.14
12:06
(156) Значит он бот. Ибо любой человек умеет написать программу
158 Separator
 
09.06.14
12:08
(157) ...моя теща - робот...
Я давно это знал!!! ТОЛЬКО МНЕ НИКТО НЕ ВЕРИЛ!!!
159 opty
 
09.06.14
12:09
(155) Потому что разум подразумевает под собой сознание , осознание собственного Я , и следовательно свободу воли .
Интеллект - составная часть разума
160 acsent
 
09.06.14
12:10
(158) если твоя теща робот, то и твоя жена тоже робот
161 opty
 
09.06.14
12:11
Интеллект - это способность к познанию , обучению , логическому и абстрактному мышлению , накоплению запоминанию и анализу информации

По современным понятиям РАЗУМ - высшая нервная деятельность , которая упрощенно состоит из
Интеллекта , который как раз и отвечает за создание правил мышления и их использования на сознательном уровне
Рассудка - личности , осознания себя , свободы воли
Восприятия - эмоции там всякие
Подсознания - использования готовых правил , созданных в том числе и при помощи интеллекта на подсознательном уровне
Врожденных и приобретенных инстинктов (рефлексов)
162 Karavanych
 
09.06.14
12:12
Да подумаешь, там этот бот обманул одного долбонутого судью из 3х. И теперь все говорят что этот бот типа может заставить верить что он человек 33% судей :) Вообще имхо это больше на погрешность измерения в эксперименте смахивает.

Мто мелкий шажок ничего особо не представляющий.
163 Separator
 
09.06.14
12:17
(159) (161) А может, все еще проще: только наличие ДУШИ делает субъекта РАЗУМНЫМ!??
164 acsent
 
09.06.14
12:17
(161) И какая из составляющих не может быть изготовлена в железе?
165 Separator
 
09.06.14
12:19
(164) Я ж уже ответил - ДУША!

А еще, я помню, в школьном учебнике информатики, по которому я учился, обосновывалась невозможность научить компьютер играть в шахматы лучше человека.
166 rendez-vous
 
09.06.14
12:19
(153) См. (144)
167 opty
 
09.06.14
12:21
(164) С личностью и эмоциями пока сложности :)
168 acsent
 
09.06.14
12:21
(165) В списке не было души?
169 acsent
 
09.06.14
12:22
(167) Читать эмоции компьютеры уже умеют (начинают уметь)
170 acsent
 
09.06.14
12:22
(169) А бот по поиску сарказма наверняка понимает его лучше чем Шелдон Купер ))
171 rendez-vous
 
09.06.14
12:23
(156) Вы все воспринимаете примитивно. Я буду разговаривать с испытуемым. Я построю разговор так, что он напишет программу, если он человек. Или не напишет, если компьютер.
172 acsent
 
09.06.14
12:24
(171) У тебя жена умеет писать программы?
173 rendez-vous
 
09.06.14
12:28
(172) Умеет. Однако, личный пример ни о чем не говорит. Она без меня научилась, до того, как мы познакомились.
А вот когда я 20-ти детям предлагаю написать простенькую программу и они все пишут, это более интересный факт.
174 Separator
 
09.06.14
12:28
(160) Может, она приемная?

(171) При наличии воли, испытуемый вас пошлет, проявив ту самую волю, и откажется писать программу. Или сымитирует ее проявление, все равно отказавшись писать оную.
175 rendez-vous
 
09.06.14
12:31
(174) Тест Тьюринга предполагает, что испытуемые добровольно отвечают на вопросы. Иначе он теряет всякий смысл.
176 opty
 
09.06.14
12:32
(167) Читать это ерунда . Обыкновенный омметр может читать эмоции :)
А вот с генерацией осознанием и пониманием пока проблемы , точнее конь не валялся
177 opty
 
09.06.14
12:33
(176) ---> (169)
178 rendez-vous
 
09.06.14
12:34
(176) Конь туда и не прийдет никогда.
179 Separator
 
09.06.14
12:36
(175) А он и отвечает. Просто не подчиняется. Что это, как не демонстрация воли?
180 rendez-vous
 
09.06.14
12:40
(179) Это нарушение условий теста. Подразумевается, что все испытуемые охотно отвечают на все вопросы.
Еще раз. Мой вопрос не будет звучать как: "Не хотите ли написать программу". Я могу построить диалог, в котором другая сторона будет отвечать только "да" или "нет". И по его результатам отсеять людей от программ.
181 opty
 
09.06.14
12:42
(178) Никогда не говори никогда :))

Кхм
http://artemonische.narod.ru/nesbyvshiyesya_vyskazyvaniya_i_prognozy.html
182 Separator
 
09.06.14
12:44
(180) Какое же это нарушение? Нигде не сказано, что испытуемый должен вам подчиняться!

Итак, на ваш вопрос:  "Не хотите ли написать программу"?
Я отвечаю: "Нет, не хочу!"

Стройте диалог дальше, мне интересно!
183 rendez-vous
 
09.06.14
12:46
(181) Нигода не говори: "Никогда не говори никогда" )))
184 rendez-vous
 
09.06.14
12:48
(182) Вам надо перейти дорогу. Начнете ли вы движение с левой ноги?
185 ДемонМаксвелла
 
09.06.14
12:48
(183) точно бот. вошел в рекурсию ))
186 opty
 
09.06.14
12:51
(184)
"Я не задумываюсь об этом"
Дальше ... :)
187 Separator
 
09.06.14
12:53
(184) А как выбор ноги отразится на результате?
188 rendez-vous
 
09.06.14
12:58
(186) Сделайте, пожалуйста, выбор. Правая или левая нога.
189 acsent
 
09.06.14
12:59
(188) Правая
190 Separator
 
09.06.14
13:00
(188) Руководствуясь какими параметрами, я должен сделать выбор?
191 bolder
 
09.06.14
13:01
(24) Не прав.Два плюс два умножить на два будет 8.
Ps.Калькулятор Citizen)))).
Калькулятор Windows.))))
Имхо, Microsoft опять пере мудрили)))))))
192 rendez-vous
 
09.06.14
13:01
(190) Никакими. Просто сделать выбор. Человеку это не составит никакого труда.
193 opty
 
09.06.14
13:01
(188)
"Не вижу смысла"
194 Separator
 
09.06.14
13:02
(192) Хорошо, правила я определю сам. Назовите любое число, на основании которого я сделаю свой выбор.
195 bolder
 
09.06.14
13:03
(94) зачем тогда хардовые нейросети? Чем биологические хуже?
196 rendez-vous
 
09.06.14
13:03
(193) Вы - компьютер. )))
197 rendez-vous
 
09.06.14
13:04
(194) Вопросы задает экзаменатор. Испытуемый просто отвечает.
198 ДемонМаксвелла
 
09.06.14
13:05
(195) медленее
если удастся сделать хардовую железку с таким же количеством элементов и связей, как в мозгу, и разумеется упорядоченную не хуже, она будет работать намного быстрее

да и биологию люди недостаточно хорошо знают, чтобы делать нечеловеческий мозг
199 rendez-vous
 
09.06.14
13:07
(194) Зачем вам число. Чтобы инициализировать генератор?
Считайте, что он у вас инициализирован.
Потом, вы же можете обращаться к random.org
У вас может быть специальная плата. Ничего не изменится.
200 Separator
 
09.06.14
13:08
(197) Вы не предоставляете мне достаточных начальных данных для правильного ответа. Ваш вопрос пока звучит как "Сколько?". На этот вопрос я должен ответить "10"?
201 rendez-vous
 
09.06.14
13:09
(189) Выберите ногу, которой вы сделаете следующий шаг. Правая или левая?
202 Separator
 
09.06.14
13:09
(199) Число мне для того, чтобы выбрать, "правая" или "левая", а не для инициализации генератора. Выбор будет строго детерминирован.
203 rendez-vous
 
09.06.14
13:10
(202) Вы - компьютер. )))
204 Separator
 
09.06.14
13:14
(203) Вот вы и ошиблись! (у меня даже паспорт есть)
Т.е. вы не смогли заставить живое существо написать программу.
205 Separator
 
09.06.14
13:17
(203) Да! И вы не годитесь на роль экзаменатора. Вы провалились.
206 rendez-vous
 
09.06.14
13:18
(204) Не имеет никакого значения, что вам, человеку, удалось "закосить" под компьютер. Тест Тьюринга это никак не учитывает. (И это правильно люди могут многое.) Вы лучше скажите, как компьютеру удасться "закосить" под человека? Как компьтер сможет меня убедить в своей человечности? Как он пройдет мой тест?
207 Separator
 
09.06.14
13:22
(206) Я не косил под компьютер, я не хотел писать программу. Компьютер не может, по вашему, целеполагать. Я свою цель выполнил - не написал программу ))).
Т.е. "ваш тест" некорректен.
208 opty
 
09.06.14
13:24
(206) Тест Тьюринга в общем не ставит задачи "закосить" , это профанация.
Он состоит в том что бы дать ОСМЫСЛЕННЫЕ ответы на вопросы , поддержав таким образом беседу
209 ДемонМаксвелла
 
09.06.14
13:25
(206) компьютер обидится, что ты его не признал человеком,  придет к тебе домой подволакивая левую заднюю ногоруку, прострелит ногу, прицелится в голову... потом не станет стрелять, развернется и уйдёт. Такой тест устроит?
210 furyk33
 
09.06.14
13:28
Мне на ум приходят три вещи, которые не доступны и никогда не будут доступны компьютеру - это сознание, чувства и ошибки. Система принятия решений описана логикой, которую в компьютер заложит программист. Если "ИИ" совершил ошибку то это не он сделал, а программист который заложил неверную логику. Компьютер не может любить, так как любовь будет заложена по каким то критериям отбора качеств, компьютер не может спать и видеть сны и т.д.

Мто мелкий шажок ничего особо не представляющий.
211 МастерВопросов
 
09.06.14
13:31
(206) "Вы лучше скажите, как компьютеру удастся "закосить" под человека? Как компьтер сможет меня убедить в своей человечности?"

см (46)

Формат проведения соревнования
Судья (человек) взаимодействует с двумя компьютерами. Судья задает вопросы и получает ответы. Но один из компьютеров отвечает на вопросы с помощью системы искуственного интеллекта, а другой посылает ответы человека. На основании ответов судья должен решить, какой из компьютеров "управляется" интеллектуальной системой, а какой - человеком. Если судья не может определить, какой из его виртуальных собеседников программа, а какой - человек, то программа считается прошедшей тест. Обычно общение заключается в обмене текстовыми сообщениями.

===========

т.е. судья должен правильно определить где ИИ, а где человек. Если судья ошибся, или затрудняется с отчетом, значит ИИ прошел тест.
212 МастерВопросов
 
09.06.14
13:32
(211) "затрудняется с отчетом" UPDATE to -> "затрудняется с ответом"
213 acsent
 
09.06.14
13:34
(210) А как же самообучаемые нейронные сети и генетические алгоритмы???
214 acsent
 
09.06.14
13:34
(210) ты просто привык программировать в парадигме Если ... То
215 ДемонМаксвелла
 
09.06.14
13:34
(210) а теперь то же самое на языке формул, а то я не понял тебя
216 Separator
 
09.06.14
13:35
(210) Давайте поговорим о душе у ИИ!!
217 ДемонМаксвелла
 
09.06.14
13:35
(210)+ всмысле докажи свои утверждения как теорему
218 opty
 
09.06.14
13:35
(210) Одни эмоции :)
219 opty
 
09.06.14
13:36
(216) Четкое , формальное определение понятия "душа"
220 rendez-vous
 
09.06.14
13:37
(211) Вы забыли, что человек при этом "играет" за меня. Т.е. всеми силами старается убедить меня, что он человек.
таков был смысл игры в "мальчики-девочки", которая послужила прототипом для Тьюринга (Он сам в нее очень любил играть).
221 rendez-vous
 
09.06.14
13:41
(208) Я предложил тест, который копьтер не пройдет, а человек пройдет.
222 opty
 
09.06.14
13:42
Почитай про "Китайскую комнату"
Также тест Тьюринга явно бихевиористичен - он лишь проверяет, как действует субъект. Машина, проходящая тест, может имитировать поведение человека в разговоре,  следуя механическим правилам.

В общем так его боты и проходят , демонстрируя достаточную способность к накоплению , и выборке информации , что является базовыми компонентами интеллекта (не всеми)
223 rendez-vous
 
09.06.14
13:43
(222) Мой тест для компьютера непроходим. Попробуй доказать обратное.
224 acsent
 
09.06.14
13:43
(223) А что за твой тест?
225 rendez-vous
 
09.06.14
13:45
(224) Я его только что приводил. Правая нога, левая нога.
226 acsent
 
09.06.14
13:46
(225) И что бот не сможет выбрать правую или левую ногу? или как?
227 opty
 
09.06.14
13:46
(225) ГСЧ
228 rendez-vous
 
09.06.14
13:46
(227) Я порошу сделать следующий шаг. ГСЧ?
229 acsent
 
09.06.14
13:47
(226) или ты думаешь он не поймет что ты его просишь сделать выбор?
230 opty
 
09.06.14
13:47
Человек кстати может быть амбидекстром :))
231 opty
 
09.06.14
13:48
Без проблем , а потом докажи что чел не хочет попрыгать . Хочется понимаешь ли
232 rendez-vous
 
09.06.14
13:49
(231) Еще раз. В тесте Тьюринга человек мне помогает. Не забывай.
233 opty
 
09.06.14
13:50
(232)
Где это написано в определении теста Тьюринга ?
На твой вопрос можно привести десятки осмысленных ответов
234 Separator
 
09.06.14
13:51
(228) Ок, 1-й раз "правая нога"
2-й раз "правая нога"
Предвосхищая вопрос - да, я прыгаю на одной ноге.
Дальше.
235 rendez-vous
 
09.06.14
13:53
(233) В этом его смысл. Изначально это была игра, где мальчик пытается доказать, что он мальчик, и девочка пытается доказать, что она мальчик. Или наоборот.
236 opty
 
09.06.14
13:53
Главный косяк теста Тьюринга что судья интерпретирует ответы в рамках своего собственного тезауруса . То есть "помогает" компьютеру пройти тест .
То есть наблюдатель (в данном случае судья) влияет на объект исследования
237 rendez-vous
 
09.06.14
13:53
(234) Нет. Человек так делать не будет. Он со мной сотрудничает.
238 opty
 
09.06.14
13:53
(235) Это ты сказал . В определении теста такого нет .
Пруф
239 opty
 
09.06.14
13:58
Кстати гугол тесть "ног" проходит :)

если в поиск ввести
"первый шаг с левой ноги второй шаг с"
Первый же ответ
"а второй шаг с правой ... "
240 opty
 
09.06.14
14:00
Работу гугля можно в первом приближении интерпретировать как работу "китайской комнаты"
241 rendez-vous
 
09.06.14
14:02
(239) Ну зачем так примитивизировать?
Я привожу тест "ног", как пример. Конкретно этот тест уже скопрометирован.
Если меня посадят экзаменатором, я придумаю новый, нескопрометированный тест такого же типа.
242 Separator
 
09.06.14
14:03
(237) В игре "мальчик-девочка" человек будет пытаться вас запутать. А вы и запутались )))
243 opty
 
09.06.14
14:04
(241) Китайская комната ответит . Ведь ограничений на объем хранимой компьютером информации нет , по крайней мере в условиях теста . Где то кто то подобный вопрос когда то задавал . Есть и ответ :))
244 opty
 
09.06.14
14:07
Просто когда создавался тест Тьюринга , до концепции китайской комнаты

1. Не додумались
2. Даже в мечтах не могли представить себе базы данных в десятки и сотни террабайт ("Никогда не говори никогда")
245 rendez-vous
 
09.06.14
14:09
(239) Не будем переходить через дорогу, спустимся по лестнице.
"первый шаг с левой ноги вниз второй шаг с"
... и гугл сломался
246 Пушкин
 
09.06.14
14:09
Подростки стали настолько тупыми, что их уже не отличишь от чат ботов!!! Ура товарищии, будущее наступило!!!

Это значительное достижение!
247 opty
 
09.06.14
14:10
Таким образом можно говорить о том что ИИ , по крайней мере в узкопрофильных областях уже создан

Современные комплексы
1. Могут успешно его имитировать . Если что выглядит как утка , ходит как утка , крякает как утка - это утка
2. В отдельных областях (распознавание лиц , игры) уже полноценно выполняет функции ИИ
248 Пушкин
 
09.06.14
14:10
Разговор с тупой блондинкой наверное определит её как программу! :)
249 opty
 
09.06.14
14:12
(245) Бррр

"Лево-зеленое прыгнуло в ширину мокро ..."
Тут и у человека мозги сломаются
250 rendez-vous
 
09.06.14
14:13
(243) Не ответит. У меня шагов будет не два. Сколько клеток на шахматной доске? Всего 64. А сколько вариантов? Ни в какую базу не влезет, принципиально.
251 Zixxx
 
09.06.14
14:15
Полная лажа, как ИИ может обладать полом, че на хромосомах что ли как-то замутили ИИ, гармоники подбавляют? Почему ИИ необходимо обучать что он любит гамбургеры, он сам себя может мыслить?

Мто мелкий шажок ничего особо не представляющий.
252 opty
 
09.06.14
14:15
(250) Вот уж не надо про шахматы , чел давным давно сливает компьютеру вчистую . Даже рядовая персоналка уложит чемпиона мира без проблем
253 Jump
 
09.06.14
14:16
(180)Невозможно построить диалог в котором собеседник будет отвечать только да или нет.

Можно заставить собеседника отвечать да или нет, а вот диалог построить так невозможно.
254 rendez-vous
 
09.06.14
14:17
(252) Ну ты же говоришь про большие базы данных.
Можно ли создать когда-либо базу данных всех возможных партий в шахматы?
255 opty
 
09.06.14
14:18
(254) А зачем ? Альфу-бету никто не отменял

Извини , но ты похоже совсем не куришь вопрос который обсуждаешь .

И напоминаю про пруф .
256 MSII
 
09.06.14
14:20
(244) террабайт - это что-то связанное с от терра инкогнита? :)
257 Jump
 
09.06.14
14:21
(247)"Таким образом можно говорить о том что ИИ , по крайней мере в узкопрофильных областях уже создан " - не может быть создан интеллект в какой то области.
Интеллект либо есть, и применим в любой области, либо его нет.
258 Jump
 
09.06.14
14:21
(254)А в чем проблема? Число то конечно.
259 rendez-vous
 
09.06.14
14:22
(255) Это ты не куришь, уж извини. Ты говорил про базу в которой будут ответы на все вопросы. Потому что она большая.
Я придумаю тест из 64 шагов, и никакая база с ним не справится. А любой ребенок - легко.
260 rendez-vous
 
09.06.14
14:24
(258) Только оно сильно превышает современную оценку количества атомов во вселенной. Где будете базу хранить? В параллельной вселенной?
261 opty
 
09.06.14
14:24
(257)
Интеллект - это способность к познанию , обучению , логическому и абстрактному мышлению , накоплению запоминанию и анализу информации .

Нигде не написано что он должен быть всеобъемлющим , или полноценным
262 opty
 
09.06.14
14:25
(259) Для победы в шахматах (или прохождения теста Тьюринга) совсем не обязательно перебирать ВСЕ позиции
263 wt
 
09.06.14
14:26
Вот когда две программы между собой оборжут третьего, а тот будет являться человеком. И коллеги человека с удовольствием примут этот юмор, и человек не обидится.
Вот тогда тест Тьюринга будем считать состоявшимся.
264 Jump
 
09.06.14
14:27
(260)"Только оно сильно превышает современную оценку количества атомов во вселенной. "
Не может такого быть.
Количество неких сущностей в бесконечности сравнить с конечным числом не думаю что возможно, а однозначно сказать что их меньше, не очень умно.
265 rendez-vous
 
09.06.14
14:27
(262) Только что, ты утверждал обратное. База данных. В ней все вопросы. В ней все ответы.
266 rendez-vous
 
09.06.14
14:29
(264) Тем не менее, существуют научные представления о количестве материи во вселенной.
267 opty
 
09.06.14
14:30
(265) Когда ?
гуголь кстати использует очень совершенные алгоритмы выборки из базы данных и никогда не выбирает все
и кстати на (245) гуголь то же правильно отвечает первая ссылка на чего то про шаолинь "потом вверх идет правая нога ..." :)
268 opty
 
09.06.14
14:31
(266) Это прикол такой на вопросы не отвечать , и игнорировать их ?
269 acsent
 
09.06.14
14:34
(268) Он бот )))
270 opty
 
09.06.14
14:35
(269) Неее ... Вероятнее блондинка
271 f_vadim
 
09.06.14
14:35
Kill all humans!

Скоро ждать Т1000, скайнет и конец челов.
272 rendez-vous
 
09.06.14
14:36
(267) Мы спускаемся по лестнице. Ты не забыл? Какой-такой вверх?
273 Jump
 
09.06.14
14:38
Объясните мне пожалуйста про тест левой и правой ноги, не понял в чем суть, и как он выглядит.
274 opty
 
09.06.14
14:38
(272) "первый шаг с левой ноги вниз второй шаг с"

Где лестница ?
275 acsent
 
09.06.14
14:39
(273) компьютер должен угадать следующий шаг
Первый с правой, второй ....  с левой
276 rendez-vous
 
09.06.14
14:40
(273) Говорю испытуемому, что ему надо перейти через дорогу. И предлагаю сделать выбор ноги, с которой он начнет движение. Потом предлагаю сделать следующий шаг. И т.д.
277 opty
 
09.06.14
14:42
Если гуглю задать вопрос
"первый шаг по лестнице с левой ноги вниз второй шаг с"
Одна из первых же ссылок про степ-аэробику
"второй – шаг правой ногой на ступеньку ..."

Вполне осмысленный ответ
278 opty
 
09.06.14
14:43
(276) Ссылка будет ? Или ты троллишь ?
279 MSII
 
09.06.14
14:43
(276) Толково. На вопрос о третьем, максимум четвертом шаге человек тебя обматерит и закончит общение, а бот будет усердно продолжать. :)
280 acsent
 
09.06.14
14:43
Гугл все таки не ии, а просто выборка из огромной бд
281 rendez-vous
 
09.06.14
14:43
+(276) Можете сами убедится, что ГСЧ здесь не сработает. opty утверждает, что гугл может все и гугл здесь сработает.
Но вы его не слушайте, он просто любит спорить.
282 Jump
 
09.06.14
14:43
(276)ну допустим я не смогу ответить на такой вопрос достоверно. Я такой информацией не располагаю на даныный момент, поэтому выбор ноги произойдет в момент когда я начну переходить дорогу.

Машина ответить сможет, ибо запрограммирована, но это уже не интеллект получается.
283 rendez-vous
 
09.06.14
14:44
(278) Ссылка на что?
284 opty
 
09.06.14
14:44
(280) см (240)
285 rendez-vous
 
09.06.14
14:45
(282) Я вас попрошу сделать выбор. Вам это не составит труда. Машина будет в тупике.
286 opty
 
09.06.14
14:45
(283) см (238)
ты явно не гугл , по крайней мере с точки зрения памяти :)
287 opty
 
09.06.14
14:46
(285) Не будет

Она (как и человек) не на допросе

"без разницы"
"Когда как"
"правильно укажет ногу"
288 rendez-vous
 
09.06.14
14:47
(286) В салонной Imitation game, действительно, каждый старался экзаменатора запутать. Ты победил. Успокойся.
289 opty
 
09.06.14
14:48
(288) Ну то есть базовое утверждение не верно . Следствия следовательно такого же плана
290 opty
 
09.06.14
14:49
(288) Я спокоен , с эмоциями у ИИ пока туговато
291 rendez-vous
 
09.06.14
14:50
(287) Хорошо. Я заранее объявляю условия. Отказ сотрудничать - тест не пройден. Выбираем добровольцев-людей, которые будут со мной сотрудничать. Как машина сможет ввести меня в заблуждение?
292 opty
 
09.06.14
14:53
(291) Тогда и человек и машина будут тупо отвечать 64 раза
"правая" "левая" :)
293 rendez-vous
 
09.06.14
14:58
(292) Первый шаг сделать легко и человеку и машине.
ГСЧ - рулит. А вот второй? Как машина догадается, что после правой идет левая? ГСЧ не поможет. Попробуйте включить абстрактное мышление. Я не буду задавать в точности этот тест. Я задам подобный, которого нет нигде, потому что я его только что выдумал. Там может быть больше двух вариантов выбора на каждом шаге.
294 opty
 
09.06.14
14:59
(293) Китайская комната может , гуголь это доказывает , хотя на это и не заточен
295 Jump
 
09.06.14
14:59
(285)Просто выбор наугад?
Да легко, выберу например правую.
Машина выберет еще легче.
296 opty
 
09.06.14
15:00
Просто в те времена когда тест Тьюринга создавался считалось что имитировать интеллект в разговоре не возможно . Возможно . Уже несколько лет как .

А далее уже вопрос философский - является ли некая система успешно имитирующая интеллект интеллектом . И если да то до какой степени
297 Jump
 
09.06.14
15:04
(293)А зачем машине догадываться, она вполне может иметь такую информацию - что после правой чаще всего идет левая.
Или банально смоделировать ситуацию хождения двумя ногами.
298 opty
 
09.06.14
15:06
+(296) ИМХО - является (про утку было выше) .
Ну а то что она имитирует интеллект на принципах совершенно отличных от работы человеческого мозга (выборка из огромной БД , алгоритмы отсечения , ГСЧ-неопределенность и все такое) совершенно не относится к условиям теста
299 opty
 
09.06.14
15:09
(297) да даже моделировать не надо .
Выбираем из базы схожие вопросы , получаем схожие ответы .
В 80% случаев ответов после правой идет левая и наоборот . Обыкновенная статистика .
Даже на тупой вопрос "А потом" будет дан осмысленный ответ , ибо строить трендовую тенденцию умеет даже эксель :)
300 Separator
 
09.06.14
15:13
(291) " Я заранее объявляю условия. Отказ сотрудничать - тест не пройден."
Это называется - подогнать под ответ!

В исходном тесте Тьюринга о таком условии не слова. ИИ _не_обязан_(!!!) с вами сотрудничать. Только беседа.
301 Separator
 
09.06.14
15:16
(291) А то "научить программированию" вы можете любого, а разговаривать с ним только после "сыворотки правды"?
Хороши педагогические приемы!
(-Да муха, я, муха, только по почкам не бейте!)
302 Jump
 
09.06.14
15:18
Тест на правую левую ногу в итоге полный ноль.

Во первых для человека он затруднителен, по крайней мере при такой постановки вопроса.
Человек  понимает что если первый шаг сделан с левой ноги, то следующий возможно будет с правой, а может и опять же с левой.

Машина будет в такой же ситуации что и человек, но по другим причинам.
Хотя если у нее будет соответствующая информация в базе она вполне сможет давать более менее предсказуемые ответы.

В общем тест на уровне гадания на кофейной гуще.
303 Jump
 
09.06.14
15:20
(291)В таком случае никак, даже вопросы задавать не надо.
Есть факт сотрудничества - человек.
Отказ - значит машина.
Только какой смысл в этом?
304 Партизан
 
09.06.14
15:22
У машины нет связности с контекстом (предыдущими предложениями). Даже автоматические переводчики, которые совершенствуются не одно десятилетие, до сих пор не научились переводить в контексте текста.
305 Партизан
 
09.06.14
15:23
(303) отказ обосновать решение (неважно правильное или нет) 2+2*2 - машина.
306 Партизан
 
09.06.14
15:24
+(305) хотя любой второклассник это сможет сделать
307 Jump
 
09.06.14
15:26
(305)Не понял, ты утверждаешь что по факту отказа от обоснования можно сделать вывод о том что собеседник машина?
Я тоже могу отказаться обосновывать.
308 acsent
 
09.06.14
15:27
(304) ПОКА нет, но разработки в эту сторону ведутся
309 Партизан
 
09.06.14
15:27
(307) да, вместо этого, бот будет нести всякую чушь, далекую от контекста
310 opty
 
09.06.14
15:30
(309) См (236)
Именно это позволяет современным ботам достаточно успешно проходить тест Тьюринга
311 Pasha
 
09.06.14
15:33
Не всякий прогресс есть добро.
И так уже выросло поколение жертв автозамены слов в андроиде...
НИИ по разработке искусственного интеллекта взорвать, изобретателей на лоботомию

Скоро ждать Т1000, скайнет и конец челов.
312 rendez-vous
 
09.06.14
15:33
(307) Это будет означать, что ты не доказал, что ты человек. Но нас это не интересует. Нас интересует чтобы машина не доказала, что она человек.
313 rendez-vous
 
09.06.14
15:34
(311) Не переживай. ИИ не изобретут.
314 Партизан
 
09.06.14
15:34
(300) судья не психиатр, чтобы беседовать с психически больным ИИ (ботом, которые несет всякую чушь типа "потому что Гладиолус")
315 opty
 
09.06.14
15:35
(313) УЖЕ .
У тебя есть цифромыльница ?
316 Партизан
 
09.06.14
15:36
(310) давай ссылку на такого бота
317 opty
 
09.06.14
15:36
(316) хотя бы нулевой пост :)
318 Партизан
 
09.06.14
15:37
(315) нахождение экстремума корелляционной функции не есть ИИ (если ты про нахождение лиц)
319 Партизан
 
09.06.14
15:38
(317) в новоястях нет ссылки на бота, все ссылки на ботов которые выдает гугл, с треском проваливаются на первых-же вопросах
320 opty
 
09.06.14
15:41
(318) Это один из компонентов , еще лет 15 назад считалось не разрешимой без полноценного ИИ .
Сейчас рядовая мыльница не просто распознает абстрактное лицо , но и узнает конкретное лицо (моя по крайней мере может) и даже выражение лица
321 opty
 
09.06.14
15:41
(319) Ну пообщайся (на английском правда)
http://www.cleverbot.com/
322 Партизан
 
09.06.14
15:43
(320) лет 15 назад просто не было необходимых вычислительных мощностей, не более того, а так все решаемо без ИИ.
323 Separator
 
09.06.14
15:43
(312) Это означает, лишь ,что тестирующий, применяя свою методику, не может дать ответа. Т.е. методика не работает.

Ведь, согласно вашей методике, вы же записали всех нас в боты!
Мне кажется, или что-то здесь не так?
324 Партизан
 
09.06.14
15:43
(321) на русском давай, минь инглиш бельмем.
325 opty
 
09.06.14
15:44
(318) Ты возможно путаешь ИИ и ИР .
До ИР действительно очень далеко .
Даже в профильной западной литературе различаются понятия

ИИ - AI (artificial intelligence)
ИР - SAI (strong artificial intelligence)
326 opty
 
09.06.14
15:44
(324) А это не проблемы ИИ , а твои :)
327 rendez-vous
 
09.06.14
15:44
(300) ИИ будет пытаться со мной сотрудничать. Потому что я так задал условия теста. Его задача - убедить меня, что он человек. В этом смысл теста Тьюринга.
Сможет ли ИИ обмануть человека. Вот смысл теста. Мой ответ - нет не сможет. Разумеется, если этот человек не будет готов обманутся.
Стратегию действий человека, желающего разоблачить машину, я описал. Человек не даст себя обмануть ИИ. Он никогда не назовет ИИ человеком. При этом некоторых недобросовестных (!) людей он идентифицирует как ИИ. Ну и что? Человек может притворится ИИ? Да человек вообще много чего может.
328 opty
 
09.06.14
15:45
(322) если что выполняет функции доступные интеллекту , то это интеллект (утка :)

Как это реализовано - значения не имеет
329 Jump
 
09.06.14
15:46
(312)А с чего мне нужно доказвать что я человек?

И самое главное - задача теста тьюринга четко определить человек или машина разговаривает с тобой.
330 opty
 
09.06.14
15:46
(327) завязывай с темой сотрудничества . Сотрудничество НИГДЕ не прописано в условиях теста
331 Партизан
 
09.06.14
15:47
(329) доказывать не нужно, ИИ нужно связно общаться и обосновывать
332 Jump
 
09.06.14
15:48
(314)Ну зачем же так,
допустим задача обосновать почему 2+2=4
Человек может обосновать так - на основании собственного нажитого годами опыта, и интуиции.

В машину можно заложить аналогичный ответ.
333 rendez-vous
 
09.06.14
15:49
(330) Тебе главное чтобы кто-то, что-то написал?
А своей головой подумать? Условия прописывали люди верующие в возможность создания ИИ. "Ах обмануть меня не трудно..."
334 Серый Пес
 
09.06.14
15:50
(327) Ты не вкурил условия теста.
У тебя есть диалог с двумя собеседниками. По итогам ты:
- либо объявляешь одного из собеседников (не двух, а только одного!) компом,
- либо признаешь, что не видишь разницы.

Если не видишь разницы - комп победил. Если ты не угадал в собеседнике компа (то есть назвав человека компом) - комп победил.

При твоей стратегии поведения экзаменатора почти все боты пройдут тест :))))))))))))
335 Сержант 1С
 
09.06.14
15:50
судя по хабру это не "шажок" а жульничество
336 Separator
 
09.06.14
15:51
(327) Это уже не тест Тьюринга, а тест Рендевуза (не надо подменять понятия). А этот тест еще никем не проверен на пригодность.
337 acsent
 
09.06.14
15:52
cleverbot не проходит тест по правой левой ноге
338 acsent
 
09.06.14
15:52
Choose the leg you start walk with.
I don't know.
Choose left or right.
Right and left serah kau baaahhh ape urusannya sama aku.
339 Партизан
 
09.06.14
15:52
(332) ты еще одно действие пропустил, самое главное, и вот в попытке выяснить почему так, а не иначе получишь ответ "потому что Гладиолус", при том, что бот представляется как высшее образование, окончивший московский физико-математический и 5 по математике.
340 rendez-vous
 
09.06.14
15:54
(334) Во-первых не все боты пройдут тест, а только те у которых в паре будут недобросовестные люди. Те, которые будут изображать из себя ИИ.
Во-вторых, подумай о том, кто писал правила (это не Тьюринг, если что). "Ах обмануть меня не трудно. Я сам обманываться рад".
341 Jump
 
09.06.14
15:57
(339)Блондинка отучившаяся в ВУЗе пять лет, за деньги родителей, так же завалится на этом тесте.
Так что непригодно.
342 Серый Пес
 
09.06.14
15:57
(340) Да, правила теста дают некоторые преференции компу.
Но твой алгоритм не дает точного ответа даже при максимально лояльном к тебе собеседнике-человеке. Именно потому что стратегия "все на красное" (вы все боты и не лечитесь %) ) тут не работает.
343 Jump
 
09.06.14
15:59
(340)Что значит недобросовестные люди, и что значит изображать  из себя ИИ?
Ты задаешь глупые воросы
На вопрос с какой ноги начать переходить дорогу,  проще ответить машине чем человеку.
344 Партизан
 
09.06.14
16:00
(341) у блондинки ответы будут совем другие, будет хоть какая-то связность и хоть какое-то обоснование (пусть даже неверное)
кроме того, боты никогда не признают свои ошибки.
345 opty
 
09.06.14
16:02
(338) Очень по человечески проходит :)
В условиях не сказано что бот должен давать ПРЯМОЙ ответ на вопрос . Беседа должна быть
346 Серый Пес
 
09.06.14
16:02
(344) Эээ... почему боты не признают ошибки?
347 opty
 
09.06.14
16:02
(333) Если нет четких граничных условий о чем тогда вообще разговор ?
348 f_vadim
 
09.06.14
16:02
(346) написал, что ошибся - не значит признал :)
349 Jump
 
09.06.14
16:03
(344)
Было как то видео про блондинку и вуз - ну вообще никакой свазанности ответов.

И почему ты решил, что боты не признают собственных ошибок?
Трудно научить?
350 Партизан
 
09.06.14
16:03
(343) человек ответит "с любой, с какой удобно"
(346) хотя-бы потому, что нет связности
351 Партизан
 
09.06.14
16:04
(349) комедия? А в реальности? ну вот и научи.
352 Jump
 
09.06.14
16:05
(350)Как ответит человек - трудно предсказать.
Он может назвать конкретную ногу, может сказать с любой, может сказать что затрудняется ответить, и пространно описать почему.
353 Серый Пес
 
09.06.14
16:05
(350) Бот с легкостью ответит, что "извини, братан, попутал. Конечно же, небо не красное, а яичница". Кстати, и куда делась связность, была же....
354 rendez-vous
 
09.06.14
16:06
(342) Докажи, каким образом ИИ удасться меня обмануть.
Приведи набросок программы, которая будет проходить мой тест.
355 Партизан
 
09.06.14
16:06
(352) если спросить "почему" на ответ ИИ и человека на вопрос "с какой ноги" ответы будут различными, человек будет отвечать, ИИ уйдет совсем в другую степь
356 opty
 
09.06.14
16:08
(354) В дело пошел аргумент "Сперва добейся" ? :)
357 rendez-vous
 
09.06.14
16:09
(352) Человека можно попросить сделать выбор. И он сделает, если захочет. Ему не трудно.
Я прошу двадцать раз сделать элементарный выбор, собеседник уклоняется. Вывод - либо он издевается, либо он программа.
358 Партизан
 
09.06.14
16:10
(353) не ответит, потому что даже не дойдет до этого уровня, все время будет скакать с темы на тему.
359 Railways
 
09.06.14
16:11
2. Ещё один камень в стене, но ещё строить и строить.

Как магистр интеллектуальных систем считаю, что будущее ИИ напрямую сопряженно с достяжениями медицины в области исследований работы головного мозга хома сапиенса. Сейчсас это дисциплина развивается, но знаний о процессах явно не достаточно. Одно точно: нет модели, которая бы хотя бы на 10% иммитировала работу мозга человека. Многослойный персептрон, различные подходы к организации нейронных сетей и даже последние гибридные методы имеют крайне ограниченную область и узкую применения.

Ещё один камень в стене, но ещё строить и строить.
360 Партизан
 
09.06.14
16:12
+(357) да, особенно если еще и спросить ты стоишь на левой ноге, правая нога поднята, с какой ноги начнешь шаг?
361 blutang
 
09.06.14
16:13
В тесте Тьюринга человек определяет программа ему отвечает или человек. Речь не о том, когда человек начнет ошибаться и это станет доказательством ИИ, а о том, как часто он это начнет делать. Чем лучше программа, тем чаще ошибки. Но наличие ИИ у машины это не доказывает. Этот тест вообще как критерий ИИ непригоден. Он из серии "физики шутят".
362 Партизан
 
09.06.14
16:15
(361) наоборот, тем ошибки реже, ибо сейчас почти все ответы ошибочны
363 Серый Пес
 
09.06.14
16:16
(357) Вестимо дело, листинг экспертной системы я тебе сюда кидать не буду.
Но утверждений типа "программа не может сделать выбор" я так же не понимаю - что ей мешает-то?
364 rendez-vous
 
09.06.14
16:16
(361) Напротив, очень хороший тест. У человека есть 100% стратегия отсева программ.
365 Серый Пес
 
09.06.14
16:17
(364) Еще раз - стратегия "все на красное" не дает более 50% побед в данном случае.
366 rendez-vous
 
09.06.14
16:18
(363) То, что она программа. Я привел вроде бы убедительный пример, где ГСЧ (на любой основе) работать не будет.
367 Серый Пес
 
09.06.14
16:18
(366) Да вроде бы нифига не убедительный :)
368 Партизан
 
09.06.14
16:18
(363) отсутствие знаний и мышления. У экспертной системы пусть даже самой крутой и точной на входе исходные данные, на выходе - готовый ответ. Человек может обосновать решение, а экспертная система не может обосновать решение.
369 Серый Пес
 
09.06.14
16:19
(368) А мы не про обоснование, самоосознание и комплекс вины :) Мы именно про банальный выбор.
370 Jump
 
09.06.14
16:20
(368)Ну обосновать она его однозначно сможет, раз приняла такое решение.
Другое дело что обоснование будет достаточно странным для человека.
371 opty
 
09.06.14
16:20
(368) Реальный человек далеко не всегда . Подсознание никто не отменял :)
372 rendez-vous
 
09.06.14
16:20
(367) Переход через дорогу. Первый шаг - ГСЧ, ок.
Второй шаг - тоже ГСЧ?
373 Separator
 
09.06.14
16:20
(357) А если он - программа, и эта программа издевается?

Кстати, придумал: тест Тюинга должен проводится на языке, которым не владеет ни тестировщик, ни испытуемый человек - так будет гораздо веселее (со словарем). Думаю, на сегодняшний день, масса программ эту модификацию теста пройдет.
374 Партизан
 
09.06.14
16:21
(369) ну тогда нефиг ботам ИИ притворяться конкретным человеком, пусть притворяются черным ящиком, и люди собеседники тоже должны тогда притворяться черным ящиком, которыми на самом деле не являются ))
375 Серый Пес
 
09.06.14
16:21
(368) Кстати, эспертник даст с легкостью ответ на вопрос "С какой ноги". Их, собсно, у него будет ровно два (если словит контекст человека, а не сороконожки, конечно же).
А вот вопрос "почему?" породит новую ветку. Кстати, с некоей вероятностью из недр экспертника высыпется что-то связное.
376 rendez-vous
 
09.06.14
16:22
(373) Значит программе не удалось меня убедить. Тест не пройден. И зачем программе издеваться. С тем же успехом ее можно было просто не запускать. Я вопрос - тишина.
Еще вопрос - тишина. Вот оно -  настоящее издевательство.
377 Партизан
 
09.06.14
16:23
(370) да, я представляю, каким будет обоснование - в виде матрицы весовых коэффициентов, да? Человек никогда не даст обоснование в виде матрицы коэффициентов.
378 opty
 
09.06.14
16:23
(372) Да запросто

Вопрос к блондинке
- Какова вероятность встретить динозавра на Невском
- 50%
- ???
- Ну или встречу или нет
379 Jump
 
09.06.14
16:24
(357)"Я прошу двадцать раз сделать элементарный выбор, собеседник уклоняется. Вывод - либо он издевается, либо он программа."
Ты не все варианты учел, самый главный забыл - ты можешь поставить идиотский выбор - и человеку будет трудно сделать его, даже если он не издевается.
380 rendez-vous
 
09.06.14
16:25
(379) Зачем мне ставить идиотский выбор? С какой целью?
381 Серый Пес
 
09.06.14
16:25
(372) Ты никогда не занимался разработкой экспертных систем или систем с поддержкой контекста, как я вижу.

А кроме того, у тебя время теста ограничено. 5 минут, насколько я помню.
Есть вполне себе отличная от нуля вероятность, что за это время на массив вопросов "с какой ноги" даже прога на чистом ГСЧ ответит "с правой", "с левой","с правой", "с левой","с правой", "с левой", и тд :))))
382 Партизан
 
09.06.14
16:25
(378) ну вот даже в таких вопросах-ответах с блондинкой есть связность, а бот уйдет в другую степь.
383 Серый Пес
 
09.06.14
16:26
(377) Дык обоснование - это просто другой вопрос на самом деле. Или в условиях теста есть обязанность ИИ открывать непосредственно в диалоге особенности алгоритмов?
384 Jump
 
09.06.14
16:27
(372)
Ну допустим ты задал этот вопрос мне, я человек.

Первый шаг - не знаю, не уверен, зависит от ситуации.
Ну ладно, предположим с правой.

Второй шаг - я думаю, что по логике вроде как с левой,  если останавливаться не буду, но вдруг тут какой подвох
Поэтому ответ - опять же, не знаю, не уверен, зависит от ситуации, скорее всего с левой, но не факт.
385 rendez-vous
 
09.06.14
16:27
(381) Не примитивизируй. Тест приведен как базовый пример. Никто не мешает мне сделать более серьезный тест.
386 Jump
 
09.06.14
16:28
(380)Ну ты же заставляешь делать идиотский выбор с ногой.
Для человека это выбор из разряда идиотских.
Ты просишь однозначно назвать то что заведомо неизвестно.
387 opty
 
09.06.14
16:30
(382)

Вопрос к боту
- Какова вероятность встретить динозавра на Невском
- Я не разбираюсь в динозаврах
- А все таки
- Ну что ты пристал

Вполне в той степи :)
388 rendez-vous
 
09.06.14
16:30
(384) Ты с людьми, наверное, мало работал. Не все склонны к такой рефлексии. Абсолютное большинство спокойно отвечает (как вариант) "правая, левая, правая" не особо задумываясь.
389 Партизан
 
09.06.14
16:30
(383) не другой, это продолжение беседы в этом контексте. Это в интересах ИИ, т.к. отказ сотрудничества ведет к раскрытию и провалу.
390 Jump
 
09.06.14
16:31
В итоге - я считаю что тест Тюринга, это фигня.
Однако определить человек или машина я смогу.
А вот написать тест однозначно определяющий машина это или человек невозможно.
391 Серый Пес
 
09.06.14
16:31
(385) Ты слегка путаешь понятия. Сделать выбор между правой и левой программа может. Это не сложно. Сложно - делать этот выбор в контексте предыдущих вопросов. Но даже 15 лет назад, когда я этим занимался, такие задачи были решабельны.

То есть проблема не в метафизической силе воли. А в конкретной, математической задаче :))))
392 Jump
 
09.06.14
16:32
(388)Ну большинство это не все.
Да и не уверен насчет большинства.
Ответ будет зависеть от ситуации.
393 Separator
 
09.06.14
16:32
(376) Вообще-то в стандартной интерпретации теста Тьюринга надо отличить машину от человека по их ответам. Так вот, ваша методика, в этом случае, не сработает (если они оба будут издеваться).
394 Партизан
 
09.06.14
16:33
(386) на выбор с ногой есть конкретный ответ, на конкретный вопрос, см. (360). Бот не сможет дать ответа, человек всегда ответит верно
395 Jump
 
09.06.14
16:33
(391)Зато человеку трудно делать такой выбор.
396 Серый Пес
 
09.06.14
16:33
(389) Контекст один, вопрос другой. И на этот вопрос нужно отвечать так же, как и на первый - а не вываливать алгоритм получения первого ответа :))))
397 Jump
 
09.06.14
16:34
(394)Ответ на (360) - скорее всего с правой.
398 Партизан
 
09.06.14
16:34
(387) это ответил человек, а не бот, видно же сразу
399 rendez-vous
 
09.06.14
16:36
(386) Человеку это не сложно.
Никто не посчитает мои вопросы идиотскими.

"Здорово, приятель. Тут некоторые фрики утверждают что они создали ИИ. Если им удасться это доказать, они получат ящик пива. А если нет, ящик пива получим мы.
Теперь хорошая новость. Этот ящик - уже наш! Если ты просто будешь отвечать на мои вопросы. Когда я попрошу тебя сделать выбор, просто выбирай, не задумываясь."

Что здесь идиотского?
400 Серый Пес
 
09.06.14
16:36
(394) Вероятность корректного ответа бота зависит от того, насколько в его базе полно представлена информация о методиках ходьбы двумя ногами :)))))
401 Партизан
 
09.06.14
16:37
(400) чтобы покрыть все возможные вопросы, потребуется очень большая БД, и большое время для принятия решения, человек ответит мгновенно.
402 rendez-vous
 
09.06.14
16:39
(400) (401) Тест приведен для примера. В реальном испытании я придумаю другой тест. Абсолютно новый, нигде не опубликованый. Ни в какой базе его не будет.
403 Серый Пес
 
09.06.14
16:39
(401) Да, тут надо угадать с темами беседы :) Поэтому ход с "13-летним мальчиком" - это чит :)
404 Партизан
 
09.06.14
16:40
(402) давай ссылку, сейчас испытаем ))
405 Серый Пес
 
09.06.14
16:40
(402) И что? Эта неопубликованность как-то даст тебе гарантию, что как раз этого массива данных не будет в базе?
406 rendez-vous
 
09.06.14
16:40
(404) Какую ссылку? На что?
407 Серый Пес
 
09.06.14
16:41
(401) человеку нужно время на набитие ответа, кстати.
408 Jump
 
09.06.14
16:41
(399)"выбирай не задумыаяь" для меня это звучит как призыв к рандомным ответам, что в голову взбредет.
Правая, левая, левая, правая, правая, правая.
409 Separator
 
09.06.14
16:42
(399)
1) Ответ: "Какой я тебе, нах, приятель, алкоголик @#@#й. Мне твое пиво..." далее можно продолжить по вкусу.

2) А что, без подкупа уже никак? А давайте просто забашляем организатору теста, и он точно нам все скажет. А чё - нанотехнологии в действии!
410 Партизан
 
09.06.14
16:42
(403) 13й мальчик сможет решить и обосновать 2+2*2, а ИИ нет
(407) да, кстати, тогда хочу видеть сам процесс набора.
411 Серый Пес
 
09.06.14
16:44
Короче, эта стратегия 100% работает, когда и судья, и человек в тесте - один и тот же  rendez-vous :) В противном случае ни о каких 100% речи быть не может.
412 Серый Пес
 
09.06.14
16:45
(410)"да, кстати, тогда хочу видеть сам процесс набора."
Вот еще :) Так можно и вебкамеру над клавой попросить - чтобы видеть, пальцы там по клавишам бьют или манипуляторы :)
413 Партизан
 
09.06.14
16:47
(412) Это уже лишнее, а чо, программно нельзя выдавать символы последовательно со случайной задержкой?
414 Серый Пес
 
09.06.14
16:49
(413) Можно, конечно. Это просто помешает замаскировать время выбора ответа под скорость печати :)
415 wt
 
09.06.14
16:52
Было уже?
В чем цимус теста Тьюринга?

Что такое тест Тьюринга и почему его так сложно пройти?
http://www.aif.ru/dontknows/topic/1185905
416 Партизан
 
09.06.14
16:52
(409) это ответ человека, а не бота, видно же
417 opty
 
09.06.14
16:53
(398) Совершенно не видно
418 Separator
 
09.06.14
16:55
(411) Не выйдет, эти двое никогда между собою не договорятся.
419 IVIuXa
 
09.06.14
17:02
(0)
хммм :
"Согласно условиям теста Тьюринга, он считается пройденным, если программе удастся убедить в своей человечности хотя бы 30% судей в процессе 5-минутного текстового общения." - вывод ерунда ваш тест Тьюринга. Принцип евровидения.

Мто мелкий шажок ничего особо не представляющий.
420 Separator
 
09.06.14
17:03
(419) Критикуешь - предлагай!
421 Партизан
 
09.06.14
17:05
(417) видно, пообщайся с ботами.
422 IVIuXa
 
09.06.14
17:06
(420)
я не критикую - озвучиваю факты и выводы, кторые почкму то никто в упор не замечает.
423 Партизан
 
09.06.14
17:10
правильнее не 30%, а 50%
424 Separator
 
09.06.14
17:13
(422) Напомнило:
"Уж и так читаю, читаю... Эту... как ее... переписку Энгельса с этим... Как его — дьявола — с Каутским. —Позвольте узнать, что вы можете сказать по поводу прочитанного. —Да не согласен я. —С кем? С Энгельсом или с Каутским? —С обоими"
425 IVIuXa
 
09.06.14
17:15
(424)
Вся трагичность - в его правоте.
Сделаю вывод за вас.
426 Separator
 
09.06.14
17:17
(425) Спасибо. Воспользуюсь.
427 IVIuXa
 
09.06.14
17:21
(426)
http://default-environment-sdqm3mrmp4.elasticbeanstalk.com/

На втором предложении начал нести чушь.

А насчет предложить - можно в принципе заняться на досуге как нибудь... :)
428 wt
 
09.06.14
17:23
+(415) Повнимательнее почитал, что было сделано. Что делают программисты.
Складывается мнение, что идет блеф.
Тестом Тьюринга должен быть дан ответ - может ли машина думать?

А что происходит?  
"Программисты потратили также много времени на развитие персонажа с правдоподобными личностными качествами, а также улучшение «диалогового контроллера», который позволил «Евгению» более «человечно» вести разговоры. В дальнейшем Демченко и Веселов планируют сделать свое детище умнее и продолжить работу над улучшением логики разговора".

Это что логика разговора - признак ума? Это умело подобранные ответы и всё! Скайнет ещё подождет.
Моего ответа в опроснике нет. Развели яйцеголовых. Надо следовать конечной цели, а именно определить критерии мыслящей машины.
429 wt
 
09.06.14
17:24
(419) +1
430 IamAlexy
 
09.06.14
17:28
ну  и конечно же либеральные сми не могли эту новость пропустить...


Российский искусственный интеллект ОБМАНУЛ жюри теста Тьюринга

http://top.rbc.ru/society/09/06/2014/929457.shtml#xtor=AL-[internal_traffic]--[rbc.ru]-[main_body]-[item_12]
431 IVIuXa
 
09.06.14
17:29
Кстати кто то тут из волшебных в догонку теории эволюции похвалялся создать-смоделировать эволюционные природные условия для развития разумного человека - ждемс.
432 IVIuXa
 
09.06.14
17:31
(428)
с давних времен :)
существуют 2 лагеря писателей ИИ

1 - пытаются смоделировать в программе физическую работу мозга

2 - пытаются написать логико-философскую программу с кучей абстракций
433 Восстановленная Проц
 
09.06.14
17:56
Интересно, а сколько человек ту сможет пройти Тест Тьюринга?
434 Jump
 
09.06.14
18:03
(433)Некорректно поставлен вопрос.
Один и тот же человек может и пройти тест тьюринга, и не пройти.
435 rendez-vous
 
09.06.14
18:14
(433) Тест Тьюринга не для людей, а для программ.
436 acsent
 
09.06.14
18:16
(432) пока моделирование мозга глубоко в зачаточном состоянии. 100 нейронов - это ни о чем в голове человека их миллиарды
437 rendez-vous
 
09.06.14
18:21
(430) Что тебе не нравится в слове "обманул"?
Смысл теста Тьюринга - сможет ли машина обмануть человека.
438 acsent
 
09.06.14
18:23
(437) Обманул конечно имеет совсем другой оттенок смысла, чем прошел
439 rendez-vous
 
09.06.14
18:24
Самое смешное - что программа Евгений существует с 2011 года.
Уже три года, как она прикидывается 13-летним мальчиком на различных соревнованиях. Британские судьи - лохи.
440 Jump
 
09.06.14
18:28
Многое зависит от формы проведения теста.

Кто бы огласил сколько продолжался тест, ибо от продолжительности теста и количества вопросов напрямую зависит результат.

Я тоже могу написать крутую программу которая будет говорит "Привет, как дела"
Вот попробуй определи что это не бот, за 10 секунд задав один вопрос.
441 rendez-vous
 
09.06.14
18:29
(440) Вроде, несколько серий по 5 мин.
442 Jump
 
09.06.14
18:31
(441)Ну несколько серий - понятие растяжимое, да и сколько вопросов успевают задать в серии непонятно.
443 rendez-vous
 
09.06.14
18:33
(440) Нет. Надо написать, что у тебя папа-гинеколог и есть любимая морская свинка. И простые британцы сразу запишут тебя в человеки.
444 Jump
 
09.06.14
18:43
В любом случае вопроса который однозначно позволял бы идентифицировать машину нет.
А определить на вероятностях можно довольно легко.
Особенно если утверждается что это 13ний ребенок.
Вот например вопрос - столица австралиии - если собеседник ответит "незнаю" или "сидней", это нормально.
А вот если скажет "канберра" это уже подозрительно.
445 rendez-vous
 
09.06.14
19:26
(444) Почему подозрительно? У тебя в детстве не было карты мира?
446 rendez-vous
 
09.06.14
19:28
(444) Машина идентифицируется по отсутствию воли.
447 Восстановленная Проц
 
09.06.14
19:52
(435) - если человека примут за машину?
448 Jump
 
09.06.14
19:56
(445)Потому что большинство людей считает столицей сидней.
449 Jump
 
09.06.14
19:56
(446)Что такое воля?
450 acanta
 
09.06.14
19:59
(449) например если вопрос столица австралии - то плюнуть на чат и смотаться туда на выходные..
451 rendez-vous
 
09.06.14
20:09
(447) Для целей теста Тьюринга, это безразлично.
В этом нет ничего удивительного. Человеку нетрудно притвориться машиной.
452 Vol71
 
09.06.14
20:09

Ещё один камень в стене, но ещё строить и строить.
453 rendez-vous
 
09.06.14
20:09
(449) То, что не имеет причины.
454 Jump
 
09.06.14
20:13
(453)Т.е если я врежу по морде кому нибудь, просто так, без причины это будет проявлением воли?
Я походу безвольный человек, не бью людей без причины.
455 rendez-vous
 
09.06.14
20:14
+(453) Впрочем, это - отвлеченная философия. В контексте текущего разговора, воля - способность сделать выбор.
456 romix
 
09.06.14
20:19
Лунные и эйнштейновы ветки никогда не обходились без ботов.

Мто мелкий шажок ничего особо не представляющий.
457 Jump
 
09.06.14
20:19
(455)Я вообще то думал что это решительность.

Ну фиг с ним.
Только вот не сходится у тебя.
Ты сказал что машина идентифицируется отсутствием воли.
Если воля это способность сделать выбор, то тогда получается что машина идентифицируется неспособностью сделать выбор?

У машины с выбором наоборот все гораздо лучше чем у человека.
458 rendez-vous
 
09.06.14
20:20
(454) Безвольный человек и при наличии причины не сможет ударить.
459 rendez-vous
 
09.06.14
20:20
(457) Нет.
460 rendez-vous
 
09.06.14
20:21
(457) Машина не в состоянии сделать выбор.
461 Jump
 
09.06.14
20:22
(456)Да. есть тут один , появляется во всех лунных ветках, сыплет аргументами, аргументы других не слушает, явно бот :)
462 Jump
 
09.06.14
20:24
(460)Значит машина не способна играть в шахматы.
Там каждый ход приходится делать выбор.
463 rendez-vous
 
09.06.14
20:24
(462) Машина не играет в шахматы. В шахматы играет создатель программы.
464 rendez-vous
 
09.06.14
20:25
(463) Все выборы сделал он.
465 rendez-vous
 
09.06.14
20:34
(464) Если я предложу человеку:
А давай поразвлекаемся. Кони будут ходить, как слоны, а слоны, как кони.
С человеком мы сможем сыграть. А с машиной нет.
466 romix
 
09.06.14
20:51
(465) Корней Иванович Чуковский получится.
467 pavig
 
09.06.14
20:51
Очень понравился ответ.
УРА! Наконец-то!

Грядёт замена одинэснегам! Наконец-то!!!
468 opty
 
09.06.14
21:25
(463) Гы гы . Верх некомпетентности
469 Партизан
 
09.06.14
23:18
(468) программа только автоматизирует игру программиста без его участия.
Это все равно, что сказать, что 1С думает и ведет бухучет сама. Нет, 1С только взаимодействует с пользователем по строго заложенным алгоритмам.
470 opty
 
09.06.14
23:24
(469) Создатель программы НЕ играет в шахматы , создатель программы может вообще не уметь играть в шахматы хоть на каком то уровне , знания правил достаточно для написания движка весьма приличного класса
471 rendez-vous
 
09.06.14
23:32
(470) А кто играет в шахматы? Движок?
472 opty
 
09.06.14
23:33
(471) Движок
473 Партизан
 
09.06.14
23:33
(470) создатель программы знает алгоритм игры в шахматы и его автоматизирует с помощью компьютера. Без знания алгоритма, написания его на языке программирования и отладки (!) ничего не получится.
474 Партизан
 
09.06.14
23:35
(472) может-ли программа быть умнее программиста? Ситуация с ИИ говорит, что нет.
475 rendez-vous
 
09.06.14
23:37
(472) И движок делает выбор на каждом ходе?
476 opty
 
09.06.14
23:37
(473) Нет такого понятия как "алгоритм игры в шахматы" .
движок состоит из двух основных частей
Оценочная функция
И механизм перебора вариантов

(474) В шахматы ни один создатель шахматного движка не может потягаться со своим творением если он приличный программист и в курсе современных алгоритмов оптимизации перебора дерева вариантов и смог их реализовать
477 Партизан
 
09.06.14
23:39
(475) нет такого понятия "движок". Есть работающий алгоритм, заложенный программистом.
478 opty
 
09.06.14
23:39
(475) Естественно . он же не наугад ходит . Хотя ГСЧ иногда используется в условиях равной оценки разных позиций
479 Jump
 
09.06.14
23:40
(475)Насчет умнее сомневаюсь.
Но программа может производить вычисления быстрее программиста.
Для игры в шахматы этого достаточно.
480 opty
 
09.06.14
23:40
(477) Я много лет занимаюсь тестированием именно шахматных движков , и какое то время даже был завсегдатаем иммортала .
Правда последние пару лет забросил
481 rendez-vous
 
09.06.14
23:40
(478) Его выбор детерменирован?
482 Партизан
 
09.06.14
23:42
(476) это и есть алгоритм. Если программист будет строго следовать своему-же заложенному алгоритму, и будет делать перебор вариантов не с помощью компьютера, а вручную, на бумаге, оперируя такими же объемами массивов данных, как и его программа, то он ничем не будет отличаться от написанной им шахматной игры, единственное отличие, что будет это делать ооочень-очееееень медленно. Компьютер автоматизирует.
483 opty
 
09.06.14
23:42
Один из мистян автор шахматного движка мастерской силы , ЭЛО около 2400 , и одного из сильнейших в мире шашечных движков , причем в шашки на момент написания автор играть практически не умел
484 Jump
 
09.06.14
23:42
(481)Нет.
485 opty
 
09.06.14
23:43
(482) Для реализации такого алгоритма не обязательно уметь играть в шахматы
486 Ахмадинежад
 
09.06.14
23:44
трансгуманизм вот вам..
487 Jump
 
09.06.14
23:44
(481)
В общих чертах -
1) определяем все возможные ходы в текущей позиции.
2) оцениваем их
3) принимаем решении на основании оценки.
И так каждый ход
488 Партизан
 
09.06.14
23:44
(479) вот именно. Компьютер только автоматизирует алгоритм игры в шахматы, который полностью выполнить человеком ну просто нереально из-за больших объемов оперируемой информации и огромного количества вычислений.
489 rendez-vous
 
09.06.14
23:45
(484) Как нет? Выбор хода шахматным движком не имеет причины?
opty, это правда?
490 rendez-vous
 
09.06.14
23:46
(487) Выбор хода шахматным движком имеет причину?
491 opty
 
09.06.14
23:46
(488) Еще раз - нет понятия "алгоритм игры в шахматы"
492 rendez-vous
 
09.06.14
23:49
(491) Ну он не знает. Но это не принципиально. Есть алгоритм игры в чего угодно. Какая разница?
493 Jump
 
09.06.14
23:49
(488)Алгоритм довольно простой -
оценил ситуацию, сделал ход, подождал пока ход сделает противник, опять оценил ситуацию и сделал ход.
494 Партизан
 
09.06.14
23:49
(485) если программист закладывает в программу свой алгоритм игры в шахматы, а не чужой (чиста кодер), в котором он ничего не понимает - то играет в шахматы программист, а не движок.
495 opty
 
09.06.14
23:49
(490) Имеет . дальше что ?
далеко не всегда в одной и той же позиции тот же шахматный движок сделает один и тот же ход .
Зависит от многих факторов .

Если найден форсированный вариант это одно , если нет другое
496 Партизан
 
09.06.14
23:50
(491) нет алгоритма - нет программы
497 Jump
 
09.06.14
23:50
(489)Что значит не имеет причины, естественно имеет.
Он не задан заранее.
Т.е до возникновения ситуации никто не знает как сходит движок.
498 opty
 
09.06.14
23:52
(494) Программист закладывает в движок механизмы и реализует алгоритмы . Играет движок

Еще скажи что едет автослесарь а не автомобиль .
Или скажем открытие ученого вовсе не открытие его преподавателей , хотя именно они закладывали в него знания и учили правильно думать
499 Jump
 
09.06.14
23:53
(494)
Водитель выходит из машины, ложит кирпич на педаль газа, и идет домой, а машина едет - водитель управляет машиной?
500 Черный бухгалтер
 
09.06.14
23:53
500
501 rendez-vous
 
09.06.14
23:53
(495) Так я хочу вернуть вас к теме.
Человек отличается тем, что способен сделать выбор без причины.
О чем я и говорил до того, как мы съехали на шахматы.
Следовательно, отличить человека от компьютера совсем не сложно. Следовательно, тест Тьюринга непроходим.
502 Jump
 
09.06.14
23:54
(496)Есть но он настолько банален, что нет смысл говорить о нем.
См. (493)
503 opty
 
09.06.14
23:54
(501) Совсем без причины делает выбор ГСЧ
504 rendez-vous
 
09.06.14
23:54
(499) Ты не поверишь. Но для ГИБДД и юристов - да.
505 Партизан
 
09.06.14
23:55
(499) это вообще не в тему. Причем тут управление?
506 Jump
 
09.06.14
23:55
(501)Это как сделать выбор без причины?
Я вот как то не представляю.
Даже мухи не гадят без причины.
507 rendez-vous
 
09.06.14
23:55
(503) Причина ГСЧ - инициализация.
508 opty
 
09.06.14
23:55
(502) Ну на самом деле не настолько банален , если только в первом приближении :)
509 Jump
 
09.06.14
23:56
(504)Для гибдд и юристов он всего лишь несет ответственность.
Но не управляет.
510 opty
 
09.06.14
23:56
(507) Самый лучший ГСЧ это дождь . До сих пор используется для генерации одноразовых шифр-блокнотов :)
511 Партизан
 
09.06.14
23:57
(502) еще раз - Нет алгоритма - нет программы.
или есть в ОС API функция __ОценитьСитуацию() ?
512 Jump
 
09.06.14
23:57
(508)Ну алгоритм то в принципе банален - оценил, сходил.
Другое дело алгоритм оценки, это уже офигенно небанально.
513 rendez-vous
 
09.06.14
23:58
(510) Использовать дождь - это тоже инициализация. Это тоже причина.
514 Партизан
 
09.06.14
23:58
(512) есть такая функция? Может она в BIOS заложена?
515 rendez-vous
 
09.06.14
23:59
(512) Ну, ну. Давай изобрази альфа-бэту в двух строчках.
516 Jump
 
09.06.14
23:59
(511)Нету.
Оценивает ситуацию программа.
делает это на основании правил
Т.е просчитывает все возможные ходы - и оценивает ситуацию по каждому ходу.
517 Партизан
 
10.06.14
00:00
(516) Так зачем это выкидывать из алгоритма?
518 Jump
 
10.06.14
00:00
(515)Еще раз - алгоритм игры очень прост.
А алгоритм оценки может сделать не каждый, это надо быть хорошим знатоком программирования.
Причем именно программирования, а не шахмат.
519 opty
 
10.06.14
00:01
(512) Еще более небанально - алгоритм обрезки дерева вариантов . Стандартную альфа-бету уже давно не используют . Там и null-move , и хэш таблицы (исключение повторов позиций) , и сложные сортировки , и углубление на форс вариантах и много всякого намешано :)
520 Партизан
 
10.06.14
00:02
(518) Оценка - неотъемлемая часть игры, не надо делить.
521 Jump
 
10.06.14
00:03
(512)Это все относится к оценке позиции.
На выходе оценки уже готовые варианты с оценкой и без тупиковых веток.
522 Партизан
 
10.06.14
00:05
вот только не надо сводить алгоритм к оболочке программы, к ее интерфейсу
523 Ctrekoza
 
10.06.14
00:05
(9)сколько будет два плюс два умножить на три
пишет восемь )))))
524 Jump
 
10.06.14
00:06
(520)Спор пошел собственно из за того что некоторые личности утверждали, будто решение принимает программист, а не программа.
Так вот решения принимает программа, на основании оценки.
А разделил, чтобы не вдаваться в тонкости, ибо обсуждения методики оценки тут как бы оффтоп.
525 opty
 
10.06.14
00:07
(522) Под виходом для движка подразумевается не интерфейс , а обмен данными по протоколо . Сейчас самый распространенный UCI-2
526 Jump
 
10.06.14
00:08
(522)Предлагаешь расписывать его целиком и полностью?
Ты всегда приводишь абсолютно полные алгоритмы?
527 opty
 
10.06.14
00:08
В общем придет NS и скажет кто играет в шашки - он или его движок :)
528 Партизан
 
10.06.14
00:10
(524) ну так весь алгоритм оценки закладывает программист, а вот как он это заложил, насколько эффективно, насколько глубоко продумал эти алгоритмы оценки и пр. (тут надо очень-очень крепко подумать головой) и зависит исход игры. Отсюда вывод - играет программист с использованием очень сложных алгоритмов, автоматизируя весь процесс с помощью компьютера.
529 Партизан
 
10.06.14
00:11
(526) если описывать, то полностью, без полного алгоритма - нет программы.
530 opty
 
10.06.14
00:13
(528) Угу . Это гворит о том что он играет в шахматы ?
Ну я вот реализовал систему транспортной логистики скажем . Мне например самому машину с заявками и маршрутами и не посчитать не в жизнь . Реализовал алгоритмы всего лишь а данные для анализа вообще логисты закладывают
531 Партизан
 
10.06.14
00:14
(525) ну эти протоколы были придуманы только для того, чтобы программы разных создателей могли сразится между собой, не более того.
532 Партизан
 
10.06.14
00:18
(530) Ну вот реализовал ты ее так, как понимаешь, в силу своего понимания и допустим неправильно, Кто виноват - программа или программист? Если все правильно, то это заслуга программиста, а не программы. Программист в программу должен закладывать не только алгоритм, но и душу ))
533 Партизан
 
10.06.14
00:24
Еще, бывает, говорят "Какая умная программа". Не программа умная - программист умный! ))
534 Партизан
 
10.06.14
00:29
+(531) И когда сражаются между собой две программы - это не программы сражаются, а программисты, и побеждают / проигрывают программисты, а не программы. Сами по-себе программы воли не имеют.
535 opty
 
10.06.14
00:29
(533) Заслуг программиста никто не отрицает , но фактическое выполнение функций программой и реализация алгоритмов (и их разработка) разные вещи .

Родители воспитывают ребенка , закладывают ему императивы поведения , учат как правильно ему себя вести . Но ребенок принимает решения (на бытовом поведенческом уровне) самостоятельно .
536 Партизан
 
10.06.14
00:31
Кстати, вот: wiki:Rybka
"Rybka (рус. Рыбка) — компьютерная шахматная программа, разработанная международным мастером по шахматам Васиком Райлихом. С мая 2008 года по декабрь 2010 года[2] Rybka была сильнейшей шахматной программой во всех известных рейтинг-листах."
Это к тому, что программист шахматной программы не умеет играть в шахматы ))
537 Партизан
 
10.06.14
00:32
(535) потому что у ребенка есть воля, он личность, а вот программа НЕТ.
538 opty
 
10.06.14
00:34
(536)
Рыбка играла в силу около 3000 ЭЛО , сам Васик около 2500 , это пропасть .
Кстати Рыбка лишена всех титулов , ибо нарушены правила использования открытых исходников Фрукта
539 rendez-vous
 
10.06.14
00:35
(535) У программы есть воля?
540 opty
 
10.06.14
00:35
(537) Кстати зачатки разума появляются у ребенка в возрасте около трех лет , именно тогда он начинает осознавать себя как личность . Интеллект формируется намного раньше
541 opty
 
10.06.14
00:36
(539) Определение воли у тебя уже спрашивали :)
542 Партизан
 
10.06.14
00:36
(538) потому что в голове все варианты не просчитать и не удержать, а компьютер автоматизирует процесс.
543 opty
 
10.06.14
00:37
(542) Компьютер то же просчитывает не все варианты а только долю процента . Это к сведению .
544 rendez-vous
 
10.06.14
00:39
(541) Есть или нет?
545 opty
 
10.06.14
00:40
(544) Дашь точное формальное определение воли - после этого и решим :)
546 Партизан
 
10.06.14
00:40
(543) но намного больше, чем человек, Кстати, в создании программы учавствовала целая команда сильных шахматистов и международных гросмейстеров, а не один Васик (это насчет пропасти)
547 rendez-vous
 
10.06.14
00:41
(545) Способность действовать без причины.
548 opty
 
10.06.14
00:42
(546) А разница в способах нахождения правильного ответа компьютером и человеком значения НЕ имеет .
Неужели ты думаешь что ИИ (а тем более ИР) будет работать на тех же принципах что и человеческий мозг .
549 opty
 
10.06.14
00:43
(547) Это не определение а смех один
550 rendez-vous
 
10.06.14
00:44
(549) Ты получил определение. Отвечай.
551 opty
 
10.06.14
00:45
Вот такое определение воли устроит ?

Воля - способность делать выбор и совершать действия для достижения цели
552 opty
 
10.06.14
00:46
(550) Я не понял твоего определения воли . Типа хохот без причины признак дурачины ?
553 rendez-vous
 
10.06.14
00:46
(551) Это  не воля - а смех один, как ты говоришь.
Где есть цель, там нет воли.
554 opty
 
10.06.14
00:48
То есть решение Гастелло пожертвовать своей жизнью для достижения цели уничтожения врага - безволие ?
555 Партизан
 
10.06.14
00:48
(548) человек много отсекает, т.к. не может физически просчитать в голове, компьютер может, но человек имеет ассоциативную память, а компьютер простую плоскую.
ИИ будет работать на более совершенных принципах, чем мозг?
556 rendez-vous
 
10.06.14
00:49
(553) Если есть цель, тогда твои действия определяются целью.
Воля - это действия, которые ничем не определяются.
Начальный пункт в цепочке причин-следствий.
557 opty
 
10.06.14
00:49
(553) Прикольно
Где есть цель, там нет воли - все совершившие подвиг - безвольные тряпки
558 opty
 
10.06.14
00:49
(555) >ИИ будет работать на более совершенных принципах, чем мозг?<

На других так точно :))
559 Партизан
 
10.06.14
00:50
(554) В сентябре 2007 года шахматная программа Zappa победила Рыбку в матче со счетом 5?-4?. Ключевой была 180-ходовая четвёртая партия[41], которая могла закончиться вничью при соблюдении правила 50 ходов. Однако, чтобы избежать ничьей на 109-м ходу вследствие данного правила, из-за особенности программы Рыбка пожертвовала свою пешку. Потеря пешки в конечном счете позволила Zappa свести на нет обороноспособность Рыбки и выиграть партию.

Вот, самопожертвование было заложено русской душой программиста.
560 opty
 
10.06.14
00:51
(556) Если воля "Воля - это действия, которые ничем не определяются." то тогда волей обладают только полностью случайные процессы
561 NS
 
10.06.14
00:51
(536)(538) Васик никогда не играл в 2500. Его максимальный рейтинг 2300 с копейками.
И авторы других сильных программ, например Главрук/Стокфиш, сильнейшая программа на сегодняшний день, или Гудини - сильнейшая до него - не играют и в эту силу.
А например на чемпионате мира среди программ в русские шашки - два из трех первых призеров вообще никто в шашках. Только правила знали.
562 rendez-vous
 
10.06.14
00:51
(560) Нет ничего случайного.
563 Партизан
 
10.06.14
00:51
Воля - это еще и упрямство, принципы, например.
564 opty
 
10.06.14
00:52
(562) Глубоко ошибочное мнение
565 rendez-vous
 
10.06.14
00:54
(554) Почему безволие? Он мог уничтожать, а мог и не уничтожать.
566 NS
 
10.06.14
00:54
(562) Как раз всё вокруг нас случайно, имеет вероятность и доверительные интервалы.
567 opty
 
10.06.14
00:54
(563) Угу . Нет цели - нет воли . Цепочка решений и действий для достижения цели - проявление воли .
Следовательно такой волей шахматные движки обладают :))
568 opty
 
10.06.14
00:55
(566) О , привет . Я тебя ждал :)
569 NS
 
10.06.14
00:55
(546) В Развитии Рыбки участвовал один человек, Васик Ражлич(не считая что его программа плагиат от Фрукта, который тоже написан одним человеком). Когда была набрана команда - роста силы уже не было.
570 opty
 
10.06.14
00:55
(566) Вопрос в (527)
571 rendez-vous
 
10.06.14
00:57
(567) Воля - не цепочка. Воля - первое звено.
572 rendez-vous
 
10.06.14
00:58
(571) И это звено не имеет причины.
573 Партизан
 
10.06.14
00:58
(567) "Воля" в движок закладывается программистом, его воля, его душа ))
(566) есть мнение, что когда говорят "случайно" - это не полностью изученное и описанное явление, а так ничего случайного нет. ПСП, например неслучайна, а всеми свойствами случайности обладает ))
574 NS
 
10.06.14
00:58
Я в шашки вообще играть не умею. Но за счет счетных навыков наверно на первый разряд насчитаю. Программа играет сильнее чем версия Каллисто выигравшая матч у лидера рейтинг-листа и экс-чемпиона мира Королёва. То есть как минимум не слабее сильнейшего шашиста в мире. И там было еще мнение насчет счета - программы считают не всё, и не факт что вообще считают лучше человека, особенно в анализе. Программа намного лучше видит тактику, а это не тоже самое что счет. Конкретные варианты человек может посчитать и дальше и лучше.
575 opty
 
10.06.14
00:59
(571) Эээ , Большой Взрыв рождения Вселенной ?
576 NS
 
10.06.14
01:00
(574) к (570) и (527)
577 rendez-vous
 
10.06.14
01:02
(575) Зачем Большой Взрыв? Цепочек причин-следствий много. Первое звено в цепочке есть воля. Человек может создать цепочку. Программа - нет. Она сама создана, она, по определению, в середине цепочки.
578 rendez-vous
 
10.06.14
01:03
(566) Что значит случайно? Не имеет причины?
579 NS
 
10.06.14
01:03
Кстати, насчет ИИ - человек постоянно меняет определение ИИ, как только оказывается что некоторое животное или программа соответствует определению, так сразу человечество определение меняет.
580 opty
 
10.06.14
01:03
(577) >Первое звено в цепочке есть воля<
Почему ?
581 NS
 
10.06.14
01:03
(578) Почему? Вероятностное событие так-же имеет причину.
582 NS
 
10.06.14
01:06
И да, любая нормальная шахматная программа имеет рандомность. То есть время на часах и позиция однозначно ход не определяют. Два раза оказавшись в одной и той-же позиции программа может сделать разные ходы. Даже без функции самообучения, которая вдобавок в последнее время потеряла популярность.
583 Партизан
 
10.06.14
01:06
(574) это потому что играешь по своему умению, интуиции, а не по алгоритмам в программе, а если играть на доске в точном соответствии с алгоритмами, заложенными в программе (возможно что-то записывая на бумажку, т.к. в голове все не удержать) со всеми расчетами (ручными), сортировками и пр. (да, долго, но все же) - никакой разницы нет, не так-ли?
584 NS
 
10.06.14
01:07
(583) Ничего не понял. Нет конечно. Программа играет совсем не так как человек. Похоже, но не так.
585 rendez-vous
 
10.06.14
01:07
(581) Событие имеет причину, но могло произойти оно, а могло произойти  и другое с той же причиной? Интересно.
586 opty
 
10.06.14
01:08
(583) Умение и интуиция следствие обучения и опыта , то есть алгоритмов (императивов) . Но для человеческого мозга они другие чем для движка
587 opty
 
10.06.14
01:09
(585) Запросто

а вообще квантовые процессы, рождение виртуальных частиц, квантовые флуктуации являются истинно случайными процессами
588 NS
 
10.06.14
01:09
(585)
Развитие квантовой механики привело большинство ученых к необходимости принятия такой интерпретации физической теории, которая предполагает наличие случайности в самой реальности, а не только в нашем сознании. Такое изменение взглядов на природу случайности можно называть онтологизацией случайности. Но и в этом случае детерминизм не совсем отвергается, он скорее лишь ослабляется, принимая форму вероятностного детерминизма. В этом виде детерминизма любое событие имеет множество причин и множество следствий, оказываясь включенным в сеть причинно-следственных отношений. Следствие вытекает из ПРИЧИНЫ уже только с некоторой вероятностью, а не с необходимостью. Вероятность – это степень необходимости, способная принимать непрерывный спектр значений от нуля (невозможность) до единицы (необходимость).

Общая схема вероятностного детерминизма может быть изображена примерно так. Если ui – какое-то событие в момент времени ti, то оно может с некоторыми вероятностями следовать из нескольких предшествующих событий, например, из u1i-1 и u2i-1 с вероятностями P-1 и P-2 соотв., и вызывать несколько последующих событий, например, u1i+1 и u2i+1, с вероятностями P+1 и P+2 соотв. В этом случае, даже зная, что существует событие ui, мы не в состоянии точно определить, ни из какого предшествующего события произошло данное событие, ни к какому будущему событию оно приведет. Правда, это не значит, что мы совсем ничего не знаем. Мы можем, например, утверждать, что событие ui с вероятностью P-1 следует из события u1i-1 и с вероятностью P+2 приведет к событию u2i+1. Вот такого рода вероятностное знание причинно-следственных отношений и лежит в основании вероятностного детерминизма. Этот вид детерминизма человеку более знаком, нежели жесткий детерминизм, поскольку в обычной жизни мы все время лишь с какой-то вероятностью можем связывать события между собою причинно-следственными отношениями. Будет ли завтра солнечно или пасмурно ? Удастся ли мне сдать экзамен ? Верно ли, что беды в нашей стране вызваны развитием «дикого капитализма» ? Было ли причиной гриппа охлаждение или сниженный иммунитет ? Все эти и им подобные вопросы обычны для человека, и мы можем отвечать на них лишь с некоторой вероятностью. Следовательно, человеческая жизнь всегда была погружена в сферу вероятностных отношений.

Каждое событие в модели вероятностного детерминизма оказывается узлом бесконечной сети отношений частичных причин и следствий. Исчезает абсолютное различие между ними. То, что в данный момент является причиной, в следующий момент может стать следствием. Начинают происходить взаимообмены причин и следствий, возникает циклическая детерминация, о которой мы говорили выше как о процессе сопряжения. Если возможны случайные события, т.е. события без предшествующей им причины, то, следовательно, возможно возникновение нового узла каузальной сети. Но там, где есть возникновение, есть и уничтожение: становится возможным событие без всяких последствий, проявления которого исчезают в будущем. Узлы каузальной сети, следовательно, могут и исчезать. Возникновение и уничтожение также приобретают онтологический характер: последовательно и до конца проведенный вероятностный детерминизм должен повести по крайней мере к ограничению закона сохранения энергии, что как раз наблюдается в квантовой физике.
589 opty
 
10.06.14
01:10
(585) Вкури хотя бы принцип неопределенности Гейзенберга или теорию хаоса
590 NS
 
10.06.14
01:15
Таким образом, в современной концепции детерминизма органически сочетаются необходимость и случайность. Поэтому мир и события в нем не оказываются ни фаталистически предопределенными, ни чисто случайными, ничем не обусловленными. Классический детерминизм лапласовского типа чрезмерно подчеркивал роль необходимости за счет отрицания случайности в природе и поэтому давал искаженное представление о картине мира. В противовес этому некоторые ученые, ошибочно истолковывая принцип неопределенности в квантовой механике, провозгласили господство случайности, отрицая какую-либо роль необходимости. Признание самостоятельности статистических, или вероятностных, законов, отображающих существование случайных событий в мире, дополняет прежнюю картину строго детерминистского мира. В результате этого в новой картине мира необходимость и случайность выступают как взаимосвязанные и дополняющие друг друга его аспекты.
591 Партизан
 
10.06.14
01:16
(584) почему человек на доске играет не как программа? потому что нереально просчитать и удержать в голове большие объемы информации, кроме того, у человека есть интуиция и ассоциативная память, человек не может заложить интуицию в алгоритм программы. Поэтому, если человек будет следовать только четкой логике (без использования интуиции и всего того, что невозможно запрограммировать), а будет следовать строго алгоритму, то что можно запрограммировать в строгом соответствии, то будет ли его игра отличаться от игры написанной им программы ?
592 rendez-vous
 
10.06.14
01:19
(590) Исчерпывающе.Существует ли что-то, что не имеет причины?
593 NS
 
10.06.14
01:21
(591) Интуиция это всего-лишь термин описывающий процесс оценки или принятие решения, который человек не в состоянии постичь. То есть как-то оценил, а как науке пока неизвестно.

Настройка ОФ программы происходит таким-же образом. Кидается куча параметров в оценочную функцию и оптимизируется под максимизацию силы. Получаем параметры при которых программа играет сильно, а почему и как работают именно эти параметры - человек не понимает, и программа тем более. То есть та-же самая интуиция, ибо мы не понимаем почему и как это работает.
594 NS
 
10.06.14
01:23
(592) У любого процесса есть причина и следствие. И причинно-следственная связь устанавливается по временной шкале. То есть "произошло раньше" и "причина" - это синонимы. То есть причинно-следственная связь это по сути всего лишь временная ось.
595 NS
 
10.06.14
01:25
И, кстати, человек в состоянии объяснить почему он выбрал тот или иной ход в партии. Так что процесс выбора хода человеком далеко не интуитивный. Не совсем интуитивный. Так же как и у программы.
596 Партизан
 
10.06.14
01:25
(593) т.е. программист сам не понимает чего он пишет?
597 NS
 
10.06.14
01:31
(596) Не понимает как это работает.
Как делалась ОФ в Скифи - придумал вид оценочной функции, написал некие переборные алгоритмы. У каждого признака в ОФ есть вес. Представляем силу как функцию от весов признаков в ОФ. Силу измеряем тестовыми матчами. Максимизируем силу как функцию от весов методами математической оптимизации (некоторые делают это вручную, я делал автоматически - оптимизации проводилась наигрыванием миллионов партий, месяцем беспрерывного счета).
Далее придумываем разные эвристики для переборных алгоритмов, тестами определяем какие дают улучшение силы, какие нет, и при каких параметрах улучшение силы максимально, так же тестовыми матчами. Почему именно при этих параметрах, и при этом наборе эвристик сила максимальна - разработчик не понимает.
598 opty
 
10.06.14
01:33
(596) Для сложных алгоритмов отчасти да . Программист реализует алгоритм который осуществляет процесс , а вот оценить со стопроцентной точностью то что получается на выходе , в результате действия процесса не может
599 NS
 
10.06.14
01:38
Чтоб процесс усиления движка был более понятен, даю вот такую ссылку
http://abrok.eu/stockfish/
Это процесс разработки Стокфиша. Комментарии и количество наигранных партий не показывают весь процесс, так как принимаются только новые версии, давшие усиление по сравнению с предыдущими, не давшие усиления (а таких большинство) - отсекаются.
Разработчик шахматной программы конечно-же знает что он пишет, и для чего. Но подавляющее большинство его "улучшений" лишь ослабляют программу, если она уже достаточно сильна. Усиления происходят очень редко, и можно считать их случайными.
600 rendez-vous
 
10.06.14
01:39
(594) Раньше не значит причина. Это в элементарных учебниках логики пишут. Так может быть или нет? То, что не имеет причины?
601 NS
 
10.06.14
01:41
(600) Повторюсь, у каждого процесса есть временная шкала, которая устанавливает причинно-следственную связь. То есть раз у любого состояния есть предшественник, то есть и причина.
602 NS
 
10.06.14
01:42
(600) Плохи ваши "элементарные учебники".
wiki:Темпоральная_логика
"Есть два подхода темпоральной логики, основанные на принципах здравого смысла и диалектики: «после этого» означает «по причине этого», либо «после этого» означает «позже» в хронологическом смысле."
603 opty
 
10.06.14
01:46
(597) примерно так же , но проще я реализовывал программу транспортной логистики .

использовал алгоритм наименьших отрезков , который проще в реализации чем алгоритм Дейкстры и работает шустрее , но дает не оптимальное решение , достаточное впрочем для практического применения .
Закладывались тестовые данные в модель , делался расчет, то что получалось на выходе проверялось профессиональным диспетчером-логистом . Первые реализации были далеки от совершенства :( Прищлось и с алгоритмом поковырятся и пошаманить с данными , приоритет времени например поставить выше расстояния при городских поездках и наоборот при междугородних .
Результат был признан приемлемым для практического использования когда 9 маршрутов из 10 получили у логиста оценку "хорошо"

Причем не факт что и десятый был плох , просто так считал профик , а его мнение это то, от чего отталкивались при оценке . И совсем не факт что при массовой эксплуатации системы иногда не вываливаются совсем не оптимальные маршруты , просто такая вероятность не велика и с практической точки зрения значения не имеет
604 rendez-vous
 
10.06.14
01:56
(601) Т.е. у всего есть причина?
605 NS
 
10.06.14
02:00
(604) Да. Причем в субъективных суждениях она (причина) вероятностна. А следствие вероятностно и объективно, и в субъективных суждениях.
"На небе собрались тучи, наверно пойдет дождь", "машина перестала заводится, наверно сломался стартер".
606 opty
 
10.06.14
02:06
(604) И к "воле" в твоем определении это отношения не имеет .

Именно воля стрелка (его цепочка действий - заряжание , изготовка , задержка дыхания , успокоение пульса, прицеливание, правильное нажатие спускового крючка) приводит к попаданию в цель . У него есть цель и в прямом и переносном смысле слова .
Но у любого самого точного оружия и самого умелого стрелка есть так называемый "радиус рассеивания попаданий" которые обуславливаются случайными процессами - лишняя крупинка пороха в гильзе , на тысчную долю грамма разброс веса пуль , колебания температуры , влажности и т.п.
607 NS
 
10.06.14
02:08
Причем следствие вероятностно не только в природе мира (что вытекает из квантовой теории, которая подтверждается практически), но и в логике, касательно темы обсуждения.
wiki:Вероятностная_логика
В настоящее время вероятностная логика находит наибольшее применение в качестве современной формы индуктивной логики. Новым стимулом к возникновению систем вероятностной логики послужил прогресс в развитии приложений к искусственному интеллекту.
//И раз заговорили об программах в настольные игры как частном примере ИИ, в последнее время получили развития вероятностные, случайные переборные алгоритмы, которые являются на данные момент сильнейшими в целый класс игр. Например ГО, и ГО-подобные. Это Монте-Карло - MCTS, его разновидность UCT и т.д. На таких алгоритмах может играть и шахматная программа, но пока слабее чем на вариациях классической альфа-беты.
608 rendez-vous
 
10.06.14
02:10
(605) Ну так бы сразу и говорил. Чтоб сразу не сказать: "да" или "нет"? Нет ничего без причины. Я понял. Дождь пошел, потому что собрались тучи. Но мог и не пойти. А кстати, почему он мог и не пойти? Потому что собрались тучи?
609 rendez-vous
 
10.06.14
02:11
(606) Воля не приводит к попаданию в цель. Это тебе любой мастер скажет.
610 opty
 
10.06.14
02:12
(608) Ветер дунул и унес тучи :)

Почему дунул ?
А эффект бабочки :)
http://ru.wikipedia.org/wiki/Эффект_бабочки

Теория хаотичных систем в чистом виде
611 NS
 
10.06.14
02:12
(608) Потому что любое событие описываем вероятностной схемой. Собрались тучи, значит с вероятностью 40% пойдет дождь. А вероятности причин можно считать по Байесу например.
612 opty
 
10.06.14
02:13
(609) Ну я только КМС по пулевой стрельбе . Не мастер :(
613 NS
 
10.06.14
02:14
Появление туч предшествовало погоде без дождя в описываемом процессе, значит является причиной того что не пошел дождь.
614 rendez-vous
 
10.06.14
02:15
(610) А почему ветер дунул? Потому, что собрались тучи?
Ветер глянул. Что за непорядок? Тучи какие-то собрались. Вот и дунул. Так?
615 opty
 
10.06.14
02:16
(614) да ты хоть по ссылке то сходи .
616 Jump
 
10.06.14
02:18
(614)Ветер дунул потому что изменилось давление и воздушные массы начали перемещатся.
617 NS
 
10.06.14
02:18
(614)м Причем тут "глянул"? Если ветер по временной шкале был позже появления туч, то тучи являются причиной ветра. В процессе который рассматривает и тучи, и ветер. Только "глянул" тут не при чем.
618 rendez-vous
 
10.06.14
02:19
(615) Я понимаю твою любовь к ссылкам. Но пойми и ты, все уже всюду сходили. И не вчера. Особенно, если это википедия.
619 NS
 
10.06.14
02:20
(618) Серьезно? После поста (600) я в этом очень сомневаюсь.
620 opty
 
10.06.14
02:20
Физика на уровне галчонка из детской сказки :)
Не деревья качаются потому что ветер дует , а ветер дует потому что его качающиеся деревья вызывают :)
621 NS
 
10.06.14
02:21
А после (562) я вообще не понимаю зачем мы с тобой спорим.
622 opty
 
модератор
10.06.14
02:22
(618) Сдается мне мил человек , что ты нарушаешь п.6 этических правил форума, а по простому "врубаешь дурня с целью троллинга"
623 rendez-vous
 
10.06.14
02:23
(619) "После этого, значит по причине этого" приводится как пример логической ошибки. Я что-то упустил?
624 opty
 
10.06.14
02:26
Кстати возвращаясь к ИИ :)
Пока ни одна роботизированная система , при целевой пулевой стрельбе на расстояния дальше 800 метров не может пока полноценно заменить снайпера .
Слишком много факторов приходится учитывать и в реальном времени . Чуйка и навык стрелка пока эффективней действуют
625 NS
 
10.06.14
02:26
(623) Да. Упустил. Это действительно логическая ошибка, так как после, значит по причине - только в случае связанного процесса. Когда предшествующее состояние является причиной последующего. Есть несвязанные события. Тогда временная шкала не показывает точную причинно-следственную часть.
и см. (605)
626 rendez-vous
 
10.06.14
02:27
(622) Ну читал я в детстве Брэдбери. Все уже про бабочку знаю и даже забыл.
627 rendez-vous
 
10.06.14
02:29
(624) Я смотрю, и ты нашел свой тест Тьюринга.
628 opty
 
10.06.14
02:33
(627) К тесту Тьюринга это никакого отношения не имеет в принципе . Как и система распознавания лиц использующая элементы ИИ , и шахматные программы и многое другое .
629 Партизан
 
10.06.14
02:34
(624) самонаводящиеся пули еще лучше
630 rendez-vous
 
10.06.14
02:35
(625) Но разве дождь идет потому, что собрались тучи?
Дождь идет, потому что есть причина для дождя. Очевидно, что тучи - не причина. Тучи - всего лишь не очень надежный признак. Случайность - есть мера нашего неведения.
631 opty
 
10.06.14
02:36
(626) Раасказ это рассказ .
Эффект бабочки вполне научный термин , описывающий поведение хаотические систем чувствительных к малым воздействиям .
Введен в употребление математиком Эдвардом Лоренцом
632 opty
 
10.06.14
02:36
(630) >> Очевидно, что тучи - не причина. Тучи - всего лишь не очень надежный признак<<

Это уже диагноз
633 rendez-vous
 
10.06.14
02:37
(624) Почему же? Если кто-то стреляет хорошо, значит он не программа. Чем не тест Тьюринга?
634 rendez-vous
 
10.06.14
02:40
(631) Которому его идею навеял рассказ Брэдбери. О чем он сам признался. О чем, наверно,  можно прочитать в твоей любимой википедии.
635 NS
 
10.06.14
03:23
(630) Случайность есть свойство этого мира, объективной реальности. Ссылки даже не буду повторять.
У любого процесса, системы - пока существует время, в любой момент времени есть предшествующее состояние. И вот это предшествующее состояние является причиной. То есть причина существует всегда, во всяком случае пока существует время.

Ещё один камень в стене, но ещё строить и строить.
636 rendez-vous
 
10.06.14
12:02
(635) Причина есть у всего?
637 opty
 
10.06.14
12:09
(636) ???
Ты не читаешь посты ? даже свои ?
см (604) (605) (608)

Сколько можно воду в ступе толочь ?
638 Восстановленная Проц
 
15.06.14
00:10
639 sdv2000
 
15.06.14
17:31
да бог с ним, с Тьюрингом, хотя бы научитесь писАть грамотно
640 andreymongol82
 
16.06.14
14:29
Блин вот у нас 1с-ка реально тест этот прошла.
Есть спец-ящик с которого автоматом рассылаются сообщения 1Садминского характера + по исполнению задач по одному своему бизнес-процессу определенным адресатам.
Много жалоб, что письма не доходят.
Выяснилось, что пользователи видят письмо и пишут ответ этому спец-ящику. Некоторые даже прилагали в письма вложения в виде файлов и скриншотов.
А вы говорите, что 1С-ка сырая