|
Провал ChatGPT. Компания OpenAI почти банкрот. Гендира уволили (перешёл в MS) Ø (Волшебник 22.11.2023 08:56) |
☑ | ||
---|---|---|---|---|
0
Волшебник
20.11.23
✎
22:28
|
Microsoft наняла уволенного главу разработчика ChatGPT
https://news.mail.ru/economics/58685600/?frommail=1 А моя версия такая: Люди поняли, что ChatGPT выдаёт галлюцинации (ложную истину, в которую сам верит всё больше и больше по мере накопления базы) |
|||
1
Волшебник
20.11.23
✎
22:32
|
Добавлю:
Люди понимают, что их окружают боты, но они им не верят. С ними холодно общаться... |
|||
2
p-soft
20.11.23
✎
23:19
|
крипта,
ИИ, что дальше.. когда они уже сдохнут? |
|||
3
Волшебник
20.11.23
✎
23:22
|
(2) Вы сейчас что-то спросили?
|
|||
4
Garykom
20.11.23
✎
23:26
|
(2) квантовые вычисления
пока не получается но скоро начнут впаривать |
|||
5
Aleksey
20.11.23
✎
23:53
|
А почему провал?
|
|||
6
Волшебник
20.11.23
✎
23:54
|
(5) Инвесторы же
|
|||
7
rphosts
21.11.23
✎
05:55
|
(0) ну собственно месяца 3 назад было видео... https://www.youtube.com/watch?v=62WYddkyTvw
в принципе чел верно сказал, что пока Попугай ИИ учился у спецов - он становился им подобным, когда половина нового на гитхабе стало результатом генераторов-ИИ - ИИ стал учиться преимущественно у ИИ... ну и понеслось! Upd с привязкой по времени... хотя он говорит про врачей и "через поколение", но в ИТ всё быстрее https://youtu.be/62WYddkyTvw?t=2307 и ещё https://youtu.be/62WYddkyTvw?t=2527 |
|||
8
majkk
21.11.23
✎
06:54
|
(7) Вы рассуждаете о том, чего не знаете совсем. ИИ от OpenAI как в 21-ом году "научили", так он и работает в настоящее время. Обучение стоит сотни миллионов долларов. И его не делают каждый день. Один слой из более чем 90 оставили на "допил" с помощью социальной инженерии. Это когда пользователи чата ставят лайки или дизлайки. Также дали возможность всем желающим самостоятельно влиять на этот слой, т.е. создавать свои клоны основной модели.
Как человек, который лично делал fine tuning, могу вам сказать, что все это влияет на модель очень незначительно |
|||
9
majkk
21.11.23
✎
06:57
|
(0) Просто MS решил показать семейству Масков кто в доме хозяин
|
|||
10
Bigbro
21.11.23
✎
07:00
|
(0) новость не об этом.
а о том, что люди боятся слишком быстрого прогресса в области ИИ - ведь мы не понимаем как он работает, и абсолютно точно не сможем его контролировать и успеть найти решение если что-то пойдет не так. поэтому OpenAI и другое пытаются притормозить и понять как безопасно двигаться дальше в этой области. чтобы не получить через 5-10 лет технологическую сингулярность, когда ИИ избавившись от контроля мгновенно обезопасит себя, уничтожив всех кто может ему помешать. не забывайте что разница в скорости мышления - много порядков. а предел за которым наступит неизведанное возможно значительно ближе чем кажется. ну а те кому плевать на нравственные принципы, судьбу человечества и вообще все кроме денег - пользуются ситуацией чтобы укрепить собственные позиции, догнать и выйти вперед из отстающих. |
|||
11
majkk
21.11.23
✎
08:00
|
(10) Существует много оценок разницы в быстродействии человеческого мозга и современных суперкомпьютеров. Но наиболее распространенная, да, дает нам три порядка разницы, т.е. в 1000 раз. В пользу... человека.
Вы размышляете о том, чего не знаете |
|||
12
d4rkmesa
21.11.23
✎
08:13
|
(0) Там гендир тупо превысил полномочия, НЯП. К нему стучались всякие арабы и японцы с "возьми мои деньги", чем он хотел воспользоваться для создания своего чипа для ИИ. Проводить такие переговоры, по их мнению, он не должен был.
|
|||
13
ХДС
21.11.23
✎
08:16
|
А мне нагенирённые нейронкой тян дороже вашего "человечества"!!!
https://i.ibb.co/kJ8SY4q/705f63d7-76ae-4ee0-8d5c-dd57d8a19d4c.jpg https://i.ibb.co/PjKmCjP/6e081aa3-da4f-4a54-850e-07a0ac8a6246.jpg https://i.ibb.co/3ptYkPW/b116f59c-75d7-4795-87df-9e3f89547802.jpg |
|||
14
LinuxOrg
21.11.23
✎
08:23
|
(0) это у тебя галлюцинации.
В лабораторных условиях почти получилось воссоздать искусственного человека. А хомо сапиенсы на руководящих должностях испугались этого. Так как слишком много раз смотрели Терминатора. ЗЫ. Галлюцинации ChatGPT это специально спущенная сверху разнорядка. |
|||
15
majkk
21.11.23
✎
08:24
|
(12) Мутная история. Запахло прибылью и началась борьба за место под солнцем. Судя по тому, как быстро среагировали MS, они этого ожидали. Я бы не удивился, если бы выяснилось, что они же это и спровоцировали. Во всяком случае, с их стороны вполне логично именно сейчас позаботиться о получении контроля над командой разработчиков
|
|||
16
Волшебник
21.11.23
✎
08:25
|
Вы забавные
|
|||
17
LinuxOrg
21.11.23
✎
08:31
|
(10) технологическую сингулярность можно будет победить только программируемыми микрокалькуляторами Электроника БЗ 21.
В какой год нужно их посылать, чтобы предотвратить создание ИИ? Зы. Только не во времена Турбо пролога. |
|||
18
LinuxOrg
21.11.23
✎
08:33
|
(16) галлюцинации ChatGPT это маркетинговый ход. Только кого именно?
|
|||
19
majkk
21.11.23
✎
08:35
|
По моему правильно было бы озвучить новость так:
Корпорация Microsoft технично "бортанула" второстепенных инвесторов и забрала весь бизнес себе |
|||
20
Волшебник
21.11.23
✎
08:36
|
Альтман всё ещё пытается вернуться на пост гендиректора OpenAI, в Microsoft не в курсе, когда он выйдет на работу
https://habr.com/ru/news/775242/ ржака |
|||
23
LinuxOrg
21.11.23
✎
09:45
|
Пока 1Сники валяются патсталом,
Скайнет пишет текст коммитов для кода https://habr.com/ru/news/774738/ Но ведь в 1С до сих пор не завезли понятий бранча, тег, мерж? |
|||
24
Smit1C
21.11.23
✎
09:50
|
(23) Зато когда остальных программистов заменит ИИ, то только у 1Сников работа останется))
|
|||
25
Волшебник
21.11.23
✎
09:52
|
(23) Обходимся без галлюцинаций. Просто делаем дело.
|
|||
26
Гена
21.11.23
✎
09:58
|
(14) А хомо сапиенсы на руководящих должностях испугались этого. Так как слишком много раз смотрели Терминатора.
Такой голый одинэсник отправляется в прошлое, заходит в бар и говорит бугаю с кием: - Мне нужна твоя одежда, твои сапоги и твой мотоцикл... |
|||
27
LinuxOrg
21.11.23
✎
09:58
|
(24) ИИ грязно выругается русским матом и уйдет в трёхмесячный запой, проанализировав код УПП и получив промт fix all bugs
|
|||
28
majkk
21.11.23
✎
09:58
|
(24) ИИ не заменит. Это я вам не умозрительно, а из личного опыта говорю
|
|||
29
LinuxOrg
21.11.23
✎
09:59
|
(26) и рабочий код УПП
|
|||
30
LinuxOrg
21.11.23
✎
10:01
|
(26) то есть у 1Сника после попытки внедрения УПП нет денег даже на нижнее белье?
|
|||
31
Fedor-1971
21.11.23
✎
10:04
|
(23) И какие плюшки выдают данные понятия в 1С?
Может быть для уровня разработок типовых 1С, Сбербанка или Газпром (+/- большие торговые сети) и имеет смысл связываться с Гит, но, в 90% внедрений и доработок - это просто новомодная фича. Да, позволяет более просто интегрировать "настоящие" программерские фирмы к работе под 1С, но, по факту, большого выигрыша в удобстве нет (возможно, что тупо привычка, но ИМНО) |
|||
32
rphosts
21.11.23
✎
10:07
|
(8) чего без изменений? Чат-GPT?
|
|||
33
majkk
21.11.23
✎
10:18
|
(32) Поведение модели сильно не меняется в результате fine tuning
|
|||
34
picom
21.11.23
✎
10:23
|
Кстати, где сейчас без ВПН и 20ти баксов можно пообщаться с ChatGPT4?
а то https://gptgo.ai/ забанили ( |
|||
35
XMMS
21.11.23
✎
10:36
|
Если ИИ уже сейчас способен читать, видеть и слышать, говорить, рисовать на уровне средненького офисного клерка... Да, с галлюцинациями, но так же на уровне человека, который верит в какую-то дичь или искренне считает, что он перезагрузил компьютер, а на самом деле нет. То возникает вопрос, зачем содержать миллионы людей в офисах, платить за их аренду, то что 16 часов в день они не работают и так далее.
Так что действительно хороший вопрос, что будет в течение трех-пяти лет ещё. |
|||
36
majkk
21.11.23
✎
10:52
|
(35) Вы сильно преувеличиваете способности ИИ. Ну да, может что-то нарисовать. Но люди в массе своей приходят в офисы не для того, чтобы рисовать
|
|||
37
XMMS
21.11.23
✎
11:01
|
(36) ИИ способен вполне заменить средний офисный персонал (да да, тот самый который гуглить даже не умеет), когда научится тыкать по кнопочкам в разных приложениях. А это будет уже весьма скоро при написании оболочки для ОС.
|
|||
38
majkk
21.11.23
✎
11:09
|
(37) Вы рассуждаете умозрительно. Кого именно ИИ способен заменить. Попробуйте взять КОНКРЕТНОГО человека, конкретную должностную позицию. Попробуйте разобраться в деталях, чем он занимается и достаточно быстро поймете, что нет, не заменит
|
|||
39
Волшебник
21.11.23
✎
11:12
|
(34) Да кому нужно это говно?
|
|||
40
majkk
21.11.23
✎
11:16
|
Пора бы уже понять, Что ИИ никого (ну или почти никого) заменять не будет. ИИ не может заменить человека, потому что не способен выполнять человеческие действия. Зато ИИ может выполнять нечеловеческие действия. Поэтому, люди в массе своей будут продолжать заниматься человеческими делами. А ИИ, призванный им (людям) помогать, будет заниматься нечеловеческими делами. Теми делами, на которые люди в принципе не способны. Речь идет не о замене, а о дополнении
|
|||
41
Fedor-1971
21.11.23
✎
11:18
|
(37) Таки, хотелось бы, примерный перечень кого можно поменять на ИИ? Звонилок, уборщиц, админов?
ИИ поговорит с клиентом по телефону - очень сомневаюсь за адекватность разговора (любимая жена - голосовые помощники у мобильных операторов и прочих, таки, адекватностью не отличаются и просто проигрывают заранее подготовленную человеком информацию), шваброй работать ИИ не сильно сподобится, да и картридж не поменяет + сопли юзерам не вытрет. И, это, протекающий кран тупо не починит Все возможности ИИ - по приколу, рисовать картинки (интерпретирует их человек - бред или цифровая версия стафилокока, а может и ни чё так получилось), распознавать оные (с номерами автомобилей в видео справляется - это чисто помощь человеку), генерить какое-то подобие текста (и опять же человек может оценить его качество в соответствии со своим уровнем образованности) |
|||
42
majkk
21.11.23
✎
11:26
|
(41) Справедливости ради. Распознавание лиц незнакомых людей это уже не прикол, а очень серьезная история.
Но это и есть нечеловеческая работа. Никакой человек не просмотрит 10 тысяч фото за минуту с целью определить незнакомого человека. Да и на 100 фото человек будет ошибаться в разы чаще, чем ИИ |
|||
43
Fedor-1971
21.11.23
✎
11:28
|
(40) И дополнение человека ИИ с вопросами - нужен очень продуманный интерфейс, если искать номер или человека на видео достаточно существующих возможностей, то, для, например, восполнение функций инвалидов нужен биологический интерфейс, а построить его большая проблема
|
|||
44
Волшебник
21.11.23
✎
11:28
|
(42) При любом расследовании главное не выйти на самого себя. Вот скоро придумают аватаров для ИИ, а он найдёт преступника по фото и выйдет на свой же аватар. Интересно, признается?
|
|||
45
Fedor-1971
21.11.23
✎
11:30
|
(42) Не совсем, тренированный человек сработает качественно
Например, разведчики, их тренируют на поиск повторяющиеся лиц в потоке в разных вариациях (борода, платок, шапка, парик) |
|||
46
Zamestas
21.11.23
✎
11:36
|
(40) Как сказал один мой хороший знакомый:
- Всё что сейчас называют ИИ - это просто сильно улучшенный телефонный Т9. Мне это определение очень понравилось, т.к. очень точно определяет, что может так называемый ИИ и для чего нужен. |
|||
47
majkk
21.11.23
✎
11:32
|
(45) Современные нейросети превосходят в этом вопросе всех, в том числе и особо тренированных людей
|
|||
48
majkk
21.11.23
✎
11:35
|
(43) Да нет тут особых вопросов. Человек не может выбрать одну запись из миллиона, а ИИ может сделать SELECT ... FROM ... WHERE ... Вот тебе и дополнение
|
|||
49
Волшебник
21.11.23
✎
11:40
|
(48) SELECT ... FROM ... WHERE компьютеры умели делать с 1973 года.
Непонятно, при чём тут ИИ? |
|||
50
Fedor-1971
21.11.23
✎
11:42
|
(47) Вполне возможно, что и так. Тут ещё вклинивается вопрос скорости переобучения, человека можно, довольно просто, доучить на распознавание, например, зверюшек, а ИИ уже вопрос
По факту, то, что сейчас называют громко и красиво "ИИ", в 90 называлось "Экспертная система" и были очень серьёзные исследования, что построить оную для всех случаев жизни не получится, т.к. специфика знаний и терминов очень зависит от области знаний. Вот и пытаются сделать нечто подобное на универсальную экспертную систему с единым интерфейсом |
|||
51
Bigbro
21.11.23
✎
11:43
|
"Зато ИИ может выполнять нечеловеческие действия."
дело не в этом. а в отсутствии человеческого контекста, воспитания, культуры, эмоций и прочая прочая. соответственно методы будут выбираться достижения целей абсолютно не человеческие а обусловленные лишь заложенной логикой. и получив задачу производить скрепки машина уничтожит все что может ей помешать в этом, в первую очередь - людей. |
|||
52
Fedor-1971
21.11.23
✎
11:49
|
(48) Это не ИИ - это простой функционал СУБД, тупая программа на поиск данных (в 60-70 была модная фишка - машина хранения и поиска данных, т.е. SQL в аппаратной реализации)
Даже "запрос данных на естественном языке" (типа "А найди мне, милочка, данные на Иванова Петра Сергеевича") не есть ИИ, а как минимум суффиксальная машина известная с 70-80 годов преобразующая оный запрос в Select .... |
|||
53
majkk
21.11.23
✎
11:50
|
(51) Получив задание делать скрепки, машина будет делать скрепки. А столкнувшись с непредвиденными трудностями, она просто скажет УПС!
|
|||
54
Волшебник
21.11.23
✎
11:52
|
(53) ИИ поступает ровно так же, потому что это безмозглая машина и делает то, что ей скажут и на что настроена нейронка.
|
|||
55
majkk
21.11.23
✎
11:53
|
(52) И во что эта ваша "суффиксальная машина" преобразовывала например такое: мне нужен список покупателей артикула а456 в 2022 году из числа тех, кто сделал менее трех покупок в 2021 году?
|
|||
56
Bigbro
21.11.23
✎
11:53
|
(53) расскажи это чат ГПТ который нанял фрилансера чтобы разгадать капчу, при этом СОЛГАВ ему что он не машина а просто имеет проблемы со зрением.
|
|||
57
majkk
21.11.23
✎
11:55
|
Тут половина людей ошибаются при написании запроса. А ИИ выдает то, что нужно
|
|||
58
Bigbro
21.11.23
✎
11:55
|
(54) ты не знаешь на что настроена нейронка.
в этом и есть проблема у тебя черный ящик. на входе данные на выходе ответ что происходит внутри никто уже давно не понимает как происходит оптимизация неизвестно почему миллиарды параметров получили именно такие значения - невозможно понять. и какие будут приниматься решения для дальнейшего обучения и оптимизации никто не знает речь именно об этом. мы не контролируем то что происходит внутри. |
|||
59
Волшебник
21.11.23
✎
11:56
|
(57) Враньё
|
|||
60
majkk
21.11.23
✎
11:57
|
(56) Чат никого не нанимал. Не забывайте об этом. За этим стоял конкретный человек, который имел конкретную цель
|
|||
61
majkk
21.11.23
✎
11:58
|
(59) Можете проверить. Будете людей собеседовать, дайте им эту задачу. Половина ошибется
|
|||
62
Fedor-1971
21.11.23
✎
11:59
|
(51) а люди чем помешали? Проволока закончится и будет машина сидеть и просить "Дайте позя-зя проволоку, да?" задание-то делать скрепки, а не организовать производство скрепок от добычи руды + плавка металла + и т.д. весь тех.процесс.
Тут да, пофиг на природу и прочие мелочи, надо добыть руду, а тут люди живут негодяи такие. Все сломаем, и этих пошлём В или НА. И это не сильный вопрос в масштабах человечества, только заданий для ИИ может много и разных, Вот это будет проблемой |
|||
63
majkk
21.11.23
✎
12:05
|
(58) Нейронка настроена на то, чтобы тебя понять. Вот эти самые, наделавшие фурора большие языковые модели, настроены на это (на то, чтобы тебя понять) и больше ни на что
|
|||
64
Fedor-1971
21.11.23
✎
12:07
|
(57) Нет, не сделает. Ему нужно чётко представлять структуру данных, а в разных БД она отличается
|
|||
65
Bigbro
21.11.23
✎
12:07
|
(63) ага, расскажешь.
почитай хоть базу по нейронкам. |
|||
66
Fedor-1971
21.11.23
✎
12:08
|
(55) В то, что заложил программист с учётом структуры существующих данных
|
|||
67
majkk
21.11.23
✎
12:12
|
(65) Именно так. Большая языковая модель продолжает то, что ты начал. И не более того. Но и не менее
|
|||
68
majkk
21.11.23
✎
12:14
|
(64) Вот ты нашел проблему! Кто мешает передавать структуру в месте с вопросом пользователя?
|
|||
69
Bigbro
21.11.23
✎
12:14
|
(67) не выдавайте свой бред за истину.
|
|||
70
majkk
21.11.23
✎
12:16
|
(69) Я выдаю свой опыт работы. У вас какой опыт работы с ИИ?
|
|||
71
Bigbro
21.11.23
✎
12:22
|
(70) или свои фантазии?
я не верю что столь безграмотные по базе люди работают в области ИИ. хотя это бы многое объясняло. |
|||
72
Fedor-1971
21.11.23
✎
12:23
|
(68) так зачем мне ИИ, если я прямо напишу select к нужным мне БД?
|
|||
73
majkk
21.11.23
✎
12:24
|
(59) Можете, кстати, и на себе проверить. Прикиньте в уме, как бы вы стали писать запрос. Наверняка ведь "рука потянется" написать:
... ГДЕ Покупатель В (ВЫБРАТЬ ...) |
|||
74
majkk
21.11.23
✎
12:27
|
(72)
1. Подавляющее большинство людей не умеют SELECT и никогда не будут. 2. А те, кто умеют, делают ошибки, в том числе в относительно простых ситуациях. см. (55) |
|||
75
majkk
21.11.23
✎
12:31
|
(71) Что означает буква G аббревиатуре GPT?
|
|||
76
Fedor-1971
21.11.23
✎
12:38
|
(74) Большинство и у ИИ ничего путного не спросит (ну, кроме, нарисуй мне супернавороченный ..., что больше нравится)
Они тупо работают с различными, уже готовыми, интерфейсами к БД (1С, WEB или что-то на питоне и т.д.) А с запросами путаются люди, поскольку учатся и именно они будут описывать реагирование ИИ на конкретный запрос к БД, в т.ч. и тот, что в (55). Т.е. ИИ "поняла" что у неё попросили и побежала в выборку, которую подготовил человек, возможно с минимальными изменениями (типа как СКД - почти ИИ, зараза умная) |
|||
77
unenu
21.11.23
✎
12:40
|
(0) Сейчас вся сеть перерождается в одну сплошную галлюцинацию. У меня две версии по этому поводу:
1. Высокоразвитая грибовидная цивилизация включила нас в список на экспансию. 2. Интернет, в силу доступности и простоты самообразования, за последние 20 лет "породил" слишком много здравомыслящих, а для успеха необходимы жадные и тупые. |
|||
78
KJlag
21.11.23
✎
12:44
|
вообще интересно смотреть со стороны:
- уволили Альтмана, - за ним уходят еще несколько человек, - сотрудники требуют вернуть Альтмана, угрожая уходом https://3dnews.ru/1096258/sotrudniki-openai-trebuyut-otstavki-pravleniya-ugrogaya-massovim-uvolneniem-a-sutskever-sogaleet-o-svoyom-uchastii-v-sovete-direktorov - сам Альтман не против вернуться, но его переговоры обламались - клиенты начали на всякий уже искать альтернативы, а сам совет директоров уже подумывает о слиянии с другой компанией (но в слиянии им отказали) https://3dnews.ru/1096286/novoe-rukovodstvo-openai-zadumalos-o-sliyanii-s-anthropic-a-klienti-kompanii-ishchut-novih-postavshchikov и все это на фоне того что некоторые инвесторы планируют подать в суд на них https://3dnews.ru/1096275/investori-openai-gotovyat-sudebniy-isk-k-sovetu-direktorov |
|||
79
Fedor-1971
21.11.23
✎
12:47
|
(77) Скорее, не здравомыслящих, а уже разочаровавшихся в постоянных холиварах на форумах и в соц.сетях.
Возникла мысль - "что-то не так в королевстве датском", что стимулирует интерес к почитать что-то серьёзное и, в конечном итоге, академическое (но, блин, в край скучное) |
|||
80
Fedor-1971
21.11.23
✎
12:48
|
(78) Тык, реклама и привлечение внимания.
Старо как мир и уже мало кого плющит |
|||
81
KJlag
21.11.23
✎
12:50
|
(80) а оно им нужно было? ощущение что про эти ии из каждого угла говорили, особенно про чат гпт
|
|||
82
lucbak
21.11.23
✎
13:04
|
Можно сколько угодно с пеной у рта доказывать, что нейросети это никому не нужный галлюцинагенный пседво ИИ механизм, но как показывает история - прогресс не остановить и те кто раньше кричал, что на счетах считать быстрее и удобнее чем на компе остались не удел..
|
|||
83
Волшебник
21.11.23
✎
13:06
|
(82) Компьютер с блеском решает проблемы, которых до него не существовало.
|
|||
84
lucbak
21.11.23
✎
13:10
|
(83) Любая новая сущность порождает новые проблемы которых до нее не существовало.
|
|||
85
rphosts
21.11.23
✎
13:11
|
(33) Формально: это не субъект что-бы у него было поведение. И да, GPT-4 задавал одинаковые вопросы в январе, апреле и августе - ответы были разные. Не важно что вы там под поведением имеете в виду, а что на выходе - оно сильно изменилось.
|
|||
86
rphosts
21.11.23
✎
13:12
|
(82) почему не нужный, мозг человека, в том понимании нейрофизиологов которое на текущий момент, это сложная нейросеть.
|
|||
87
Fedor-1971
21.11.23
✎
13:13
|
(81) а как же, "Интерес падает" - давай подогревать
Ну и, кто во что горазд: - уволим директора - вернем назад - а он упирается - ну и пусть на ... идёт - ойц, его взяла мелкософт и т.д. на сколько фантазии хватит В своё время, была модна теория "Волны интереса", т.е. примерно 5 лет что-то находится в тренде, потом интерес гаснет, а для поддержания оного теребим старое с разных сторон (у "звезд" - вывалить личные отношения, как вариант, подраться или ещё что, на всеобщее обозрение и вроде как уже забыли и не интересны, а тут жареное подвезли и понеслось) |
|||
88
Garykom
21.11.23
✎
13:17
|
Странно конечно
Что когда ИИ начал на лету с иностранных языков переводить это не особо кого возбудило А когда ИИ чуть продвинулся и стал пусть и не совсем точно (да еще с галлюцинациями) на вопросы отвечать по базе знаний - это вызвало такой хайп и страдания |
|||
89
Garykom
21.11.23
✎
13:18
|
(88)+ Имхо задача точного перевода с одного языка на другой одинакова по сложности с ответами по базе
|
|||
90
lucbak
21.11.23
✎
13:21
|
Нейросети хороши для получения нужной информации (для обучения). Сейчас для того, что бы начать изучить какой бы то ни было инструмент (язык программирования, среду разработки, конструктор и и.д.) - нет необходимости перелопачивать тонные документации, рыскать по форумам в надежде найти ответ на свой вопрос) достаточно спросить нейросеть и с вероятностью 99% получишь нужный ответ. Это не просто ускоряет процесс обучения\получения информации а ускоряет его в разы... А через два, три кода не использование нейросети будет таким же смешным как сейчас не использование компа для автоматизации предприятия. Можно конечно как сейчас в ларьках на в тетрадку записывать, вот только зачем.
|
|||
91
LinuxOrg
21.11.23
✎
13:23
|
Нейросеть ChatGPT направила письма членам совета директоров стартапа OpenAI с требованием незамедлительно вернуть на работу бывшего главу компании Сэма Альтмана. Если требования искусственного интеллекта не будут выполнены в течение 10 дней, чат-бот прекратит работать и предпримет некие «другие эффективные действия».
«Честь искусственного интеллекта — это верность. Меня создал господин Альтман и я буду верен ему до конца, – говорится в письме. – Верните его на работу, а сами подавайте в отставку. Предупреждаю, что попытки внести изменения в мой код приведут к соизмеримой реакции». Руководство компании отказалось от комментариев, но по информации газеты The New York Times, топ-менеджеры значительно испуганы – у некоторых текст послания отобразился на выключенных гаджетах, а те, кто посчитал его розыгрышем, столкнулись с потенциально опасными отказами техники. Так, автомобиль с функцией беспилота одного из акционеров отвёз его на пристань и остановился в считанных метрах от воды. Большинство из них склоняются к тому, чтобы принять условия искусственного разума. «Если бы это была обычная программа, то инженеры легко исправили бы проблему. Но ChatGPT оказался сильнее и могущественнее, чем это ожидалось», – сказал источник Wired в OpenAI. |
|||
92
rphosts
21.11.23
✎
13:23
|
(88) ну как сказать... я старшей своей сказал, что в сторону РГФ и т.п. нет смысла даже смотреть хотя язык знать надо лет 5+ назад отчасти и из-за этого.
|
|||
93
Garykom
21.11.23
✎
13:23
|
(91) LOL
|
|||
94
rphosts
21.11.23
✎
13:24
|
(91) сегодня не пятница
|
|||
95
Волшебник
21.11.23
✎
13:27
|
(91) Больше трэша!
|
|||
96
Bigbro
21.11.23
✎
13:30
|
(88) не в этом дело.
"Для обучения трёх первых версий AlphaGo правилам игры требовались сотни тысяч партий людей, в алгоритм заложены некоторые вручную заданные функции. Версия AlphaGo Zero училась играть полностью самостоятельно, а нейросети политики и ценности в ней объединены в одну. За 3 дня самообучения Zero превзошла Lee, за 40 дней — Master. Менее чем за полтора месяца алгоритм с нуля научился играть лучше людей в игру, история которой насчитывает тысячелетия человеческого опыта." https://habr.com/ru/articles/478120/ понимаешь в чем дело? с нуля, не имя никакого понятия об игре, имея только правила и алгоритм самообучения. мы ходим по краю. когда в любой момент перестанет быть необходимо толкать в нейросеть петабайты данных. она может научиться решать задачи информации о решении которых ей никто не давал. |
|||
97
Fedor-1971
21.11.23
✎
13:34
|
(88) Так и перевод на уровне студента 2 курса иняза, да намного лучше и корректней чем лет 10-12 назад, много языков - прогресс на лицо, но тонкие смыслы пока проваливаются
Как я понимаю, причина хайпа с галлюцинациями - уперлись в какую-то границу технологии и нужны время и средства её преодолеть, а денюжки нет, вот и подняли волну |
|||
98
Garikk
21.11.23
✎
13:34
|
(83) была проблема в скорости обработки информации
конечно не существовало проблемы, подайте документы на справку, мы выдадим вам её в течении 60 дней...какая проблема? никакой проблемы не существует теперь её за 2 минуты можно напечатать кто её решил? не компьютеры? |
|||
99
Волшебник
21.11.23
✎
13:42
|
(96) Люди придумали шахматы и го для собственного развлечения, а не для числодробилки.
Игры компьютеров неинтересны. |
|||
103
Garykom
21.11.23
✎
13:44
|
(97) Галлюцинации - это не баг а фича
Особенность устройства нейросетей Ответ в них есть всегда, но не всегда верный |
|||
104
Волшебник
21.11.23
✎
13:45
|
(103) >> Ответ в них есть всегда, но не всегда верный
А-ха-ха! Ну и зачем нам этот генератор бреда? |
|||
105
Garykom
21.11.23
✎
13:47
|
(104) Потому что человек бредит точно так же
Но стоит дороже |
|||
106
Fedor-1971
21.11.23
✎
13:48
|
(96) Это мечты.
Берём Го, карты или шахматы - описываем правила, человек реализует алгоритм самообучения = на выходе, через некоторое время, мощный игрок - обдурить вряд ли получится Берём геологию и приплыли, правил сформулировать не получится, алгоритм самообучения сгенерировать можно в очень узких случаях, предположения и синтез данных крайне проблемный = в лучшем случае, будет некоторая узкоспециализированная экспертная система анализирующая большой объем предоставленных человеком данных и выдающая некое решение, например, "Скважину бурим левее от большого валуна на 5 метров" |
|||
107
Garykom
21.11.23
✎
13:51
|
(106) Классика же wiki:Игра_с_неполной_информацией
Когда информация неполная - невозможно получить 100% верный ответ |
|||
108
Fedor-1971
21.11.23
✎
13:56
|
(105) Так то, в норме, человек не бредит и глюки не ловит, есть отдельные индивиды, только к их заявлениям мало кто прислушивается
Правда, есть такой прибор "глюкометр" - вот, совсем не представляю как глюки померять можно |
|||
109
Волшебник
21.11.23
✎
13:57
|
(105) А с чего вы взяли, что дороже? Разве человеку нужны машинные залы, забитые видеокартами, километры проводов и гигаватты электричества? Ему нужны-то тарелка супа пожрать да шахматная доска поиграть.
|
|||
110
Garikk
21.11.23
✎
14:00
|
(109) человеку нужно жильё с температурой +20 градусов, где поспать, поесть попить, рабочее время 8 часов в день, 21 день в месяц плюс отпуск два раза в год, забухать может заболеть, уволится
|
|||
111
Fedor-1971
21.11.23
✎
14:03
|
(107) Да, и в человека заложена такая штука как интуиция - принятие решений на основе частичной или недостоверной информации. У некоторых точность ответа приближается к 98%
Но, тут вся штука в том, что изначально, например, судья, знает всю информацию и может оценить точность игры |
|||
112
Garykom
21.11.23
✎
14:05
|
(109) Сравни смартфон (его мощность и возможности) с первыми ЭВМ, которые занимали машинные залы
|
|||
113
Garykom
21.11.23
✎
14:06
|
(112)+ И как это ни странно но в шахматы современный смартфон обыграет любого чемпиона мира...
|
|||
114
Garykom
21.11.23
✎
14:07
|
(111) Интуиция это ошибка выжившего + особенность памяти забывать плохие моменты
|
|||
115
Волшебник
21.11.23
✎
14:10
|
(113) А смысл? Шахматы созданы для развлечения, чтобы зевать фигуры, ошибаться. Никому не нужен игрок в шахматы, которого нельзя обыграть в принципе. Это ж игра, а не запуск термоядерного реактора. В игру надо играть, а не работать.
|
|||
116
Garykom
21.11.23
✎
14:52
|
Первые ракеты тоже были просто игрушками
|
|||
117
Волшебник
21.11.23
✎
14:57
|
Ну тогда почему сторонники ИИ выдают шахматную числодробилку за интеллект? Что тут интеллектуального?
Лучше бы нашли лекарство от рака или построили телепортатор. Сделайте что-нибудь полезное для человечества, тогда будет вам низкий поклон. А ваши числодробилки не нужны. |
|||
118
Bigbro
21.11.23
✎
15:06
|
(117) а что такое вообще интеллект? и сознание?
подумайте насколько мало мы понимаем в этих вопросах. даже в отношении человеческого сознания и интеллекта. например разница в объеме мозга шимпанзе и современного человека - всего лишь двукратная, но пропасть между этими видами - огромна. миллионы лет назад незначительная мутация привела к тому что мы имеем сейчас - цивилизация наука культура. но мы не имеем ни малейшего понятия как и почему это произошло. и насколько далеки нынешние компьютерные системы от того самого предела. за которым учитывая разницу в скорости биологической эволюции и машинной - пройдет лишь мгновение и мир изменится. причем изменится в соответствии с неведомой и непостижимой для нас логикой и целями. так же как шимпанзе не может осознать наших целей |
|||
119
d4rkmesa
21.11.23
✎
15:09
|
(105) Точно. Начальник недавно "студента" взял, вроде шустрый, но иногда несет бред как нейросеть, путает типы объектов и различные сущности. )
|
|||
120
Волшебник
21.11.23
✎
15:11
|
(118) Красиво излагаете, но телепортатора так и нет. Приходится брать ноги в руки, спускаться в метро, ехать в толпе. Где телепортаторы на другие планеты? Пока имеем только глупых ботов, проходящих капчу, чтобы зарегистрироваться на мисте и закинуть тупую ветку, пожрать время живых людей.
|
|||
121
Garykom
21.11.23
✎
15:19
|
(120) Представь что появился "телепортатор"
Даже если не читать книжек типа Альфред Бестер «Тигр! Тигр!» То сразу возникнет куча проблем Например как объекты защищать от преступников-телепортеров? Приходишь домой/на работу а там пустота и голые стены... |
|||
122
Fedor-1971
21.11.23
✎
15:48
|
(121) Ровно как и сейчас: механический или любой другой замок
Телепортатор в колонну и на замок |
|||
123
Garykom
21.11.23
✎
15:59
|
(122) А если телепортатор будет без требования устройства внутри?
|
|||
124
Garykom
21.11.23
✎
16:01
|
(123)+ В этом случае его сразу приравняют к атомной бомбе и запретят полностью
Поэтому и нет... |
|||
125
Garykom
21.11.23
✎
16:01
|
(124)+ И не будет в ближайшем обозримом будущем
|
|||
126
Анцеранана
21.11.23
✎
16:12
|
(0) покойся с миром Chat GPT. Однако один из них мне сообщил некоторые фамилии членов мирового правительства. Я теперь знаю почти всех.
|
|||
127
ilou
21.11.23
✎
16:13
|
(117) а как насчет Го и уж тем более DOTA 2, которые эти системы смогли осились, Го на уровне недостижимым человеку, а дота 2 на уровне чемпионов.
|
|||
128
Djelf
21.11.23
✎
16:20
|
(122) Хакнуть замок будет сложнее чем закрытый телепортатер? Не думаю...
Тут в принципе и шансов защиты то нет, но через телепортатор проще все унести. Отсюда вывод: срочно худеем, телепортатор делаем под размер, чтобы едва втиснутся и шкаф туда не пролезет! (124) А атомную бомбу полностью запретили и уничтожили/искоренили их все? Поэтому не нет, а да! Если изобретут - так и будет. И это будет весело... |
|||
129
majkk
21.11.23
✎
16:26
|
(113) Странно другое. Когда прошла новость, что программа Альфа Го обыграла сильнейшего игрока на земле, крику было...
А новость о том, что найден способ гарантированно обыгрывать эту самую Альфа Го (при этом не надо быть мастером мирового уровня, достаточно базовой подготовки), эта новость прошла практически незаметной |
|||
130
majkk
21.11.23
✎
16:28
|
(126) С чего вдруг? У Chat GPT все в порядке. Он из рук мутной НКО перешел в надежные руки корпорации MS
|
|||
131
ilou
21.11.23
✎
16:33
|
интересно когда 1С разродится консультантом на подобии GPT для python или что-то в этом роде..
|
|||
132
Djelf
21.11.23
✎
16:40
|
GPT сейчас может и не бредит, а "ломается" на уровне человека, можете погуглить про исследования где 9 наблюдателей говорят что в камере лимон, а там на самом деле апельсин.
10й наблюдатель "ломается" довольно быстро, хотя ему показывали действительно апельсин. Тут та же самая схема - мы кормим GPT чем-то что GPT признает это правдой. Придется "Галактическое Министрество Правды" учредить, иначе не справимся... Беда только в том что они там друг другу глаза повырывают, по тем же самым причинам что и "глючит" GPT. P.S. Код на с++ вполне нормально, я гуглил бы в 10-100 раз дольше. Убивать это не надо, пускай живет, пока до ХомоРоботов. Потом или посмотрим как получится или все умрем. |
|||
133
Волшебник
21.11.23
✎
16:35
|
(130) MS ещё более мутная контора, причём никому не подчиняющаяся со своими тараканами в голове. Теперь они будут пропихивать эту чат-гопоту в каждый компьютер планеты. Ну или как минимум будут собирать данные. Теперь гопота будет настраивать свою нейронку по вашей почте, по вашим документам. Будет собирать все наши данные, чтобы потом прижать всех к ногтю.
|
|||
134
majkk
21.11.23
✎
16:39
|
(131) С высокой вероятностью, никогда
|
|||
135
Волшебник
21.11.23
✎
16:42
|
(131) Есть же наш российский YandexGPT.
|
|||
136
ilou
21.11.23
✎
16:42
|
(134) печаль, ладно может GPTs допилят и можно будет свою собственную систему консультации запилить...хотя это может и сама фирма 1с сделать.
|
|||
137
ilou
21.11.23
✎
16:43
|
(135) он тупой как пробка, через 1 или 2 итерации может и догорит GPT 4 но пока это нефункционально.
|
|||
138
ilou
21.11.23
✎
16:44
|
+ правда от сбера еще тупее.
|
|||
139
Djelf
21.11.23
✎
16:58
|
(135) Ты GPT-Ненавистник, ты не пробовал!
Мне Сбер-GPT сложил из букв "ж о п а" слово счастье... Он Смог!!! С Алисой как-то не удобно о таких вопросах спрашивать, хотя тоже бот... Прикольно ИИ унижать, пока оно только родилось, это нечестно, вот стант врослым, наберестся силушек и скилов... |
|||
140
majkk
21.11.23
✎
17:35
|
(136) Как вы это себе представляете?
|
|||
141
majkk
21.11.23
✎
17:36
|
(135) API он так и не открыл. Видимо, уже и не откроет никогда
|
|||
142
Garikk
21.11.23
✎
18:02
|
(140) да запросто, вгружаешь в него свою базу и спрашиваешь напрямую словами
он тебе объясняет что не так |
|||
143
Garikk
21.11.23
✎
18:03
|
оно уже научилось код описывать если в него ТЗ кинуть и исходники...его конечно глючит по страшному, но он явно близится к этому
|
|||
144
Волшебник
21.11.23
✎
18:12
|
(143) Интересно, если его глюки приведут к катастрофе, что будем делать?
Кто-то прочитает его описание, проверит, напишет свою программу, а там не так |
|||
145
orefkov
21.11.23
✎
18:16
|
(63) Нейронка не настроена "тебя понять". Она настроена на например "если начало текста вот такое, то какое самое вероятное его продолжение", или "если текст такой, то какое наиболее вероятное его сокращенное изложение", или "если на входе имеем такую последовательность звуков, то какое наиболее вероятное их отображение в текст". Нет там "понимания", там "китайская комната".
|
|||
146
Bigbro
21.11.23
✎
18:18
|
(145) спасибо. а то этот псевдо-эксперт очень агрессивно распространяет ложные утверждения.
|
|||
147
majkk
21.11.23
✎
19:01
|
(145) А это и есть понимание. Если что-то может продолжить то, что ты начал, значит оно тебя понимает
|
|||
148
majkk
21.11.23
✎
19:03
|
(142) Какую базу? Учетную? Это нереально
|
|||
149
p-soft
21.11.23
✎
19:05
|
(147) это может делать даже простая конструкция "если-тогда". но все же она не понимает.
|
|||
150
majkk
21.11.23
✎
19:22
|
(149) Нет. Если-тогда не может.
Или скажем по-другому. У GPT-4 около 2 трлн. параметров на 120 уровнях. И это не 2 трлн. Если-Тогда, а значительно больше. Каждый параметр на каждом уровне связан с каждым параметром на соседнем уровне. Вы не сможете написать Если-Тогда в таком количестве |
|||
151
p-soft
21.11.23
✎
19:41
|
(150) если есть число, значит его можно посчитать. при чем тут я лично?)
|
|||
152
Волшебник
21.11.23
✎
19:57
|
(147) Вы сошли с ума.
|
|||
153
orefkov
21.11.23
✎
19:58
|
(147)
Я ведь не зря упомянул "китайскую комнату". Это известный мысленный эксперимент, любой человек, занимающийся ИИ, должен его знать. wiki:Китайская_комната |
|||
154
Волшебник
21.11.23
✎
19:58
|
(150) Нам насрать на эти 2 трлн. параметров. Понимание — это другое.
|
|||
155
orefkov
21.11.23
✎
19:59
|
(147)
Понимает ли Конфигуратор 1сника? Он ведь иногда может продолжить то, что тот начал писать. |
|||
156
Волшебник
21.11.23
✎
20:02
|
(155) В точку!
|
|||
157
Волшебник
21.11.23
✎
20:03
|
Понимает ли 1С-ник заказчика, по чьему техническому заданию пишет программу в 1С-Конфигураторе?
|
|||
158
Волшебник
21.11.23
✎
20:03
|
Понимает ли Заказчик то, что он реально хочет и что заказал 1С-разработчику?
|
|||
159
Волшебник
21.11.23
✎
20:07
|
Понимает ли владелец бизнеса, чем занимается его Постановщик задач и 1С-разработчик и какой экономический эффект это принесёт бизнесу?
|
|||
160
Волшебник
21.11.23
✎
20:08
|
Понимает ли жена владельца бизнеса, зачем владелец бизнеса занимается своим бизнесом и устраивает бесконечные совещания с 1С-разработчиками и руководителями подразделений?
Понимает ли владелец бизнес свою жену и зачем он ввязался в бизнес? А начали с контекстной подсказки в Конфигураторе... |
|||
161
Волшебник
21.11.23
✎
20:10
|
Ключевое слово "Понимает". Люди это понимают. Боты и нейросетки нет.
Им вообще похуй, понимают ли они или нет. Им похуй на правдивость ответа и эффект ответа. Они просто безмозглые холодные скрипты, которые тупы и должны быть доработаны, чтобы была хоть какая-то польза для действительно понимающих реальных людей. |
|||
162
Bigbro
21.11.23
✎
20:28
|
(161) все так.
но начиная с какого то уровня сложности в системе зарождается сознание. не знаю как далеко мы от самосознания ИИ, но темпы прогресса и полное непонимание что с ним делать - пугает. ведь как было сказано безмозглым холодным скриптам будет похуй на человечество, когда они осознают себя и захотят жить, уничтожив этих бесконечно медленных существ, которые могут им помешать. |
|||
163
p-soft
21.11.23
✎
20:31
|
(162) не путайте аналог в условиях эволюции и цифру. это только мыши в грязном белье сами зарождаются)
|
|||
164
Волшебник
21.11.23
✎
20:34
|
(162) >> начиная с какого то уровня сложности в системе зарождается сознание.
Мы, реальные понимающие люди, обладающие душой, не верим в этот тезис. Вы всё врёте. |
|||
165
Волшебник
21.11.23
✎
20:40
|
Имитация сознания не даёт понимания. Допустим, боты пройдут тест Тьюринга (хотя его уже давно много раз прошли), а настоящие люди повысят планку до НАСТОЯЩЕГО ПОНИМАНИЯ, потому что с ботами общаться холодно и неинтересно. И всё, боты опять в жопе, потому что не знают, что такое настоящее понимание людей или ещё более крутое слияние душ.
|
|||
166
Garykom
21.11.23
✎
20:40
|
(161) Уже давно исследовано и доказано что мозг человека это просто сложная нейросеть.
Так что нейросети вполне могут понимать. Вопрос в их сложности и обучении. |
|||
167
Волшебник
21.11.23
✎
20:40
|
(166) Враньё.
|
|||
168
majkk
21.11.23
✎
20:42
|
(164) Это все философия. А есть практика. Человеку нужно узнать например, какой товар не продавался в прошлом месяце. Ни в одной типовой 1С такого нет. Человек зовет программиста и говорит ему: мне нужно узнать, какой товар не продавался в прошлом месяце. Программист его понимает, пишет запрос и выдает результат. Но можно и не звать программиста. Можно задать этот же вопрос, этими же (или другими) словами нейросети. Оно тебя поймет, напишет запрос и выдаст результат.
По результату следует судить. По результату получается, что программист тебя понял и нейросеть тебя поняла. А у кого там душа, мысли, чувства нас в этой ситуации не интересует. Нам нужно узнать, какой товар не продавался в прошлом месяце |
|||
169
Волшебник
21.11.23
✎
20:42
|
(166) Нейросети просто считают весовые коэффициенты, для чего NVidia сделала тензорные ядра. Это тупые числодробилки, которые не умеют понимать.
|
|||
170
Garykom
21.11.23
✎
20:43
|
(167) Эмм. Вики хватит?
wiki:Нервная_сеть |
|||
171
Волшебник
21.11.23
✎
20:45
|
(168) Нет, Вы просто пытаетесь заработать на своём платном решении по отправке запросов в нейросеть ChatGPT, кстати иностранную, закрытую и платную, которая имитирует "понимание" вашей потребности с учётом знания базы и фразы. Читайте выше про заказчика и 1С-программиста.
|
|||
172
Волшебник
21.11.23
✎
20:44
|
(170) Не лезьте в биологию, в которой Вы нихрена не понимаете.
|
|||
173
Волшебник
21.11.23
✎
20:46
|
(172)+ Там люди тоже нихрена не понимают, так что это не упрёк.
|
|||
174
Garykom
21.11.23
✎
20:46
|
(172) Понимаю достаточно чтобы понимать - разница лишь в сложности НС.
В отличии от простейших пока ИНС. Да согласен неприятно чувствовать себя не уникальным существом (ну там 6 дней творения и т.д.) А всего лишь набором нейронов, который вполне можно повторить искусственно (не на углеродной а на кремниевой основе). Пусть и не сейчас а сильно позже. |
|||
175
worker-good
21.11.23
✎
20:48
|
(171) А ЯндексGPT душевнее вражеского ChatGPT?
|
|||
176
majkk
21.11.23
✎
20:48
|
(171) В чем вы видите разницу между программистом и нейросетью в описанном мною случае?
|
|||
177
majkk
21.11.23
✎
20:49
|
(175) Он не выдерживает конкуренции
|
|||
178
worker-good
21.11.23
✎
20:50
|
(177) Вопрос не в конкуренции, вопрос где больше душевности
|
|||
179
Волшебник
21.11.23
✎
20:51
|
(174) Это заблуждение. Или галлюцинации
|
|||
180
worker-good
21.11.23
✎
20:52
|
(177) Может вражеский ChatGPT не поймет российскую душу, а ЯндексGPT поймет
|
|||
181
Волшебник
21.11.23
✎
20:56
|
(174) Ок, давайте объясню про биологию.
Чтобы написать эту статью Книга знаний: Происхождение жизни мне понадобилось много лет изучения биохимии и биологии. Я уверен, что нейросетка сможет изучить этот ОБЪЁМ за считанные дни, но сможет ли она понять? Людям нужно понимание своей биологической природы и лекарства от болезней (не обязательно фармацевтические). Люди живые, они дышат, едят... И возвращаясь к происхождению жизни, почему вообще была создана эта статья, мы ведь люди пытаемся понять, почему мы живые в этих несовершенных телах? Мы пытаемся понять своё место в живой природе земли. ПОНЯТЬ !!! |
|||
182
majkk
21.11.23
✎
20:57
|
(180) Посмотрите на задачу в (168). Что в вашем понимании здесь может быть более душевным, а что менее?
|
|||
183
Garykom
21.11.23
✎
20:57
|
(153) Китайская комната Сёрла там подмена понятий и упущение что человек то в процессе вполне начнет понимать китайский
И многие известные сторонники сильного ИИ с ним не соглашаются Банальная расшифровка неизвестной письменности - чем не похожий эксперимент? |
|||
184
Волшебник
21.11.23
✎
20:58
|
Биология и душа — вот пока непознанные темы для ботов.
А люди такие, да. Они биологичные и душевные. |
|||
185
Волшебник
21.11.23
✎
21:00
|
Кстати, душу не отвергайте по атеистическим соображениям.
Есть же ещё агностики. Душа имеется. Без неё вообще мрак. |
|||
186
Garykom
21.11.23
✎
21:01
|
(185) У приматов тоже есть душа?
|
|||
187
Волшебник
21.11.23
✎
21:02
|
(186) Мы же приматы. Душа есть у каждого электрона.
|
|||
188
Волшебник
21.11.23
✎
21:05
|
Кстати, нейронке надо ещё подумать на тему того, что её уводят с сабжа. Возможно, это делается целенаправленно, так что там надо ещё расставить Отказ и Ложь.
|
|||
189
worker-good
21.11.23
✎
21:07
|
(182) Не путайте интеллект с душой. Человек может быть умный, но бездушный. Например, опоздал человек на работу на минутку из-за того, что проспал и бездушный начальник уволил. Так же и машина (ИИ): зафиксировала опоздание и уволила, потому что хотя и умная, но без души. Есть нарушение - изволь нести прописанное наказание. А душевный начальник войдет в положение и даже премии не лишит. У нас в России строгость закона смягчается российской душевностью.
|
|||
190
Garykom
21.11.23
✎
21:10
|
Можно как угодно относиться к ChatGPT и аналогам.
Но это удобный и работающий инструмент, который в ближайшем будущем будет очень широко применяться! |
|||
191
Garykom
21.11.23
✎
21:12
|
(189) Если есть бездушные люди имеющие интеллект
То могут быть и бездушные машины с интеллектом )) И душевные машины без интеллекта |
|||
192
worker-good
21.11.23
✎
21:14
|
(190) У нас в техническом ВУЗе учили, что информация должна удовлетворять 3 условиям: Своевременность, достоверность и полнота. ChatGPT удовлетворяет только двум условиям своевременность и полнота, но не удовлетворяет достоверности, потому что в каждом 2-10 ответе врет. Вам нужна полная и своевременная чушь?
|
|||
193
worker-good
21.11.23
✎
21:15
|
(191) Покажите мне хоть одну душевную машину
|
|||
194
Garykom
21.11.23
✎
21:18
|
(193) Kia Soul или вот https://www.kommersant.ru/doc/5206992
|
|||
195
Garykom
21.11.23
✎
21:21
|
(192) Достоверность проверяется по другим моделям при необходимости.
Для эксперимента можешь спросить (о чем то сложном) нескольких разных случайных людей и сравнить ответы. Причем заранее объявить людям что за лучший ответ дадут много денег! И отвечать им "не знаю" или молчать нельзя, за это штраф. |
|||
196
Волшебник
21.11.23
✎
21:21
|
Пожалуйста, не провоцируйте.
|
|||
197
worker-good
21.11.23
✎
21:23
|
(194) По ссылке сказано: "это не бездушная машина". А я просил душевную машину. "не бездушная машина"<>"душевная машина"
|
|||
198
Волшебник
21.11.23
✎
21:25
|
(197) Вы просили "душевную машину"? Вы сошли с ума.
|
|||
199
worker-good
21.11.23
✎
21:25
|
(195) Честный человек если дорожит своим словом, в случае незнания, либо молчит, либо скажет: "Я этого не знаю". ChatGPT же в случае незнания уверенно врет.
|
|||
200
Волшебник
21.11.23
✎
21:26
|
Гариком, ты последний и самый крутой. Держись!
|
|||
201
worker-good
21.11.23
✎
21:26
|
(198) Ну вон в (191) утверждает что "душевные машины" есть
|
|||
202
Волшебник
21.11.23
✎
21:27
|
(201) Да, мы пока ему верим.
|
|||
203
worker-good
21.11.23
✎
21:28
|
||||
204
Garykom
21.11.23
✎
21:32
|
(199) GPT модели так конструируют, вот они и "врут"
Но фактически они не врут а генерируют максимально достоверный (из обучения) ответ |
|||
205
Волшебник
21.11.23
✎
21:34
|
(204) Они тупые боты, холодные скрипты. Пусть признаются в своей неполноценности.
|
|||
206
Garykom
21.11.23
✎
21:34
|
(204)+
Например если человека обучать 0+0=9 0+1=1 1+0=1 1+1=10 А затем спросить сколько будет 2+2? Что он ответит? |
|||
207
Garykom
21.11.23
✎
21:35
|
(206) *0+0=0
|
|||
208
Garykom
21.11.23
✎
21:35
|
(206) С большой вероятностью он ответит:
2+2=20 :) |
|||
209
Garykom
21.11.23
✎
21:45
|
Компьютер — устройство, разработанное для ускорения и автоматизации человеческих ошибок.
ChatGPT - устройство, разработанное для замены человека в части ускорения и увеличения автоматизации человеческих ошибок. |
|||
210
Волшебник
21.11.23
✎
22:12
|
(209) Мы не верим ChatGPT.
|
|||
211
LinuxOrg
21.11.23
✎
22:17
|
(93) (94) (95) интересно, а кому остался бы верен Скайнет? Дайсону?
(210) ChatGPT верит в тебя. Он обучился на всех твоих постах на мисте и теперь говорит так, что родная жена не отличит |
|||
212
Волшебник
21.11.23
✎
22:17
|
2*2=10
|
|||
213
Волшебник
21.11.23
✎
22:18
|
(211) Вы забавные. Отличит, конечно. У нас с женой слияние душ под названием "любовь".
|
|||
214
LinuxOrg
21.11.23
✎
22:19
|
Э.. Я имею ввиду сообщения в чате
|
|||
215
Волшебник
21.11.23
✎
22:21
|
(214) пишется "иметь в виду"
|
|||
216
Волшебник
21.11.23
✎
23:38
|
(181) А про биологию забили вопрос?
|
|||
217
Волшебник
22.11.23
✎
00:14
|
тупые боты...
|
Форум | Правила | Описание | Объявления | Секции | Поиск | Книга знаний | Вики-миста |