|
Три закона роботехники и ИИ (БПЛА) | ☑ | ||
---|---|---|---|---|
0
Гость из Мариуполя
гуру
26.11.24
✎
20:37
|
наткнулся тут на статью "Искусственный интеллект в БПЛА: как он изменил ход СВО"
https://topwar.ru/233693-pravka-iskusstvennyj-intellekt-v-bpla-kak-on-izmenil-hod-svo.html Да и в телеграмме наши военкоры тоже подтверждают применение нашими схожих дронов. Но суть не в этом Война, как известно, является двигателем прогресса. Ну.. скажем так - двигателем определенного прогресса в определенных областях. В данном случае использование ИИ в применении БПЛА. И терзает меня печаль - плевать военным на три закона роботехники. Ошибся старик Айзек, ох как ошибся. Да, ИИ пока еще несовершенен, но уже сейчас разработки и применение ИИ военными уже прямо сейчас на практике уже нарушают все законы роботехники, провозглашенные Айзимовым. Отсюда вывод - Скайнет неизбежен. Военные не откажутся от применения ИИ в военных целях. То есть роботам будет дозволено (да что там, уже дозволено) убивать людей. Осталось только дождаться совершенствования ИИ. |
|||
1
Волшебник
26.11.24
✎
20:36
|
в БПЛА никакого ИИ нет.
Да даже если бы был, то что сильному ИИ гибель какого-то агента? Это как я на мисте забаню бота, так он зарегит ещё сотню или чужие ники угонит. |
|||
2
Волшебник
26.11.24
✎
20:38
|
Мне вот эта статья понравилась:
«Я — робот Вертер» или Нулевой закон робототехники https://habr.com/ru/companies/ruvds/articles/861302/ Кстати, это ж первое дело. Пусть робот начнёт признаваться, что он робот, перестанет выдавать себя за человека. Тогда поговорим. Сила в правде |
|||
3
Гость из Мариуполя
гуру
26.11.24
✎
20:40
|
(1) Это пока нет. В одном отдельно взятом дроне. А в перспективе все есть. В сети дронов.
Но опять же вопрос не в этом конкретном БПЛА. А в том, что военные в перспективе разрабатывают различные системы на основе ИИ, которым позволено убивать людей. Пусть пока это только разработки, важен сам факт таких разработок. |
|||
4
Волшебник
26.11.24
✎
20:44
|
(3) Такая у них работа — Родину защищать.
На войне нет никаких убийств. Там идёт планомерное уничтожение противника. |
|||
5
Гость из Мариуполя
гуру
26.11.24
✎
20:44
|
(2) в этой статье "безвредные" роботы. Они не убивают людей.
В прямом смысле - не сбрасывают взрывчатку, не стреляют из пулеметов. В отличие от роботов и ИИ, разрабатываемых военными. |
|||
6
Волшебник
26.11.24
✎
20:45
|
(5) Они жрут время, отнимают жизнь, снижают КПД. Это убийство части жизни человека.
|
|||
7
Гость из Мариуполя
гуру
26.11.24
✎
20:48
|
(4)
Там идёт планомерное УНИЧТОЖЕНИЕ противника.
Вот именно, что завтра Скайнет переклинит и противником она может назначить кого угодно. По Айзимову, роботы вообще (ВООБЩЕ НИКОГДА) не должны причинять вред человеку. А мы тут делаем допущения - это хороший, человек, его нельзя убивать, а это плохой - его можно. Но это наши понятия "хороший", плохой". А какие понятия будут у Скайнет - хз. |
|||
8
Гость из Мариуполя
гуру
26.11.24
✎
20:50
|
В общем, уже сейчас идут практические разработки, прямо нарушающие законы Айзимова.
Отсюда вопрос - Айзимов неправ? Его законы неверные? Они (эти три закона роботехники) - не более чем фэнтези и в практической жизни неприменимы? Жаль, если так. |
|||
9
Irbis
26.11.24
✎
20:57
|
(7) Законы Айзека нарушили не роботы, а люди, с них и спрос. Как робототехник по диплому констатирую. Робот когда убивает долбоёба, зашедшего в клетку к манипулятору не виноват.
|
|||
10
Гость из Мариуполя
гуру
26.11.24
✎
21:05
|
(9) Робот когда убивает долбоёба, зашедшего в клетку к манипулятору не виноват.
Ты говоришь про рядового промышленного робота и про нарушение техники безопасности. (Хотя и тут - хреновый был роботехник, если не предусмотрел элементарной защиты от дурака). Я же говорю про разработку специальных систем, изначально предназначенных для убийства людей. Промышленный робот и нарушение ТБ дураком - это одно, это воспринимается нормально, а дрон, гоняющийся за человеком или за БТР (и игнорирующий РЭБ, что свидетельствует о самостоятельной работе дрона) - это немножко другое. |
|||
11
Гость из Мариуполя
гуру
26.11.24
✎
21:07
|
(9) Законы Айзека нарушили не роботы, а люди, с них и спрос.
О чем и речь. О чем и толкую. Военные разработки в части ИИ и роботехники нарушают законы Айзека, о чем и говорю. |
|||
12
mmg
26.11.24
✎
21:09
|
(8) Азимов
|
|||
13
Гость из Мариуполя
гуру
26.11.24
✎
21:15
|
(12) да, извиняюсь, поторопился. Айзек+Азимов - собрал из двух слов=Айзимов. Спасибо за замечание, исправлять не буду, пусть все видят, какая я бестолочь :)
|
|||
14
mmg
26.11.24
✎
21:17
|
(0) Кто его знает, как оно повернется. Возможно, что на этом войны и прекратятся. Вопросы будут решаться проще:
"Сколько у вас 5-Гигаватных датацентров? Нисколько? А у нас их 100. Так что..." |
|||
15
Irbis
26.11.24
✎
21:24
|
(10) А по твоему военный робот должен конфетки раздавать и газировку разливать?
|
|||
16
Гость из Мариуполя
гуру
26.11.24
✎
21:32
|
(15) хм.. сарказм говоришь? конфетки говоришь? ну-ну..
отличие только в одном - наши системы ИИ еще неразвиты. Но это вопрос не столь уж и далекого будущего. Какие IT-технологии были 50 лет назад и какие будут через 50 лет... https://vk.com/video526981120_456243047? |
|||
17
Гость из Мариуполя
гуру
26.11.24
✎
21:38
|
(15) А по твоему военный робот
Как по-моему, то разработку военных роботов надо запрещать уже сейчас и приравнивать такой вид деятельности хуже, чем к "международному терроризму с ядерной бомбой". На уровне ООН. С подписью всеми странами - членами ООН. И уничтожать разработчиков таких роботов на корню. Но это фантастика... |
|||
18
mmg
26.11.24
✎
21:47
|
(17) Нет смысла. Уже сейчас есть роботы, которым можно сказать (словами, через рот) "пойди туда, сделай то" и они идут и делают. При этом "туда" и "то" заранее не программируются. И что вы тут собрались запрещать?
|
|||
19
Гость из Мариуполя
гуру
26.11.24
✎
21:55
|
(18) И что вы тут собрались запрещать? Дальнейшее развитие. Развитие в полноценную систему, подобную Скайнет. То, что есть сейчас - это только жалкие зачатки.
А вот дальнейшее развитие этих жалких зачатков я и "собрался запрещать", по вашей терминологии, хотя, конечно, я ничего запрещать не собирался, ибо нет таких полномочий у меня, а есть только пожелания. |
|||
20
Irbis
26.11.24
✎
21:59
|
(17) Все изобретения человека всегда были направлены на уничтожение себе подобных. Это неизменно, ибо кто палку взял, тот и капрал. Противопехотные мины не могут запретить, ядрён-батон и много ещё чего пострашнее дронов. Снявши голову по волосам не плачут, и боржомчик в нынешней ситуации не поможет, почкам уже каюк.
P.S. Про ООН юмор вообще зачётный |
|||
21
Гость из Мариуполя
гуру
26.11.24
✎
22:19
|
(20) ну, про ООН я сразу сказал - фантастика :)
А про все остальные изобретения - тут вот какая штука. Все они (изобретения) управлялись и пока еще управляются человеком. Хоть палка, хоть ядрен батон. А здесь чисто гипотетически мы можем создать систему (и уже начали создавать ее зачатки), систему, которая гипотетически может выйти из-под управления человека. Так что принципиальная разница изобретений есть. Под управлением система или вышла из-под управления, стала недоступной для управления, самостоятельной. А дроны - да, ты прав, сейчас пока еще много чего пострашнее дронов. А дроны - да, пока зачатки. Типа как первый полупроводниковый транзистор. Но - а как много времени прошло от первого транзистора до процессоров 14 поколения? Миг, мгновение. |
|||
22
mmg
26.11.24
✎
22:30
|
(19) Насчет "жалких зачатков" вы просто не в курсе. В основном все уже сделано.
|
|||
23
mmg
27.11.24
✎
07:14
|
(19) Скайнет это страшилка. Наивные представления о технологиях. Роботы не выйдут из-под управления людьми. Но что толку в этом? Люди могут выходить (и выходят) из-под управления людьми. Вот в этом и была и есть проблема. Роботы ее не усугубят, а скорее смягчат
|
|||
24
Злоп
26.11.24
✎
23:05
|
(4) кстати, да. Христианская заповедь "не убий" в православии понимается в уголовном смысле (если объяснение этой заповеди упростить)
|
|||
25
Злоп
26.11.24
✎
23:03
|
(20) поэтому и молчит Вселенная. Цивилизации делают капцы сами себе. И, скорее всего, и нашу ждет такая же участь.
|
|||
26
Aleksey
26.11.24
✎
23:08
|
(8) Люди строят печки на дровах - печки загрязняют воздух, люди думают как уменьшить загрязнение, строят фильтры, меняют дрова на газ.
Так и с законами работотехники. Мы пока только начинаем строить печку на дровах и пока никто не заботиться об экологии. Так что Азимов прав, это мы еще не доросли до этого уровня, когда нужны будут 3 закона |
|||
27
Aleksey
27.11.24
✎
07:13
|
(16) Если сейчас помощники в машине не дают мне задавить людей, а сами тормозят машину - означает ли это законы работают и ИИ не может причинить вред людям?
|
|||
28
Aleksey
26.11.24
✎
23:13
|
P.S. Вы серьезно обсуждаете произведения фантаста и натягиваете ее на реальность?
|
|||
29
Грю
27.11.24
✎
05:56
|
(0) А что плохого в этом? Ведь люди не обязаны подчиняться выдуманным законам какого-то фантазера. Если каждый писатель придумает свои законы, то что тогда? Люди подчиняются реальным законам, и конструируют роботов руководствуясь только ими. А там не написано что роботу запрещено убивать людей. Наоборот, роботу за это ничего не будет, хоть каждый день по десять начинок для гробов замочит, он не отвечает за свои действия, в тюрьму его никто не посадит. Это все равно, что осуждать автомат Калашникова (или его создателя, Калашникова, пардон за каламбур), за то что он убил тысячи людей, нарушив закон автоматов. Но его не судят, а наоборот хвалят, хороший автомат. Так что все с порядке, пусть продолжают делать то, что они делают.
|
|||
30
Волшебник
27.11.24
✎
07:15
|
(29) автомат Калашникова придуман не для убийств, а для защиты Родины. Всё время путают понятия.
|
|||
31
Stepashkin
27.11.24
✎
07:58
|
(29) Калашников придумал автомат не для убийств, а для защиты своей Родины.
|
|||
32
KJlag
27.11.24
✎
09:03
|
(23) я чет сразу вспомнил вот этот случай https://dzen.ru/a/Zr9CEZXBcXUIu8zi
когда ИИшка пошла корректировать свой же код. |
|||
33
Lama12
27.11.24
✎
09:22
|
(30) (31) Сразу вспомнился произведение Лукьяненко - "Звезды холодные игрушки". У Геометров вообще нет оружия, есть нестандартное применение абсолютно мирных устройств. 😁
|
|||
34
Волшебник
27.11.24
✎
10:03
|
(32) Тупо сами накосячили с бесконечной рекурсией, зато получилась статья с громким заголовком. У нейронок нет никакого "исходного кода на Python"
|
|||
35
d4rkmesa
27.11.24
✎
10:23
|
(29) Типичное современное смузихлебство, "ачетакова". А ведь до ковида на западе было такое явление среди разработчиков, как отказ работать в военных компаниях и стартапах примерно по соображениям из (0).
Другая аналогия, ну сожрала кого-то стая собак, зоошизики уверены, что виноват только человек(которого сожрали в данном случае), ведь собаки не отвечают за свои действия, собак нужно кормить. (0) Убежден, что нужна конвенция, которая бы запрещала автоматическое распознавание людей дронами и прочими военными устройствами с наведением. Впрочем, вряд ли это будет работать, как не работают сейчас конвенции по ППМ или кассетным боеприпасам. |
|||
36
maxab72
27.11.24
✎
10:28
|
что должно считаться роботом, а что нет? Торпеда времен ВМВ с самонаведением на звук, это уже робот или еще нет?
|
|||
37
Garikk
27.11.24
✎
11:21
|
(35) < А ведь до ковида на западе было такое явление среди разработчиков, как отказ работать в военных компаниях и стартапах >
Ты думаешь это только на западе и было? это вообще распространённая модель поведения человека Я когда ищу работу, вообще не рассматриваю военку и конторы с ней связанные. и довольно много людей делают также, сейчас я на собесах такое иногда слышу в вопросах о том какие проекты есть в компании |
|||
38
Lama12
27.11.24
✎
11:22
|
(36) Кастрюля "скороварка" с предохранительным клапаном - робот. Она сама решает когда клапану сработать. Это полноценный искусственный интеллект.
|
|||
39
Irbis
27.11.24
✎
11:44
|
(30) это не робот даже на минуточку, максимум датчик давления, к тому же с почти дискретной характеристикой. Вот если бы кастрюля решала когда будет суп готов и крышку открывал, отключив газ... тогда ешё можно подумать над её роботностью
|
|||
40
maxab72
27.11.24
✎
12:02
|
(39) Современные "умные" скороварки это умеют, а особо умные еще и на соль попробуют и досолят если надо...
|
|||
41
Волшебник
27.11.24
✎
12:03
|
(40) И сами суп съедят?
|
|||
42
maxab72
27.11.24
✎
12:06
|
(41) "Вы и конфеты за меня есть будете?" - "Ага!!!" ("Вовка в тридевятом царстве") Думаю, такие скороварки появятся не скоро...
|
|||
43
Fynjy
27.11.24
✎
12:15
|
(38) процедура написанная программистом не ИИ. ИИ на текущий момент не существует.
|
|||
44
RVN
27.11.24
✎
12:20
|
(37) И все эти человеки не забывают исправно ныть, чтобы государство их защищало и оберегало их права...
|
|||
45
Eiffil123
27.11.24
✎
12:28
|
(43) живых существ тоже не существует. это набор молекул, удивительным (случайным) образом собравшийся в одну кучу.
|
|||
46
Dmitrii
гуру
27.11.24
✎
12:44
|
(8) >> Айзимов неправ?
Неправ >> Его законы неверные? Они верны исключительно в контексте выдуманных им миров. >> Они (эти три закона робототехники) - не более чем фэнтези и в практической жизни неприменимы? Безусловно. Азимов, как и большинство его современников - фантастов и футурологов, склонны были очеловечивать роботов. То есть иметь представление о роботе как человекоподобной машине, наделённой в той или иной степени интеллектом и собственной свободой воли, без которой (как им думалось) невозможен интеллект. Кроме того робот считался самостоятельной и самодостаточной сущностью (опять таки по аналогии с человеком). Отсюда представления о том, что существует возможность заложить в программу некие ограничения - так называемые законы робототехники. Реальность оказалась несколько иной. (мягко говоря) Само явление ИИ и нейросетей имеет весьма условное отношение к человеческому интеллекту и очень далеко от него. ИИ вообще не оперирует теми понятиями, которые изложены в законах Азимова. А пример и вопрос в (0) вообще к законам Азимова не имеет никакого отношения. Законы Азимова были написаны для роботов и распространялись на роботов. Примеры в (0) описывают не роботов, а людей, которые создали и обучили модели ИИ для убийства других людей. Исполнять или нарушать законы может только тот, кто осознаёт себя как субъект юридического права. ИИ пока такой способностью не обладает. И не факт, что он вообще сможет осознавать себя, как осознаёт себя человек. Короче. Реальность (впрочем как обычно) не имеет (и никогда не будет иметь) никакого отношения к тому, что писали фантасты и представляли себе футуристы всех мастей. |
|||
47
Грю
27.11.24
✎
17:08
|
(35) то есть ты предлагаешь запретить военным и полицейским использовать собак для борьбы с врагами, потому что какая-то стая бездомных собак напала на человека? Шизо косит наши ряды.
|
Форум | Правила | Описание | Объявления | Секции | Поиск | Книга знаний | Вики-миста |