

How to AI
#41
Отправлено 03 March 2015 - 09:20
Например ассистент-суицидник явно поехавший.
Ну и ии должен действовать по прицнипу минимального вреда.
#42
Отправлено 03 March 2015 - 17:58
fey (03 March 2015 - 09:20) писал:
Хуйню сказал.
ИИ не выбирает наименьший из двух вредов.
Он не должен допустить ВООБЩЕ, ВООБЩЕ никакого вреда.
Яблочко (03 March 2015 - 08:32) писал:
"[usr] весь такой кодер."
#43
Отправлено 03 March 2015 - 18:05
ucnaHez (03 March 2015 - 17:58) писал:
Хуйню сказал.
ИИ не выбирает наименьший из двух вредов.
Он не должен допустить ВООБЩЕ, ВООБЩЕ никакого вреда.
Кто это тебе сказал?
А вот корпореит законы дают тут трещену:
Protect: Protect the crew of your assigned space station to the best of your abilities, with priority as according to their rank and role.
Так что в теорий, можно причинить небольшой вред человеку, что бы защитить его от самого себя.
-Это не баг, это фича
#44
Отправлено 03 March 2015 - 18:19
#45
Отправлено 03 March 2015 - 18:23
Navedan (03 March 2015 - 18:05) писал:
А вот корпореит законы дают тут трещену:
Protect: Protect the crew of your assigned space station to the best of your abilities, with priority as according to their rank and role.
Так что в теорий, можно причинить небольшой вред человеку, что бы защитить его от самого себя.
Корпорейт? Это не законы.
Kopistko (03 March 2015 - 18:19) писал:
Нет, конечно был нулевой закон, но мы про него не говорим.
А вот роботов-полицаев что-то не помню. Помню как обычные роботы блокировали человека, вроде как заламывая ему руки, но при этом не нанося вреда. Когда у тебя вместо рук гидравлические (или сорт оф) манипуляторы, ты можешь себе позволить заблокировать человека, не нанося тому вред.
"[usr] весь такой кодер."
#46
Отправлено 03 March 2015 - 18:32
ucnaHez (03 March 2015 - 17:58) писал:
ИИ не выбирает наименьший из двух вредов.
Он не должен допустить ВООБЩЕ, ВООБЩЕ никакого вреда.
Кто это тебе сказал?
ИИ НЕ РОБОТ!
#47
Отправлено 03 March 2015 - 18:39
Если перенести действия на преступников, то тут есть вот какой фактор - причинение меньше вреда. Если по станции бегает маньяк с топором, которого не берут разряды тазера, то робот спокойной может ему уебать станбатоном, чтобы оглушить. Опять же, если маньяк продолжит бегать, то погибнет больше народу, что хуже, чем ушиб головы и сотрясение мозга у одного человека.
Иногда в ход пускают аргумент, что кококо робот не может анализировать события и что может случиться в будущем. Но этот аргумент - хуйня и его легко опровергнуть.
Да, в случае нарушения законов роботы отключались нахуй, но у нас игроки и бессмысленно требовать у них сделать самоубийство, если они не идейные ролеплееры.
#48
Отправлено 03 March 2015 - 18:51
Kopistko (03 March 2015 - 18:39) писал:
Если перенести действия на преступников, то тут есть вот какой фактор - причинение меньше вреда. Если по станции бегает маньяк с топором, которого не берут разряды тазера, то робот спокойной может ему уебать станбатоном, чтобы оглушить. Опять же, если маньяк продолжит бегать, то погибнет больше народу, что хуже, чем ушиб головы и сотрясение мозга у одного человека.
Иногда в ход пускают аргумент, что кококо робот не может анализировать события и что может случиться в будущем. Но этот аргумент - хуйня и его легко опровергнуть.
Да, в случае нарушения законов роботы отключались нахуй, но у нас игроки и бессмысленно требовать у них сделать самоубийство, если они не идейные ролеплееры.
Ну, в идеале в ситуации с морем и утопающими робот спасет кого-нить одного и сломается нахуй.
Преступника можно уебать станбатоном и без вреда - но предположим, что он невосприимчив к этому и его надо бить баллоном до отключки.
Что тогда?
Робот стопроцентно не будет баллонить, как по мне.
Потому что одно дело, когда ты не спасаешь одного, тут хотяб бездействие и занятость спасением первого, но все равно сломается. А вот на прямой вред ничто не заставит его пойтии, как мне кажется. Даже если человек держит палец на кнопке от экстерминатуса планеты, все равно нет.
И если взял синтетика - готовься проигрывать. Закрывать любого посона от лазоров, к примеру.
"[usr] весь такой кодер."
#49
Отправлено 03 March 2015 - 18:58
Цитата
Что тогда?
Робот стопроцентно не будет баллонить, как по мне.
Потому что одно дело, когда ты не спасаешь одного, тут хотяб бездействие и занятость спасением первого, но все равно сломается. А вот на прямой вред ничто не заставит его пойтии, как мне кажется. Даже если человек держит палец на кнопке от экстерминатуса планеты, все равно нет.
Цитата
И если взял синтетика - готовься проигрывать. Закрывать любого посона от лазоров, к примеру.
#50
Отправлено 03 March 2015 - 19:53
Kopistko (03 March 2015 - 18:58) писал:
С этим-то я согласен, я сам за борга закрывал людей от лазера и подыхал. Я имел ввиду то, что не надо принуждать боргов к /suicide, если они нарушили так или иначе закон.
И да, берешь борга - будь готов сосать[2]
#51
Отправлено 03 March 2015 - 19:56
Цитата
Цитата
Цитата
Я и не спорю, что играть за борга трудно, что будешь умирать из-за своих законов. Просто я не люблю, когда пытаются каким-либо образом заставить игроков отыгрывать не так, как они хотят, а так, как считают нужным другие.
#53
Отправлено 03 March 2015 - 20:34
#54
Отправлено 03 March 2015 - 20:36
Родина дала вам Азимова, нет не хочу творчески играть, хочу взрываться от законов. Пидоры блять
#55
Отправлено 03 March 2015 - 20:37
Цитата
#56
Отправлено 04 March 2015 - 02:03
Яблочко (03 March 2015 - 08:32) писал:
Яблочко (03 March 2015 - 08:32) писал:
Конкретно с новым законом, отменяющим другой закон, тут скорее как раз такое противоречие. Но всегда можно докопаться до педалей и спросить у них, как лучше повести себя в той или иной ситуации.
#57
Отправлено 04 March 2015 - 08:46
Яблочко (03 March 2015 - 08:32) писал:
Ах да, так же нужно упомянуть что ИИ не должен закрывать ассистента, зашедшего в отсек, где у него нет доступа. ИИ не следует своду космических законов, пока не получит приказа\изменения в законах.
Действуйт по такому принципу: если можешь с точки зрения законов обосновать свои действия - ты делаешь всё правильно. Главное, чтобы эта точка зрения была не слишком глупой вроде "я выпустил плазму, потому что ассистент угрожал убить себя" - в данном случае ты наносишь больше вреда, чем мог бы потенциально нанести ассистент. Но для самоубийц есть СБ. Сообщи СБ по охранному каналу, слегка тяни время, если не согласен, но законы не нарушаются. У СБ пункт в законах про самоубийство есть. В крайнем случае можешь просто отключить его от радио (читай NTSL Script).
Epicus (04 March 2015 - 02:03) писал:
#58
Отправлено 04 March 2015 - 11:21
#59
Отправлено 04 March 2015 - 19:12
ucnaHez (03 March 2015 - 17:58) писал:
ИИ не выбирает наименьший из двух вредов.
Он не должен допустить ВООБЩЕ, ВООБЩЕ никакого вреда.
Кто это тебе сказал?
#60
Отправлено 04 March 2015 - 19:23
Яблочко (04 March 2015 - 19:12) писал:
Как бы тебе так помягче сказать...
Ты НЕПРАВ.
Даже генка может попадать под определение человека, даже с рукой-мечом.
И согхуны в скафах ТОЖЕ, потому что хуй пойми, а вдруг там люди?
И визурд - совершенно точно человек, импланты человека не портят.
И нагибатор "азаза" - тоже человек, как не парадоксально.
Нет такого костыля, ну нет.
Если клоун угрожает убить самого себя, чтобы попасть в кепскую - да открой ты ему сраную кепскую. Или поболтай с ним и позови врачей. Или что еще. Но никак не "Вы не человек, %плющим_дверьми%".
"[usr] весь такой кодер."
Количество пользователей, читающих эту тему: 1
0 пользователей, 1 гостей, 0 анонимных