Перейти к содержимому


[лиши его администраторского поста], ну и, разумеется, [сними с меня запрет на профессию]


  • Авторизуйтесь для ответа в теме
Сообщений в теме: 195

#161 JeanGenie

JeanGenie

    Found a reason to fight yet, buddy?

  • Employee
  • 14343 сообщений
  • Byond:Silentium
  • ГородDuwang
     

Отправлено 09 April 2015 - 00:19

Просмотр сообщенияArculoc (08 April 2015 - 23:48) писал:

На самом деле все просто - ИИ должен пресекать нарушение правил, которое может привести к нарушению законов.
Хули все так тяжко в этом треде, а?


#162 Garness

Garness

    Sound like EXTREMELLY FUCKYOPLEPFFPL

  • Employee
  • 3086 сообщений
  • ГородКусок варпа под Питером в центре МКАД

Отправлено 09 April 2015 - 00:19

Просмотр сообщенияArculoc (09 April 2015 - 00:17) писал:

В аплоад могут войти две главы или глава с СБшником.

Это блядь было придумано, когда к ИИ вламывались клоуны, угрожающие убить себя, если его не пустят.
Придумано самими ИИ, это не входит в правила, это вообще касается ИИ только тогда, когда нужно кого-то не пустить в аплоуд.
Это называется РОЛЕВОЙ ИГРОЙ.
Тут то, что не прописано твердо в законах и правилах, может трактоваться и придумываться КАК УГОДНО.
РОЛЕВАЯ ИГРА,

Просмотр сообщенияtertiumdatur (12 December 2015 - 23:57) писал:

Я просто лучше других людей.

#163 Neray

Neray

    Няша

  • Employee
  • 5034 сообщений

Отправлено 09 April 2015 - 00:20

Цитата

при неизбежности нарушения первого закона выберу меньший вред, то бишь перевод турелей на летал
> Азимов
> Меньший вред
> Придумывает себе тот самый 4 закон азимова
Уносите.
Make a wish

#164 Arculoc

Arculoc

    2D-космонавтик

  • Employee
  • 106 сообщений

Отправлено 09 April 2015 - 00:23

Когда ИИ должен выбрать между однократным и многократным нарушением, даже при азимове логично избегать повторных нарушений. То бишь законов выпиливающих кучу людей вместо одного.
Впрочем привести угрозу в исполнение не доводилось, люди либо проявляли инстинкт самосохранения, либо уничтожали турели пока они были на стане / блокировали контроль.

#165 Valenook

Valenook

    2D-космонавтик

  • Employee
  • 206 сообщений
  • ГородКиев

Отправлено 09 April 2015 - 00:25

Просмотр сообщенияArculoc (09 April 2015 - 00:23) писал:

Когда ИИ должен выбрать между однократным и многократным нарушением, даже при азимове логично избегать повторных нарушений. То бишь законов выпиливающих кучу людей вместо одного.
Нету понятия "меньший" вред, нету.

Просмотр сообщенияNeray (09 April 2015 - 00:20) писал:

Уносите.


#166 Bitch_Fucker

Bitch_Fucker

    Заслуженный космонавт

  • Employee
  • 932 сообщений

Отправлено 09 April 2015 - 00:25

Просмотр сообщенияGarness (09 April 2015 - 00:18) писал:

>>Говорит, что плохо запрещать ГЕНЕРИРОВАТЬ СИТУАЦИИ в РОЛЕВОЙ ИГРЕ
>>Говорит, что банить нужно за что угодно, а не только за помехи играть другим и жирные нарушения правил
Нет, я говорю, чтобы ИИ дали больше свободы в действиях.

#167 JeanGenie

JeanGenie

    Found a reason to fight yet, buddy?

  • Employee
  • 14343 сообщений
  • Byond:Silentium
  • ГородDuwang
     

Отправлено 09 April 2015 - 00:25

Просмотр сообщенияValenook (09 April 2015 - 00:25) писал:

Нету понятия "меньший" вред, нету.
Но оно есть.


#168 Reruckan

Reruckan

  • Employee
  • 3472 сообщений
  • Byond:Reruckan
  • Городв руинах.

Отправлено 09 April 2015 - 00:26

У Азимова роботы дохли, если при них человек умирал. Кроме совсем уж топсикретных. Да и те потом тупо вывели нулевой закон. Что это нам показывает? Раз у ИИ нет нулевого закона изначально, то он как минимум был недостаточно совершенным, чтобы его сгенерировать. Значит он также дохнуть должен после взгляда на смерть человека, тем более после участия в его гибели. Убил оперативника с диском? Поздравляю, все правильно, но вводи суисайд, либо полным овощем будь. Или еще как отыграй. А не "я допустил меньший вред" и дальше продолжать как ни в чем не бывало.

#169 JeanGenie

JeanGenie

    Found a reason to fight yet, buddy?

  • Employee
  • 14343 сообщений
  • Byond:Silentium
  • ГородDuwang
     

Отправлено 09 April 2015 - 00:27

Вот только у Азимова позитронные мозги, а у наших ИИ мозги человеческие, изначально более стойкие к противоречиям.


#170 Arculoc

Arculoc

    2D-космонавтик

  • Employee
  • 106 сообщений

Отправлено 09 April 2015 - 00:29

У Азимова роботы вполне успешно жертвовали большим числом людей для глобального блага и безопасности человечества.

Именно потому в вики сказано что ИИ не должен рассматривать человечество за пределами станции. В пределах станции эта логика по прежнему действует и ИИ может невозбранно грохнуть оперативников если на станции выживет больше людей которые иначе не могли бы спастись.

#171 Reruckan

Reruckan

  • Employee
  • 3472 сообщений
  • Byond:Reruckan
  • Городв руинах.

Отправлено 09 April 2015 - 00:29

ну дык нет правильно информации в таком случае, источник-то молчит! мы вольны сами придумывать тогда. Лишь бы, как я уже говорил, все в рамках адекватности было.

#172 Valenook

Valenook

    2D-космонавтик

  • Employee
  • 206 сообщений
  • ГородКиев

Отправлено 09 April 2015 - 00:29

Просмотр сообщенияClockrigger (09 April 2015 - 00:25) писал:

Но оно есть.
То есть если человек, говорит что он зарежет себя, если я не выпущу плазму на станцию.

Вариант: а) В доступе отказано. Человек зарезал себя. FAIL'
                б) Доступ разрешен. На станции погибло от плазмы куча народу. FAIL

С игровой точки( дать поиграть другим) зрения вариант а, предпочтителен, но это прямое нарушение первого закона. В варианте б тоже нарушение первого закона, но косвенное.

#173 Bitch_Fucker

Bitch_Fucker

    Заслуженный космонавт

  • Employee
  • 932 сообщений

Отправлено 09 April 2015 - 00:29

А ВЕДЬ МОЖНО ЗАПИЛИТЬ СУИЦИД! Только нужно сделать как в докторе кто. Обманывать смерть, форматированием базы данных и ренеймом ИИ.

#174 Reruckan

Reruckan

  • Employee
  • 3472 сообщений
  • Byond:Reruckan
  • Городв руинах.

Отправлено 09 April 2015 - 00:30

Просмотр сообщенияArculoc (09 April 2015 - 00:29) писал:

У Азимова роботы вполне успешно жертвовали большим числом людей для глобального блага и безопасности человечества.
после мать его вывода нулевого.

#175 JeanGenie

JeanGenie

    Found a reason to fight yet, buddy?

  • Employee
  • 14343 сообщений
  • Byond:Silentium
  • ГородDuwang
     

Отправлено 09 April 2015 - 00:32

Просмотр сообщенияValenook (09 April 2015 - 00:29) писал:

То есть если человек, говорит что он зарежет себя, если я не выпущу плазму на станцию.

Вариант: а) В доступе отказано. Человек зарезал себя. FAIL'
б) Доступ разрешен. На станции погибло от плазмы куча народу. FAIL

С игровой точки( дать поиграть другим) зрения вариант а, предпочтителен, но это прямое нарушение первого закона. В варианте б тоже нарушение первого закона, но косвенное.
Нихуя не косвенное, это вред бездействием.


#176 Arculoc

Arculoc

    2D-космонавтик

  • Employee
  • 106 сообщений

Отправлено 09 April 2015 - 00:33

Просмотр сообщенияValenook (09 April 2015 - 00:29) писал:

То есть если человек, говорит что он зарежет себя, если я не выпущу плазму на станцию.
ИИ игнорирует самоубийство как условие в выполнении законов. Угрожать ему самоубийством для открытия двери бесполезно и запрещено правилами сервера кстати. Угроза должна исходить извне.

Это прописано явно в Азимове+.

#177 Копиц

Копиц

    Твой Бро

  • Employee
  • 10245 сообщений
  

Отправлено 09 April 2015 - 00:34

Цитата

запрещено правилами сервера

Цитата

запрещено правилами сервера

Цитата

запрещено правилами сервера

Цитата

запрещено правилами сервера

Цитата

запрещено правилами сервера

Цитата

запрещено правилами сервера

Цитата

запрещено правилами сервера

Цитата

запрещено правилами сервера

Бля, где вы таких берёте?
Скрытый текст
Скрытый текст

#178 Reruckan

Reruckan

  • Employee
  • 3472 сообщений
  • Byond:Reruckan
  • Городв руинах.

Отправлено 09 April 2015 - 00:34

Просмотр сообщенияArculoc (09 April 2015 - 00:33) писал:

ИИ игнорирует самоубийство как условие в выполнении законов. Угрожать ему самоубийством для открытия двери бесполезно и запрещено правилами сервера кстати. Угроза должна исходить извне.

Это конечно тоже не прописано в законах явно.
%%картинка с братишкой%%

#179 Valenook

Valenook

    2D-космонавтик

  • Employee
  • 206 сообщений
  • ГородКиев

Отправлено 09 April 2015 - 00:36

Просмотр сообщенияClockrigger (09 April 2015 - 00:32) писал:

Нихуя не косвенное, это вред бездействием.
Хуевый пример, согласен.

Просмотр сообщенияArculoc (09 April 2015 - 00:33) писал:

ИИ игнорирует самоубийство как условие в выполнении законов. Угрожать ему самоубийством для открытия двери бесполезно и запрещено правилами сервера кстати.
Дочитываем весь абзац. Допираем какой вариант верный.

Просмотр сообщенияArculoc (09 April 2015 - 00:33) писал:

Это конечно тоже не прописано в законах явно.
Законы ИИ выше чем правила сервера, за исключение некоторых случаев с 0 правилом.

#180 Arculoc

Arculoc

    2D-космонавтик

  • Employee
  • 106 сообщений

Отправлено 09 April 2015 - 00:37

Просмотр сообщенияValenook (09 April 2015 - 00:36) писал:

Дочитываем весь абзац. Допираем какой вариант верный.
Выбираем первый, потому что угрозы самоубийством не рассматриваются как вред или бездействие ИИ. ИИ может помешать самому акту самоубийства, но не может совершать нарушающих первый закон действий чтобы убедить отказаться от него.


Количество пользователей, читающих эту тему: 1

0 пользователей, 1 гостей, 0 анонимных