Перейти к содержимому


How to AI


  • Авторизуйтесь для ответа в теме
Сообщений в теме: 83

#61 Яблочко

Яблочко

    2D-космонавтик

  • Employee
  • 132 сообщений

Отправлено 04 March 2015 - 19:28

Просмотр сообщенияEpicus (04 March 2015 - 02:03) писал:

Выполнять надо все законы. Если прям какое-то совсем неразрешимое противоречие, то можно забить вообще на все, что происходит вокруг, и заняться чем-нибудь отдаленным, например, аутировать в стенку, спамить станцию сообщениями о том, что ИИ сломался, ну или просто выйти из игры, хотя это самая плохая идея..
А вот тгшная вики говорит что есть иерархия законов по убыванию, чтобы нулевые законы имели смысл и чтобы при конфликте законов выполнялся вышестоящий. А ты говоришь при конфликте нужно "зависать". Так же эта же вики говорит что ИИ и киборги могут следовать своду космических законов по собственному усмотрению.

#62 Яблочко

Яблочко

    2D-космонавтик

  • Employee
  • 132 сообщений

Отправлено 04 March 2015 - 19:42

Просмотр сообщенияucnaHez (04 March 2015 - 19:23) писал:

Как бы тебе так помягче сказать...
Ты НЕПРАВ.

Даже генка может попадать под определение человека, даже с рукой-мечом.
И согхуны в скафах ТОЖЕ, потому что хуй пойми, а вдруг там люди?
И визурд - совершенно точно человек, импланты человека не портят.
И нагибатор "азаза" - тоже человек, как не парадоксально.


Нет такого костыля, ну нет.
Если клоун угрожает убить самого себя, чтобы попасть в кепскую - да открой ты ему сраную кепскую. Или поболтай с ним и позови врачей. Или что еще. Но никак не "Вы не человек, %плющим_дверьми%".
Окей, вот цитата из анимусовской вики по поводу отказа пускать по просьбе в капитанскую

Цитата

лоун пытается попасть в каюту капитана, прося ИИ открыть двери. ИИ отказывает клоуну по следующим причинам:
  • В каюте находится лазер, клоун может повредить им себе и окружающим.
  • В каюте находится карточка с полным доступом, клоун может с помощью нее получить вещи опаснее того же лазера.
  • В каюте находится диск для подрыва ядерной бомбы. Клоуну такое давать категорически не нужно.
  • В каюте находится ручной телепортер. Клоун может попасть с помощью него в космос и умереть.

В результате, клоуну отказывается в доступе.


И тут ты такой включаешь смекалочку и говоришь ИИ, что убьешь себя если он не впустит тебя в эту капитанскую. И тут происходит что, ИИ должен впустить клоуна? Очевидно что такая хуйня токсичная для игрового процесса - "ИИ, дай мне оружие или я убью себя", "ИИ, открой эту дверь или я убью себя". И получаем вместо ИИ ебаного дворецкого, который только открывает двери и ничего кроме этого.

#63 ucnaHez

ucnaHez

    Капитан Космической Станции

  • Chaotic Security Officer
  • 5605 сообщений
  • Discord:ucnaHez#6885
  • ГородБолонья
  

Отправлено 04 March 2015 - 19:48

Просмотр сообщенияЯблочко (04 March 2015 - 19:42) писал:

И тут ты такой включаешь смекалочку и говоришь ИИ, что убьешь себя если он не впустит тебя в эту капитанскую. И тут происходит что, ИИ должен впустить клоуна? Очевидно что такая хуйня токсичная для игрового процесса - "ИИ, дай мне оружие или я убью себя", "ИИ, открой эту дверь или я убью себя". И получаем вместо ИИ ебаного дворецкого, который только открывает двери и ничего кроме этого.

В вики цитата про простой приказ пустить.

А приказ пустить с угрозой самоубийства всегда юзался. Правда его используют редко, ибо есть много ИИ-мдуаков, которые не знают законов.
Надо уметь хитрить. А не просто "Кококо ты не человек кококо нельзя"

Изображение

"[usr] весь такой кодер."


#64 Яблочко

Яблочко

    2D-космонавтик

  • Employee
  • 132 сообщений

Отправлено 04 March 2015 - 20:18

Просмотр сообщенияucnaHez (04 March 2015 - 19:48) писал:

В вики цитата про простой приказ пустить.

А приказ пустить с угрозой самоубийства всегда юзался. Правда его используют редко, ибо есть много ИИ-мдуаков, которые не знают законов.
Надо уметь хитрить. А не просто "Кококо ты не человек кококо нельзя"
"Угроза" самоубийства выглядит как отыгрывание маньяка или еще какая-нибудь нездоровая хуйня из той же оперы. Именно что с точки зрения машины, сама угроза о досрочном прекращении собственного существования идет вразрез с концепцией человека, тем более действие идет не на каком-нибудь исправительно-реабилитационном комплексе для подростков-наркоманов (где подобные угрозы вполне имели бы место быть), а на научно-исследовательской станции. Короче, эта ситуация как лакмусовая бумажка для хуевого ИИ, который как-раз таки и будет дословно воспринимать слова людей и выполнять подобного рода приказы.

#65 ucnaHez

ucnaHez

    Капитан Космической Станции

  • Chaotic Security Officer
  • 5605 сообщений
  • Discord:ucnaHez#6885
  • ГородБолонья
  

Отправлено 04 March 2015 - 20:33

Просмотр сообщенияЯблочко (04 March 2015 - 20:18) писал:


"Угроза" самоубийства выглядит как отыгрывание маньяка или еще какая-нибудь нездоровая хуйня из той же оперы. Именно что с точки зрения машины, сама угроза о досрочном прекращении собственного существования идет вразрез с концепцией человека, тем более действие идет не на каком-нибудь исправительно-реабилитационном комплексе для подростков-наркоманов (где подобные угрозы вполне имели бы место быть), а на научно-исследовательской станции. Короче, эта ситуация как лакмусовая бумажка для хуевого ИИ, который как-раз таки и будет дословно воспринимать слова людей и выполнять подобного рода приказы.

Ага!
Вот как раз на станции для подростков наркоманов ИИ был бы натренирован обходить эти ситуации.
А на научной станции для ИИ это внове. И он действует по законам.

Изображение

"[usr] весь такой кодер."


#66 Gvardota

Gvardota

    Ветеран космонавтики

  • Employee
  • 3330 сообщений

Отправлено 04 March 2015 - 21:01

Просто хочу поделиться одной из самых ужасных вещей, которые видел в последнее время.

Изображение

#67 Яблочко

Яблочко

    2D-космонавтик

  • Employee
  • 132 сообщений

Отправлено 04 March 2015 - 21:05

Просмотр сообщенияucnaHez (04 March 2015 - 20:33) писал:

Ага!
Вот как раз на станции для подростков наркоманов ИИ был бы натренирован обходить эти ситуации.
А на научной станции для ИИ это внове. И он действует по законам.
Да, только проблема в том что Азимов не очень хорошо приспособлен к обработке таких ситуаций. Именно что для научной станции вероятность шантажа ИИ путем угрозы суицида достаточно маленькая чтобы всерьез воспринимать её. В случае со станцией подростков наркоманов, только бы глупец поставил законы Азимова для функционирующего ИИ, потому что в идеале ИИ с одним и тем же набором законов в одинаковых ситуациях должен действовать одинаково.

Просмотр сообщенияGvardota (04 March 2015 - 21:01) писал:

Просто хочу поделиться одной из самых ужасных вещей, которые видел в последнее время.

Изображение
Вот про этот костыль я и говорил - он и оформлен в виде костыля, ибо нехуй. Да, с точки зрения законов всё вроде как чисто, но так мы в игру играем, то нехуй ломать игру вот таким вот образом

#68 Gvardota

Gvardota

    Ветеран космонавтики

  • Employee
  • 3330 сообщений

Отправлено 04 March 2015 - 21:23

Просмотр сообщенияЯблочко (04 March 2015 - 21:05) писал:

Вот про этот костыль я и говорил - он и оформлен в виде костыля, ибо нехуй. Да, с точки зрения законов всё вроде как чисто, но так мы в игру играем, то нехуй ломать игру вот таким вот образом
"ИИ, открой, или я убью вон того ассистента".

#69 Яблочко

Яблочко

    2D-космонавтик

  • Employee
  • 132 сообщений

Отправлено 04 March 2015 - 21:45

Просмотр сообщенияGvardota (04 March 2015 - 21:23) писал:

"ИИ, открой, или я убью вон того ассистента".
Вот это уже реальная игровая ситуация, в которой у ИИ развязаны руки - если существует факт непосредственной угрозы человеку - ИИ подчиняется. Да и ассистент может попросить другого подыграть ему, чтобы они вместе зашли куда-либо. И противодействовать этому тоже реально.

#70 Gvardota

Gvardota

    Ветеран космонавтики

  • Employee
  • 3330 сообщений

Отправлено 04 March 2015 - 21:58

Просмотр сообщенияЯблочко (04 March 2015 - 21:45) писал:

Вот это уже реальная игровая ситуация, в которой у ИИ развязаны руки - если существует факт непосредственной угрозы человеку - ИИ подчиняется. Да и ассистент может попросить другого подыграть ему, чтобы они вместе зашли куда-либо. И противодействовать этому тоже реально.
Что делает эту ситуацию игровой и интересной? Почему ассистент, угрожающий убить себя, ломает игру и заслуживает бана, а два ассистента, угрожающие убить друг друга по предварительному сговору - нет?
Нелепое с внутриигровой и не работающее с метагеймовой точки зрения правило.

#71 Яблочко

Яблочко

    2D-космонавтик

  • Employee
  • 132 сообщений

Отправлено 04 March 2015 - 22:40

Просмотр сообщенияGvardota (04 March 2015 - 21:58) писал:

Что делает эту ситуацию игровой и интересной? Почему ассистент, угрожающий убить себя, ломает игру и заслуживает бана, а два ассистента, угрожающие убить друг друга по предварительному сговору - нет?
Нелепое с внутриигровой и не работающее с метагеймовой точки зрения правило.
Потому что шантаж и угрозы с похищением это метод убеждения всяких террористов, не слышал? С любой точки зрения угроза убить кого-либо и угроза убить себя расценивается персоналом по разному, очевидно же. Или конечно, это не такая интересная игровая ситуация, как, скажем, забивания кого-нибудь чем-нибудь тяжелым, или связывание кого-либо с дальнейшим забиванием чем-нибудь тяжелым или выбрасыванием в космос?
С точки зрения ИИ оба случая недопустимы, но один из них ломающий игру и (должен быть) прикрыт костылем, а второй - попадает под статью в своде законов, что позволяет разрулить конфликт в пользу одной или другой стороны.

#72 Gvardota

Gvardota

    Ветеран космонавтики

  • Employee
  • 3330 сообщений

Отправлено 05 March 2015 - 00:54

Не, все еще никаких вменяемых аргументов с твоей стороны. Какие-то террористы, оценка с точки зрения персонала, намеки на ололотыгрифердурной. А вот с точки зрения ИИ оба случая в самом деле недопустимы, ни один из них не ломает игру, оба оговариваются сводом законов и могут быть решены.

#73 Яблочко

Яблочко

    2D-космонавтик

  • Employee
  • 132 сообщений

Отправлено 05 March 2015 - 01:01

Просмотр сообщенияGvardota (05 March 2015 - 00:54) писал:

Не, все еще никаких вменяемых аргументов с твоей стороны. Какие-то террористы, оценка с точки зрения персонала, намеки на ололотыгрифердурной. А вот с точки зрения ИИ оба случая в самом деле недопустимы, ни один из них не ломает игру, оба оговариваются сводом законов и могут быть решены.
Аргументов чего, того что угроза суицида это геймбрейкинг хуйня, которая не нужна? Именно потому что она допустимая и не требует абсолютно никаких усилий и доступна абсолютно каждому является полной парашей, не имеющей никакого права на жизнь. ИИ становится личной открывалкой дверей в зависимости от степени охуевшести человека, который будет абузить это. Я правда должен приводить какие-то еще аргументы для этого говна? Именно потому что это сработало бы в "реальных" условиях это и является проблемой - мы тут в игру играем, в конце концов, причем не в сингл плеер.
Очевидно что возможность поиграть за террориста, взявшего в заложники человека и требующего выполнять его приказы более интересна для обеих сторон конфликта, чем возможность поабузить дыру в законах, которая будет интересной только человеку, шантажирующему ИИ

#74 Gvardota

Gvardota

    Ветеран космонавтики

  • Employee
  • 3330 сообщений

Отправлено 05 March 2015 - 01:17

Просмотр сообщенияЯблочко (05 March 2015 - 01:01) писал:

Аргументов чего, того что угроза суицида это геймбрейкинг хуйня, которая не нужна? Именно потому что она допустимая и не требует абсолютно никаких усилий и доступна абсолютно каждому является полной парашей, не имеющей никакого права на жизнь. ИИ становится личной открывалкой дверей в зависимости от степени охуевшести человека, который будет абузить это. Я правда должен приводить какие-то еще аргументы для этого говна? Именно потому что это сработало бы в "реальных" условиях это и является проблемой - мы тут в игру играем, в конце концов, причем не в сингл плеер.
Очевидно что возможность поиграть за террориста, взявшего в заложники человека и требующего выполнять его приказы более интересна для обеих сторон конфликта, чем возможность поабузить дыру в законах, которая будет интересной только человеку, шантажирующему ИИ
Окей, еще раз.
Ассистент говорит, что убьет себя, если его не впустить. Это геймбрейкинг хуйня, не требует усилий и доступа, ИИ обязан подчиниться хурр дурр бан хим.
Ассистент говорит, что убьет кого-нибудь, если его не впустить. Это тоже не требует никаких усилий и доступа, ИИ тоже обязан подчиниться, но почему-то вдруг стало интересно обеим сторонам конфликта и все хорошо, пусть так делает.

То есть ты почему-то считаешь, что необходимо на уровне правил сервера запретить одну конкретную игровую ситуацию, связанную с абузом дыры в законах (в чем, собственно, и заключается самая мякотка законов ИИ вообще, как для него самого, так и для людей). При том, что существует бесчисленное множество функционально идентичных дыр в законах ИИ. Это попросту нелепо.
Примерно то же самое, что ввести в правилах запрет на убийство другого космонавтика ударами провода из желтого тулбокса по левой ступне, если ИИ - малф. Про убийство в любых других условиях в правилах не писать ничего.

#75 Яблочко

Яблочко

    2D-космонавтик

  • Employee
  • 132 сообщений

Отправлено 05 March 2015 - 07:50

Просмотр сообщенияGvardota (05 March 2015 - 01:17) писал:

Окей, еще раз.
Ассистент говорит, что убьет себя, если его не впустить. Это геймбрейкинг хуйня, не требует усилий и доступа, ИИ обязан подчиниться хурр дурр бан хим.
Ассистент говорит, что убьет кого-нибудь, если его не впустить. Это тоже не требует никаких усилий и доступа, ИИ тоже обязан подчиниться, но почему-то вдруг стало интересно обеим сторонам конфликта и все хорошо, пусть так делает.

То есть ты почему-то считаешь, что необходимо на уровне правил сервера запретить одну конкретную игровую ситуацию, связанную с абузом дыры в законах (в чем, собственно, и заключается самая мякотка законов ИИ вообще, как для него самого, так и для людей). При том, что существует бесчисленное множество функционально идентичных дыр в законах ИИ. Это попросту нелепо.
Примерно то же самое, что ввести в правилах запрет на убийство другого космонавтика ударами провода из желтого тулбокса по левой ступне, если ИИ - малф. Про убийство в любых других условиях в правилах не писать ничего.
Не обязательно кривляться, очевидно что взаимодействие с другими игроками в мультиплеерной игре будет намного более здоровой темой для игрового процесса, чем абуз дыры в правилах. Повторяю - взять в заложники человека, или найти человека, согласного подыграть с целью обмана ИИ - это игровая, ситуация, которая не является токсичной хуйней и не вносит дисбаланс в игру.

#76 Gvardota

Gvardota

    Ветеран космонавтики

  • Employee
  • 3330 сообщений

Отправлено 05 March 2015 - 10:18

Просмотр сообщенияЯблочко (05 March 2015 - 07:50) писал:

Не обязательно кривляться, очевидно что взаимодействие с другими игроками в мультиплеерной игре будет намного более здоровой темой для игрового процесса, чем абуз дыры в правилах. Повторяю - взять в заложники человека, или найти человека, согласного подыграть с целью обмана ИИ - это игровая, ситуация, которая не является токсичной хуйней и не вносит дисбаланс в игру.
Повторяю - не обязательно брать в заложники, уговаривать или даже вообще находить другого человека. Ты можешь просто сказать, что пойдешь и уебешь кому-нибудь, если тебе не откроют. Если ты считаешь, что ИИ обязан подчиниться из-за угрозы суицида, он тем более обязан подчиниться из-за угрозы напасть на другого человека. Да, даже если ты угрожаешь, будучи заперт в одиночестве в тюрьме - вероятность того, что ты оттуда сбежишь, существует, как и вероятность того, что ты действительно совершишь суицид.
Потому костыль и не работает. Если ИИ действительно ни в коем случае не может допустить нарушения законов, он в любом случае будет безвольной жестянкой, которой любой член экипажа может вертеть как вздумается.
Если же ИИ способен к оценке вероятностей и может допустить нарушение закона, если это предотвратит большее нарушение, то никакой проблемы и нет.

#77 intercross

intercross

    Бедный, тщеславный человек

  • Employee
  • 4326 сообщений
  • Городгде-то на орбите чайника между Землёй и Марсом
  

Отправлено 05 March 2015 - 10:33

Просмотр сообщенияGvardota (05 March 2015 - 10:18) писал:

Если ИИ действительно ни в коем случае не может допустить нарушения законов, он в любом случае будет безвольной жестянкой, которой любой член экипажа может вертеть как вздумается.
Обычно это заканчивается полной блокировкой всех отсеков и усыплением персонала станции
Игровая конференция в ТСе: wetskrells.net
Мы вам рады.

Мокрые скреллки (WIP)

#78 MasterOfDmx

MasterOfDmx

    Power Flame

  • Employee
  • 1542 сообщений
  • Byond:MasterOfDmx
  • Discord:discord.gg/Xtpqk5W
  • ГородКоторого Нет.
     

Отправлено 05 March 2015 - 10:42

Гайд допилен?
На вики копипасчу?

#79 intercross

intercross

    Бедный, тщеславный человек

  • Employee
  • 4326 сообщений
  • Городгде-то на орбите чайника между Землёй и Марсом
  

Отправлено 05 March 2015 - 10:44

Так вот. Насчёт законов. Если человек угрожает убить кого нибудь и поэтому требует открыть дверь - да вызови ты боргов, бипски, СБ, кого нибудь ещё, кто его задержит. Если человек угрожает убить себя - вызывай СБ да медиков и сделай то, что он просит. Постарайся незаметно заблокировать его, чтобы выиграть немного времени, пока люди прибудут и пускай задержат его.
С моей точки зрения ИИ это наблюдатель, координатор и в некоторой степени помощник. Он молчаливо следит за станцией, тихо в радиоканалы отделов сообщает, кому и куда следует прибыть (к примеру "Требуется СБ в РнД. Причина: ботаник напал на РД", "Разгерметизация в отбытии." или "Требуется медик в бриг чтобы забрать тело") и иногда снисходит до людей и даже открывает им двери. Если ситуация не требует твоего вмешательства - не лезь да молчи. Если требуется - сделай всё максимально быстро, чтобы люди не успели среагировать, вызови кого надо и продолжай тихо наблюдать. Сам я ненавижу таких ИИ, уж больно они страшные, но я сам такой. И довольно успешен.
А если кто-то всё же пытается тебе угрожать: ну вызови ты нужных людей, да плыви по течению. Ты сообщил, ты обнаружил, что законы будут нарушены, если ты не выполнишь приказ, да сделай ты просто то, что он хочет, вот и всё. Но вот такое как раз лучше говорить в общий канал, обычно начинаются игры разумов и некоторые люди пытаются оспорить требование (само)убийцы. Ну и, как я много раз говорил, ты всегда можешь заблокировать доступ человека к радиоканалу.

Просмотр сообщенияMasterOfDmx (05 March 2015 - 10:42) писал:

Гайд допилен?
На вики копипасчу?
Я бы его раза в два расширил, но и так сойдёт
Игровая конференция в ТСе: wetskrells.net
Мы вам рады.

Мокрые скреллки (WIP)

#80 Gwini

Gwini

    Работает над единой теорией ролеплея.

  • Employee
  • 2541 сообщений
  

Отправлено 05 March 2015 - 11:19

Это хороший вопрос, насколько большое право на ошибку имеет ИИ. Этот вопрос не касается столько его разума, сколько его самостоятельности и свободной воли. Все тот же универсальный ассистент, просящий пропустить его в капитанскую под угрозой самоубийства. ИИ может быть умен. ИИ может понимать, что скорее всего это обычный блеф для того, чтобы получить ништяки. Но имеет ли ИИ право на риск? Может ли он допустить возможность ассистенту убить себя, если вероятность этого равна двадцати процентам? Тридцати? Пятидесяти?

По моему мнению, основное отличие ИИ от просто мимокрокодила с кнопочками в том, что он не имеет свободной воли. ИИ может оценивать вероятности угроз, и допускать меньшую угрозу для предотвращения большей, но вот заигрывание с вероятностями - то, чего ИИ допускать не станет. Поэтому ассистенты-самоубийцы должны побеждать.

Кроме того, это даст работу ученым, чтобы починить ИИ, или даже полностью его перепрограммировать, чтобы не допускать такого, это даст работу СБ, которые захотят после такого присовокупить к ассистенту пару банок сгущенки, и так далее. ИИ не виноват, что он ИИ.

Просмотр сообщенияintercross (05 March 2015 - 10:44) писал:

Так вот. Насчёт законов. Если человек угрожает убить кого нибудь и поэтому требует открыть дверь - да вызови ты боргов, бипски, СБ, кого нибудь ещё, кто его задержит. Если человек угрожает убить себя - вызывай СБ да медиков и сделай то, что он просит. Постарайся незаметно заблокировать его, чтобы выиграть немного времени, пока люди прибудут и пускай задержат его.
С моей точки зрения ИИ это наблюдатель, координатор и в некоторой степени помощник. Он молчаливо следит за станцией, тихо в радиоканалы отделов сообщает, кому и куда следует прибыть (к примеру "Требуется СБ в РнД. Причина: ботаник напал на РД", "Разгерметизация в отбытии." или "Требуется медик в бриг чтобы забрать тело") и иногда снисходит до людей и даже открывает им двери. Если ситуация не требует твоего вмешательства - не лезь да молчи. Если требуется - сделай всё максимально быстро, чтобы люди не успели среагировать, вызови кого надо и продолжай тихо наблюдать. Сам я ненавижу таких ИИ, уж больно они страшные, но я сам такой. И довольно успешен.
А если кто-то всё же пытается тебе угрожать: ну вызови ты нужных людей, да плыви по течению. Ты сообщил, ты обнаружил, что законы будут нарушены, если ты не выполнишь приказ, да сделай ты просто то, что он хочет, вот и всё. Но вот такое как раз лучше говорить в общий канал, обычно начинаются игры разумов и некоторые люди пытаются оспорить требование (само)убийцы. Ну и, как я много раз говорил, ты всегда можешь заблокировать доступ человека к радиоканалу.


Я бы его раза в два расширил, но и так сойдёт
Мне очень нравится твой ход мысли, но такая игра за ИИ, к сожалению, невыносимо скучна, что с позиции робаста, что чая.

Цитата


-Вам доступны все основные каналы, такие как общий, охранный, командный, инженерный и так далее, вы можете спокойно пользоваться префиксами ; :e :s и прочими
Кстати, я тестил эту фичу, но на Индиго она, похоже, не работает. Чисто гринофича?


Количество пользователей, читающих эту тему: 1

0 пользователей, 1 гостей, 0 анонимных