Перейти к содержанию

Три закона робототехники


Рекомендуемые сообщения

Сегодня посмотрел фильм "Я, робот" и задумался.

В фильме идет речь о трех законах.

Три зако́на роботе́хники в научной фантастике — обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» (1942).

 

Законы гласят:

 

Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

 

Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

 

Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

 

Как я понимаю, эти формулировки может понять только сознательная личность. Которая осознает, что означает поступок человека.

 

Иначе понять, что означает "причинить вред человеку", или "повиноваться всем приказам", или "заботиться о своей безопасности", не возможно. В том смысле, что эти фразы нельзя однозначно истолковать.

 

Давайте начнем с фразы "причинить вред человеку". Как это можно понимать?

Машина "понимает", что является для человека благом?!

Может ли человек по этому вопросу иметь собственное мнение?

 

Пример, является ли поездка на автомобиле благом для человека? И при каких условиях?

Должна ли машина определять при каких условиях поездка является благом?

 

Если же машина вообще не может принимать решения за человека, как она сможет выполнить три закона робототехники?

 

Недавно робот-автомобиль не распознал препятствие и угробил пассажира. Какую ответственность должен понести этот робот?

 

Еще вопрос. Как вы общаетесь с телефонными автоответчиками, верите ли вы им на слово?

Ссылка на комментарий
Поделиться на другие сайты

с этими законами человек разобраться не может.

какие роботы?

Я же все обьяснил. Про фильм, про рассказы Азимова.

Вопросы сформулировал.

Ответьте на вопросы, разве это сложно?!

Ссылка на комментарий
Поделиться на другие сайты

 

1.Давайте начнем с фразы "причинить вред человеку". Как это можно понимать?

- не знаю, как это понимает сценарист.  Причинение вреда - юр. термин, подразделяется на моральный, материальный, здоровью. Надо читать УК РФ

2.Машина "понимает", что является для человека благом?!

- машина ничего не понимает. А что заложено в искусственный интеллект этой машины зависит от того, как это понимали разработчики.

3.Может ли человек по этому вопросу иметь собственное мнение?

 

4.Пример, является ли поездка на автомобиле благом для человека? И при каких условиях?

- благом является не поездка на авто, а  удобство   добираться до нужного места и быстрота. Поездка является способом достижения этого блага при условии соблюдения всех правил и отсутсвия экстренных ситуаций.

5.Должна ли машина определять при каких условиях поездка является благом?

- машина может только следовать определенным параметрам езды. Влиять на внешние условия она не в силах. Значит, обеспечить благо не может

 

6.Если же машина вообще не может принимать решения за человека, как она сможет выполнить три закона робототехники?

- их человек не может выполнить в отношении человека. Куда там роботам :)

 

7.Недавно робот-автомобиль не распознал препятствие и угробил пассажира. Какую ответственность должен понести этот робот?

- никакую. Ответственность должны нести люди, разрабатывавшие программу для авто.

 

8.Еще вопрос. Как вы общаетесь с телефонными автоответчиками, верите ли вы им на слово?

- не пробовала общаться с автоответчиком.

ответила внутри вашего поста.

Ссылка на комментарий
Поделиться на другие сайты

А что заложено в искусственный интеллект этой машины зависит от того, как это понимали разработчики.

 

 

Может ли ИИ быть достаточно автономным для принятия решения? Пример, может ли автопилот посадить самолет, или космический корабль?

 

Если ИИ достаточно автономен, могут ли разработчики предусмотреть все варианты "поведения" этой машины?

 

Пример, могут ли разработчики бота-поисковика предусмотреть точно, какие варианты ответов он будет выдавать пользователю?

 

Известно ли Вам существо или устройство с абсолютной степенью свободы в принятии решения?

Ссылка на комментарий
Поделиться на другие сайты

...

Вред человеку - нарушение биологического здоровья.

 

Обратите внимание на формулировку первого закона: "бездействием допустить, чтобы человеку был причинён вред." То есть сам человек гробится может - робот не в праве ему мешать. А вот дозволить, чтобы один человек гробил другого - права не имеет. 

 

Так что в случае с машиной - человек сам управляет машиной, каждое мгновение, так что робот вмешиваться не в праве. А вот если управление потеряно - обязан защищать.

Ссылка на комментарий
Поделиться на другие сайты

Еще вопрос. Известно ли кому-то что-то для чего нет никакого варманта воздействия на это что-то, чтобы изменить в нем что-либо?

Вред человеку - нарушение биологического здоровья.

 

Обратите внимание на формулировку первого закона: "бездействием допустить, чтобы человеку был причинён вред." То есть сам человек гробится может - робот не в праве ему мешать. А вот дозволить, чтобы один человек гробил другого - права не имеет.

 

Так что в случае с машиной - человек сам управляет машиной, каждое мгновение, так что робот вмешиваться не в праве. А вот если управление потеряно - обязан защищать.

Можно ли понимать так, что плохая новость может повлиять на здоровье человека?

 

Как правильно сформулировать право робота вмешиваться?

Ссылка на комментарий
Поделиться на другие сайты

А прикольно было бы посмотреть. )

Роботы врывались бы в рестораны, не давали бы людям наливать другим алкоголь, не позволяли бы кавалерам прикуривать сигареты дамам...


А уж как хирурги бы материли роботов, выхватывающих у них скальпеля...

Ссылка на комментарий
Поделиться на другие сайты

 

Можно ли понимать так, что плохая новость может повлиять на здоровье человека?

 

Как правильно сформулировать право робота вмешиваться?

В принципе можно, но вряд ли сфера информации попадает в сферу законов робототехники.

 

Робот имеет право вмешаться в соответствии со своими законами, если охраняемый объект не управляет напрямую ситуацией.

Ссылка на комментарий
Поделиться на другие сайты

Сегодня посмотрел фильм "Я, робот" и задумался.

В фильме идет речь о трех законах.

Три зако́на роботе́хники в научной фантастике — обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» (1942).

 

Не берите в голову, эти "законы" содержат в себе неразрешимое внутреннее противоречие :)

Ссылка на комментарий
Поделиться на другие сайты

  1. Давайте начнем с фразы "причинить вред человеку". Как это можно понимать?
  2. Машина "понимает", что является для человека благом?!
  3. Может ли человек по этому вопросу иметь собственное мнение?
  4. Пример, является ли поездка на автомобиле благом для человека? И при каких условиях?
  5. Должна ли машина определять при каких условиях поездка является благом?
  6. Если же машина вообще не может принимать решения за человека, как она сможет выполнить три закона робототехники?
  7. Недавно робот-автомобиль не распознал препятствие и угробил пассажира. Какую ответственность должен понести этот робот?
  8. Еще вопрос. Как вы общаетесь с телефонными автоответчиками, верите ли вы им на слово? 

 

 

1) Причинить физические увечия, что тут понимать?

2) Машине не нужно понимать что является благом, ей нужно только выполнять правильные алгоритмы программы.

3) Человек имеет полное право распоряжаться своей жизнью и роботом

4) Поездка на автомобиле, является удобным средством передвижения, сокращение физических и временных ресурсов.

5) Машина должна только правильно отрабатывать алгоритмы программы, если машина из-за поломок датчиков или непредписанных программой событий, должна включаться аварийная безопасная остановка или вызов службы тех.поддержки патруля

6) Машина не должна принимать решения, она должна четко отрабатывать заложенные алгоритмы программы.

7) Робот никакую ответственность не несёт, это глупо, ответственность несут программисты инженеры и техники собирающие данного робота, или ответственные лица. В противном случае робот либо деактивируется в утиль или исправляется, с получением тестированием и новым допуском к работе.

8) С автоответчиками, не общаюсь, но если на нем нестандартная запись владельца, можно услышать что данный человек сообщил.

Ссылка на комментарий
Поделиться на другие сайты

Каждый человек судит об окружающих по себе.

 

Если он любит какое то блюдо, он будет стараться привить эту любовь окружающим и если кому то оно не нравится, он будет недоумевать как так.

 

Если человек хорошо умеет плавать, он может забыть как долго и упорно он учился и тренировался. И будет недоумевать, почему другие не умеют.

Или езда на велосипеде, крути педали и держи руль... А на самом деле главное почувствовать равновесие и уверенность.

 

Свобода воли, здравый смысл и умение видеть многочисленные причинно следственные связи.

Для таких людей законы лишние, ибо они интуитивно поступают по свовести.

Ссылка на комментарий
Поделиться на другие сайты

 

1....крути педали и держи руль... А на самом деле главное почувствовать равновесие и уверенность.

 

2.... здравый смысл и умение видеть многочисленные причинно следственные связи.

Для таких людей законы лишние, ибо они интуитивно поступают по свовести.

1. Крутить педали и держать руль при этом уверенно держать равновесие - это задача для людей номер один , а роботы сделают это только благодаря внедрению в него уже готовой программы , которая соответствует уровню программиста.

 

3. По совести поступают созревшие люди , они вне закона. Верно.

 

 

Стоун

" Три закона робототехники"

 

Андрей Гончев

эти "законы" содержат в себе неразрешимое внутреннее противоречие :)

неразрешимые)

Ссылка на комментарий
Поделиться на другие сайты

 

  • Давайте начнем с фразы "причинить вред человеку". Как это можно понимать?
  • Машина "понимает", что является для человека благом?!
  • Может ли человек по этому вопросу иметь собственное мнение?
  • Пример, является ли поездка на автомобиле благом для человека? И при каких условиях?
  • Должна ли машина определять при каких условиях поездка является благом?
  • Если же машина вообще не может принимать решения за человека, как она сможет выполнить три закона робототехники?
  • Недавно робот-автомобиль не распознал препятствие и угробил пассажира. Какую ответственность должен понести этот робот?
  • Еще вопрос. Как вы общаетесь с телефонными автоответчиками, верите ли вы им на слово?

 

1) Причинить физические увечия, что тут понимать?

2) Машине не нужно понимать что является благом, ей нужно только выполнять правильные алгоритмы программы.

3) Человек имеет полное право распоряжаться своей жизнью и роботом

4) Поездка на автомобиле, является удобным средством передвижения, сокращение физических и временных ресурсов.

5) Машина должна только правильно отрабатывать алгоритмы программы, если машина из-за поломок датчиков или непредписанных программой событий, должна включаться аварийная безопасная остановка или вызов службы тех.поддержки патруля

6) Машина не должна принимать решения, она должна четко отрабатывать заложенные алгоритмы программы.

7) Робот никакую ответственность не несёт, это глупо, ответственность несут программисты инженеры и техники собирающие данного робота, или ответственные лица. В противном случае робот либо деактивируется в утиль или исправляется, с получением тестированием и новым допуском к работе.

8) С автоответчиками, не общаюсь, но если на нем нестандартная запись владельца, можно услышать что данный человек сообщил.

1. А лишить свободы, ввести в заблуждение, взять в рабство, вынудить работать или заниматься проституцией можно?

 

2. А как машина определит, что это правильный алгоритм, а не неправильный?

 

3.Имеет ли сегодня человек полное право, или права у человека ограничены?

 

4.Если поездка на автомобиле заканчивается для пассажира смертью, является ли это удобным?

 

5.Как определить, что событие не предписано программой до того момента, когда событие произошло? Например, смерть пассажира.

 

6. Чем принятие решения отличается от выполнения программы реагирования на сигналы из внешней среды?

 

7. Как могут за поведение робота нести ответственность его создатели, если он работает точно по программе, а программа законов не нарушает? И если робот создателей не вызывал, а действовал сам.

 

8. Автоответчик сообщает Вам, например, счет за месяц за телефон. Какой человек Вам это сообщает?

Ссылка на комментарий
Поделиться на другие сайты

1. А лишить свободы, ввести в заблуждение, взять в рабство, вынудить работать или заниматься проституцией можно?

 

2. А как машина определит, что это правильный алгоритм, а не неправильный?

 

3.Имеет ли сегодня человек полное право, или права у человека ограничены?

 

4.Если поездка на автомобиле заканчивается для пассажира смертью, является ли это удобным?

 

5.Как определить, что событие не предписано программой до того момента, когда событие произошло? Например, смерть пассажира.

 

6. Чем принятие решения отличается от выполнения программы реагирования на сигналы из внешней среды?

 

7. Как могут за поведение робота нести ответственность его создатели, если он работает точно по программе, а программа законов не нарушает? И если робот создателей не вызывал, а действовал сам.

 

8. Автоответчик сообщает Вам, например, счет за месяц за телефон. Какой человек Вам это сообщает?

1) Кого лишить свободы и при чем здесь проституция? роботы тут вообще при чем, о чем вы? Каша у вас какая-то в голове )))

2) Машина следуя программе будет выполнять алгоритмы, это значит будет работать правильно, т.е. считывая внешние факторы рабочие выполнять верные алгоритмы. Если идёт дождь например включать дворники, или если на улице темно включать фары, это я примитивно объясняю.

3) Сегодня человек имеет полное право, но имея полное право на свободу вы должны иметь ответственность за свои поступки, поскольку многие люди не понимают что такое ответственность, их права ограничивают другие люди.

4) Если поездка на автомобиле заканчивается для пассажира смертью, это же единичные случаи, нужно разбираться в причинах трагической поездки. Может водитель нарушил правила, или он был пьян, или нарушил другой водитель, или отказали тормоза, или что-то еще.  Но это не отменяет удобства передвижения на транспорте. 

5) Что вы так привязались к смерти пассажира, когда программисты не смогут записать все варианты событий и не смогут предусмотреть все варианты, тогда можно считать что программа попала в экстренный режим.

6) Решения принимает человек, программа выполняет алгоритм, что не ясно.

7) Робот это машина, она только выполняет программу.

8) При чем здесь счет за месяц и сообщение человека который что-то мне хотел сказать?

 

Вы школьник или так толсто хотите троллить ???

Ссылка на комментарий
Поделиться на другие сайты

Человек из будущего

 

Я знаю, что робот машина.

 

Вы перспективу не видите?

Примат когда-то тоже был животным.

Но потом отдельные приматы стали не согласны с тем, что они животные, и стали требовать для себя права человека. И сейчас пока не решен вопрос, как с этим быть.

 

Что будут требовать отдельные роботы, которые не захотят быть машинами?!

Тоже права человека?!

 

Надеюсь, что про самоорганизацию Вы слышали.

Ссылка на комментарий
Поделиться на другие сайты

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Регистрация нового пользователя

Войти

Уже есть аккаунт? Войти в систему.

Войти
×
×
  • Создать...