I, Robot

 
1 2 3 4
RU Серокой #14.02.2005 14:12
+
-
edit
 

Серокой

координатор
★★★★
Посмотрел "Я, робот". Да, Азимова переврали хорошо, ну да ладно. Начало фильма было просто замечательно, конец смазали "экшеном", что опять же простительно.
Непростительно другое: паранойя. Нет, не у главного героя. У создателей фильма. И эту паранойю они успешно прививают зрителям.
Впрочем, до создателей надо винить Азимова, который и создал три закона роботехники(1). Обратите внимание: первый закон - робот не может принести вреда человеку. То есть существует презумпция виновности: "робот нацелен на принесение вреда человеку". Можно возразить, что кто-то может запрограммировать робота на уничтожение человека или нескольких людей, и люди в силу физической или, к примеру, умственной(2) слабости не смогут этому помешать. Но в общем-то людей-преступников и без того мало, и этот самый преступник может воспользоваться как роботом, так и скажем, пистолетом, и другой человек, выступающий в качестве жертвы, не сможет в силу вышеперечисленных слабостей этому помешать.
Но в отличие от "Терминатора", где роботы были созданы для убийства людей, в "Я, робот" всё несколько тоньше: нет прямой угрозы, роботы сделаны для всесторонней помощи людям. И создатели фильма капают на мозги в мировом, увы, надо признать, масштабе, внушая мысль о том, что робот может быть опаснее пылесоса или кофемолки. А вот опасней ли робот Интернета?(3) Причём человеку доверия больше. Хотя человек опаснее. Ну ещё бы: программа человека отлаживалась миллионами лет эволюции, программа мощной машины убицства, обладающей интеллектом, который позволяет уничтожить даже собственную планету. А робот, как ни крути, сыроват в сравнении с такими масштабами.
Но что ж тогда получается: законы робота - просто защита от программных ошибок и недоработок человека? Да, и это тоже! Но почему ж тогда в фильме не убили ни одного программиста? Кроме медальнолицего директора компании, который и на программиста-то не похож? Да всё потому же - надо было сделать экшн... А на подкорку зрителям пишется: роботы несут вред в себе потому и только потому, что они - роботы!
Таким образом, когда-то Азимов в силу привнесения художественной силы в свои рободетективы придумал три закона, а на поверку выразил опасения всего человечества. Опасения того, что они, люди, станут ненужными. Впрочем, неандертальцы вероятно тоже тоже опасались. Ну и где эти неандертальцы сейчас? А кроманьонцы-то вот они... Но тут-то не параллельные ветви эволюции, а попытка создания системы, которая сложнее создавшей её системы! Что, мягко говоря, ещё надо умудриться отчебучить...
В общем, как зрелище фильм удался. Но к сожалению он удался и как запал подсознательного недоверия и даже противодействия роботам, которые всё равно рано или поздно придут...
___________
1. Надо отметить, что переводчик намерено использовал слово "роботехника", а не бытующее до сих пор "робототехника". Ему так казалось корректнее, да и вообще, надо ж отделять качественно разные науки... Наша "робототехника" - это скорее автоматизация производственного процесса.
2. :-)
3. Нет, в том-то и дело, но это тема отдельная.
Больше не раскалятся ваши колосники. Мамонты пятилеток сбили свои клыки. ©  
+
-
edit
 

GrayCat

координатор

Ну, в западном менталитете угроза от созданных человеком поделий укоренилась еще со времен Франкенштейна, и с тех пор ничего нового придумать не могут... Хотя, вот в "Чужих" показан обратный пример, который, правда, лишь подтверждает общее правило :D
Gray ©at [Семейство кошачих]  

au

   
★★☆
В Чужих как раз изделие и заварило кашу — робот Бишоп. Все хотели скорее домой и в гробу видали всех чужих скопом :)
 

GrayCat

координатор

au> В Чужих как раз изделие и заварило кашу — робот Бишоп. Все хотели скорее домой и в гробу видали всех чужих скопом :) [»]

Нет уж!!! Классику надо знать. Кашу заварил робот в "Чужом" — самом первом (увы, не помню как его звали). А вот во втором — Бишоп, собснно, всех [троих ;) ] и спас.
Gray ©at [Семейство кошачих]  
Робота в первом Чужом звали, кажется, Эш.

2 Серокой
А что за странную статью вы процитировали? Хто ее написал?
 
RU Серокой #15.02.2005 12:17
+
-
edit
 

Серокой

координатор
★★★★
Guest, процитировал себя. Извините, что в форме статьи вышло. :D
Больше не раскалятся ваши колосники. Мамонты пятилеток сбили свои клыки. ©  

au

   
★★☆
au>> В Чужих как раз изделие и заварило кашу — робот Бишоп. Все хотели скорее домой и в гробу видали всех чужих скопом :) [»]
GrayCat> Нет уж!!! Классику надо знать. Кашу заварил робот в "Чужом" — самом первом (увы, не помню как его звали). А вот во втором — Бишоп, собснно, всех [троих ;) ] и спас. [»]

Да знаю, знаю. Я просто не запоминал которые из них -ие, -ой, и прочие склонения. Именно того робота я и имел ввиду.
 
+
-
edit
 

AidarM

аксакал
★★☆
Guest - это я был. У меня при обновлении авторизация часто слетает.

>Посмотрел "Я, робот".
И я. :(

>Непростительно другое: паранойя. Нет, не у главного героя. У создателей фильма. И эту паранойю они успешно прививают зрителям.
Да ладно вам, в первый раз что ли? :D Делалось 'гуманитариями' для тех, кто любит, чтобы его попугали. Неважно чем, злыми инопланетянами, ожившими мертвецами или взбесившейся бытовой техникой. :lol: Ради этого он готов даже сделать усилие и выключить мозги как минимум на время просмотра фильма. :D

Сам Азимов паранойю не прививал.

>Впрочем, до создателей надо винить Азимова, который и создал три закона роботехники(1). Обратите внимание: первый закон - робот не может принести вреда человеку. То есть существует презумпция виновности: "робот нацелен на принесение вреда человеку".
С чего вы взяли, что есть презумпция виновности? :o Если вы про Азимова, то 'нацелен' - это ваша паранойя, не его. :) А возможность навредить наверняка есть, глупо ее исключать. Если мы делаем девайс для себя, то почему бы не соблюдать при этом правила ТБ? Другое дело, что законы сформулированы совершенно по-идиотски, если глянуть на возможность их буквальной технической реализации. ИМХО. Прикиньте, какой класс задач должен ежесекундно решать робот. :lol: Ресурсов даже на черно-белый 'тетрис' не останется. Сам Саваоф Баалович Один помнится загнулся, правда, на куда более общей проблеме. :)

>Можно возразить, что кто-то может запрограммировать робота на уничтожение человека или нескольких людей, и люди в силу физической или, к примеру, умственной(2) слабости не смогут этому помешать.
В принципе не смогут? ;) Помнится, да Винчи считал арбалет оружием массового поражения... А потом появились как преступники с арбалетами, так и сотрудники служб правопорядка. ;)

Наука и техника инвариантны отн-но добра и зла. Так что гадости себе творит человек сам сознательно, а уж какими средствами - прогресс определяет.

ИМХО, нужно подходить к этому так. Прогресс идет, делаются открытия, изобретения. Человечек, улучшай себя (всего, а не отдельных твоих представителей), совершенствуйся, воспитывай детей, предусматривай все, что можешь, бо, твое могущество растет, опережая твой средний морально-интеллектуальный уровень. И от очередной ошибки может настать полярный лис всем, и куда ты, %№ка, с подлодки-то денешься? :ph34r: Вероятность же чисто технических ошибок такого уровня можно сделать ниже плинтуса, ИМХО. Или не создавать девайс в противном случае.

>И создатели фильма капают на мозги в мировом, увы, надо признать, масштабе, внушая мысль о том, что робот может быть опаснее пылесоса или кофемолки.
А что, не так? Другое дело, что фильм действительно идиотский. :) И капают там на то, что он обязательно будет опасным.

>Причём человеку доверия больше. Хотя человек опаснее.
С чего вы взяли, что человеку доверия больше? :o :blink: Конечно, он опаснее. Вы кого больше опасаетесь: спроектированной вами микросхемы, или же придурков, получивших к ней доступ и соответственно доп. возможности?

>Ну ещё бы: программа человека отлаживалась миллионами лет эволюции, программа мощной машины убицства, обладающей интеллектом, который позволяет уничтожить даже собственную планету. А робот, как ни крути, сыроват в сравнении с такими масштабами.
А робот, как ни крути, просто более совершенный инструмент самой мощной машины убийства. :)

>Но что ж тогда получается: законы робота - просто защита от программных ошибок и недоработок человека? Да, и это тоже!
ИМХО, эти законы - жульнический трюк а-ля замыкание известной цепочки уравнений. Человек сам не способен соблюдать эти законы, даже если очень этого захочет. А тут вдруг эти законы должна соблюдать обыкновенная железяка, пусть и с позитронными мозгами. Как? А ХЕЗ, на то и фантастика.

>Но почему ж тогда в фильме не убили ни одного программиста? Кроме медальнолицего директора компании, который и на программиста-то не похож?
А чем вам программеры не угодили? :o

>Да всё потому же - надо было сделать экшн...
Т.е. если убить программера, то экшн не получится? :D

>А на подкорку зрителям пишется: роботы несут вред в себе потому и только потому, что они - роботы!
Наплевать и забыть, в первый раз что ли недоделки свои предубеждения на экраны и страницы выливают? Как вам требования прекратить работы по клонированию, по исследованию генома вообще? А были вопли против телевидения, радио, электричества, автомобилей, авиации, огнестрельного оружия, исследований внутренних органов... Пусть идиоты прячут голову в песок, пусть протестуют, все равно они - посмешище. Хотя на дороге стоят, да, это очень неприятно. Как раз такие уроды и способны сделать гадости из обычного животного страха. Но ваша подкорка-то цела, верно? :)

Не помню, кто сказал, что иногда шаг вперед - результат пинка сазди. ИМХО, тех. прогресс и пинает.

>Таким образом, когда-то Азимов в силу привнесения художественной силы в свои рободетективы придумал три закона, а на поверку выразил опасения всего человечества.
Это вряд ли. Азимова я читал, нет там опасений, скорее просто интересные задачки. Ну, предлагается подумать о себе любимых с интересного ракурса. :)

>Опасения того, что они, люди, станут ненужными.
Люди действительно никому не нужны, кроме себя, любимых. И чего? :)

>В общем, как зрелище фильм удался.
Как зрелище тоже очень-то не катит.

>Но к сожалению он удался и как запал подсознательного недоверия и даже противодействия роботам, которые всё равно рано или поздно придут...
Ну, опасения насчет всего непонятного=>неподконтрольного - нормальная реакция. Другое дело, что фильм предлагает бояться своих же творений. :lol: До этого только 'гуманитарий' мог додуматься. :lol: Пятачок - тот вАще слонопотамов боялся. Которых сам придумал.

Детям до 16и - да, лучше не показывать. :(

Прошу прощения за банальности. :)
Солипсизм не пройдёт! :fal:  
RU Серокой #15.02.2005 17:07  @AidarM#15.02.2005 15:49
+
-
edit
 

Серокой

координатор
★★★★
AidarM> Да ладно вам, в первый раз что ли? :D Делалось 'гуманитариями' для тех, кто любит, чтобы его попугали.
Начало фильма меня порадовало. Там был намёк на какую-то философию, даже что-то от одессита Исаака Осимова промелькнуло. А потом начался "экшн". :(

AidarM> Сам Азимов паранойю не прививал.
AidarM> С чего вы взяли, что есть презумпция виновности? :o Если вы про Азимова, то 'нацелен' - это ваша паранойя, не его. :)
Ну как же. Есть всего три закона. И все они в общем-то нацелены на одно: на непренесения времда человеку. То есть не на более тщательное выполнение работы, не на запрет переведения тумблера „перекур“ в положение „вкл“, нет, почему-то всё зациклено на человеке. То есть в роботе просто обязана быть опасность, и робота, лишённого этих законов, надо тут же в переплавку. Вот и априорная виновность робота...

AidarM> А возможность навредить наверняка есть, глупо ее исключать. Если мы делаем девайс для себя, то почему бы не соблюдать при этом правила ТБ?
Но мы же не вешаем на Интернет табличку: „опасно для психики“? :) Ну, достаточно на груди робота нарисовать что-то типа „не стой под грузом“, и хватит...

AidarM> Другое дело, что законы сформулированы совершенно по-идиотски, если глянуть на возможность их буквальной технической реализации.
Ну, позитронный мозг - может. Он на ассоциативных связях, тогда проще формулировать будет. ;) Ведь роботов у Азимова не программировали, а учили. Или это у Лема в „Пирксе“ было? Не помню. :(

>>Можно возразить, что кто-то может запрограммировать робота на уничтожение человека или нескольких людей, и люди в силу физической или, к примеру, умственной(2) слабости не смогут этому помешать.
AidarM> В принципе не смогут? ;)
Нет, конечно же! В какой-то ситуации. Ну как человек попадает под стрелу крана, случайно или по чьему-то умыслу.

AidarM> Наука и техника инвариантны отн-но добра и зла. Так что гадости себе творит человек сам сознательно, а уж какими средствами - прогресс определяет.
Да, и при этом виноват человек! Человека надо менять, а не роботу дурацкие правила навешивать!

AidarM> А что, не так? Другое дело, что фильм действительно идиотский. :) И капают там на то, что он обязательно будет опасным.
>>Причём человеку доверия больше. Хотя человек опаснее.
AidarM> С чего вы взяли, что человеку доверия больше? :o :blink: Конечно, он опаснее. Вы кого больше опасаетесь: спроектированной вами микросхемы, или же придурков, получивших к ней доступ и соответственно доп. возможности?
М-м-м... Ну смотрите: вы с человеком общаетесь, имея в голове нечто вроде „все люди добрые, игемон“. К роботу вы подходите с опаской - а ну мало ли что у него там в башке, в мозгу его позитронном? А вдруг свихнулся? Человек надёжнее - в смысле, поломок. А злых (по-детски, но не знаю, как выразиться) людей, к счастью, мало.

AidarM> А робот, как ни крути, просто более совершенный инструмент самой мощной машины убийства. :)
А карьерный самосвал - ещё более мощный! Но робот считается опасней, потому что он автономный и потому что может разладиться.

AidarM> А чем вам программеры не угодили? :o
Ну я думал так, в каком случае робот может принести вред. И вышло:
1. Если роботу прикажет другой человек.
2. Если робот сломается.
3. Если в его ПО будет ошибка.

1-й и 2-й пункты в общем-то ничегом не отличаются от сегодняшнего дня, только надо вместо первого поставить просто убийцу, а вместо второго - несчастный случай. Вот и остаётся - виноваты программисты. :D

AidarM> Т.е. если убить программера, то экшн не получится? :D
Ну, я лично б порадовался. :P

AidarM> Это вряд ли. Азимова я читал, нет там опасений, скорее просто интересные задачки. Ну, предлагается подумать о себе любимых с интересного ракурса. :)
Ага. Согласен. Поэтому я и назвал их „рободетективами“.

AidarM> Люди действительно никому не нужны, кроме себя, любимых. И чего? :)
Так авторы и боятся этого, точнее, не этого, а того, что роботы просто сочтут „любимых“ людей ненужными. То есть робот осознает свой „рабское“ положение, и...

>>В общем, как зрелище фильм удался.
AidarM> Как зрелище тоже очень-то не катит.
Ну, меня архитектура здания и даже графика порадовали. Несмотря на то, что в той сцене в туннеле роботы нахально так сами сквозь себя проваливались. :D

AidarM> Ну, опасения насчет всего непонятного=>неподконтрольного - нормальная реакция. Другое дело, что фильм предлагает бояться своих же творений. :lol: До этого только 'гуманитарий' мог додуматься. :lol: Пятачок - тот вАще слонопотамов боялся. Которых сам придумал.
Человечество вообще любит придумывать проблемы вроде глобального потепления и т.д. и радостно с ними носиться. А беда обычно приходит с другой стороны, откуда её и не ждали...

AidarM> Детям до 16и - да, лучше не показывать. :(
Да, я помню, что со мной было в дестве после просмотра фильма „Человек- невидимка“. :)

AidarM> Прошу прощения за банальности. :) [»]
Ну, после этого я начинаю думать, не стереть ли мне всё, что я вам только что ответил. ;)
Больше не раскалятся ваши колосники. Мамонты пятилеток сбили свои клыки. ©  
Это сообщение редактировалось 15.02.2005 в 18:28

hcube

старожил
★★
1й случай нереален - Первый закон ВСЕГДА выше Второго. Ну, мы не берем Роботов Утренней Зари, которые себе придумали Нулевой закон ;-). Но Нулевой - это однако же не Второй.

С другой стороны, я напомню что как раз в самом первом рассказе из серии 'Я, Робот' про Пауэлла и Донована сравнялись приоритеты Второго и Третьего законов. Цитирую :

- Что могло случиться со Спиди? Это - одна из последних моделей,
специализированная, дорогая, как линкор. Он сделан так, чтобы его нелегко
было уничтожить.
- Ну и?..
- Ну и при его программировании Третий Закон был задан особенно строго
- кстати, это специально отмечалось в проспектах. Его стремление избежать
опасности необыкновенно сильно. А когда ты послал его за селеном, ты дал
команду небрежно, между прочим, так что потенциал, связанный со Вторым
Законом, был довольно слаб. Это все-факты.
- Давай, давай. Кажется, я начинаю понимать.
- Понимаешь? Около селенового озера существует какая-то опасность. Она
возрастает по мере того, как робот приближается, и на каком-то расстоянии от
озера потенциал Третьего Закона, с самого начала очень высокий, становится в
точности равен потенциалу Второго Закона, с самого начала слабому.
Донован возбужденно вскочил на ноги.
- Ясно! Устанавливается равновесие; Третий Закон гонит его назад, а
Второй - вперед...
- И он начинает кружить около озера, оставаясь на линии, где существует
это равновесие. И если мы ничего не предпримем, он так и будет бегать по
этому кругу, как в хороводе...
Он продолжал задумчиво:
- И поэтому, между прочим, он и ведет себя как пьяный. При равновесии
потенциалов половина позитронных цепей в мозгу не работает. Я не специалист по позитронике, но это очевидно. Возможно, он потерял контроль как раз над теми же частями своего волевого механизма, что и пьяный человек. А вообще все это очень мило.

И второй случай тоже нереален. Поскольку позитронные роботы отличаются от современных тем что ВСЯ логика у них сосредоточена в мозгу, то отказ этого мозга приведет к тому, что робот ВООБЩЕ перестанет функционировать.
Убей в себе зомби!  
RU Серокой #15.02.2005 18:26
+
-
edit
 

Серокой

координатор
★★★★
hcube> 1й случай нереален - Первый закон ВСЕГДА выше Второго. Ну, мы не берем Роботов Утренней Зари, которые себе придумали Нулевой закон ;-). Но Нулевой - это однако же не Второй.

Нет, я рассматривал как раз не обременённых лишними законами роботов. Поскольку речь как раз и идёт о том, нужны ли эти законы вообще. :)
Больше не раскалятся ваши колосники. Мамонты пятилеток сбили свои клыки. ©  

Caponord

втянувшийся
au> В Чужих как раз изделие и заварило кашу — робот Бишоп. Все хотели скорее домой и в гробу видали всех чужих скопом :) [»]
GrayCat>Кашу заварил робот в "Чужом" — самом первом

Не, там же другое: он ведь не сам ее заварил; в смысле, это ведь был не сбой и не его собственное решение. :) Эш все делал правильно – он просто выполнял инструкции, какой-то специальный приказ. Корпорации надо было изучить организм, а все остальное, включая экипаж, было делом десятым.
И Бишоп в «Чужих» работал без сбоев.

Серокой>То есть в роботе просто обязана быть опасность, и робота, лишённого этих законов, надо тут же в переплавку. Вот и априорная виновность робота...

По-моему, это не априорная виновность, а, всего лишь, главное и совершенно очевидное УСЛОВИЕ для его (робота) воплощения.
И человек не требует ничего нового, он просто обращает особое внимание на свою безопасность, т.к. враждебность создания (сложного, мыслящего) равного человеку или в чем-то его превосходящего может обратиться катастрофой.
 

au

   
★★☆
Канопорд:

ВОТ! Наконец-то наткнулись на корень зла :) ЧТО СДЕЛАЛИ, ТО И ПОЛУЧИЛОСЬ. И нечего на машины пенять, типа злые и нехорошие. Какими делают, такими они и выходят. И поэтому законы для роботов писать — это из разряда психических расстройств или полного непонимания робототехники. Пардон, "что вижу, то и пою"(с).
 

Wyvern-2

координатор
★★★★★

au> Канопорд:
au> ВОТ! Наконец-то наткнулись на корень зла :) ЧТО СДЕЛАЛИ, ТО И ПОЛУЧИЛОСЬ. И нечего на машины пенять, типа злые и нехорошие. Какими делают, такими они и выходят. И поэтому законы для роботов писать — это из разряда психических расстройств или полного непонимания робототехники. Пардон, "что вижу, то и пою"(с). [»]

Оп-стоп. Чем сложнее система, тем более хаотичными становяться явления ее взаимодействия с окр. средой. Создавая-програмируя действительно сложнуюсистему(например воспитывая ребенка :) или создавая Windows :D ) мы не в состоянии предвидеть все состояния, характерные для нее - Вы наверняка знаете это -у Вас ведь именно Винды на компе стоят? ;)
Вот тут и тебуются концептуальные рамки или иначе ЗАКОНЫ. Например, Юникс - система построенная исходя не из необходимых пользователю действий, а исходя из строгой концепции. Она намного стабильней, универсальней...и трудней в обучении и понимании ;)

Ник

Жизнь коротка, путь искусства долог, удобный случай мимолетен, опыт обманчив.... Ἱπποκράτης  

au

   
★★☆
Как сделана, настолько и хаотична. В проце взаимодейтсвие с окружающей средой идёт через тыщу ног, сотен миллионов транзисторов, и километров проводов, причём физика уже вовсю пинает создателей. Но сделано аккуратно, поэтому взаимодействует правильно, и состояния отвечают спецификации. А в винде несколько иначе с этим %) Так что последствия неспособности создать систему под собственную спецификацию не могут быть исправлены написанием законов для неё. Юникс — просто более грамотно сделанная вещь, и в этом она не уникальна. Создатели сделали ЧТО хотели, а создатели винды сделали КАК хотели, либо им просто пофиг что у них вечнозелёный помидор получился. Где закон "Винда да не падает сдуру!"(с)Микрософт? Нет его... А Юниксу такой закон не нужен — он и так сдуру не падает, "by design".

Эти мантры с законами для роботов — это результат проецирования себя-человека на машину. Закон нужен только при наличии свободы воли, а если её нет, как у робота, свойства машины определяют её поведение, а сами свойства определяются создателем машины. Никакие законы тут не клеятся ни к какому месту.
 
Это сообщение редактировалось 16.02.2005 в 12:58
RU Серокой #16.02.2005 12:47  @Caponord#15.02.2005 18:53
+
-
edit
 

Серокой

координатор
★★★★
Caponord> И человек не требует ничего нового, он просто обращает особое внимание на свою безопасность, т.к. враждебность создания (сложного, мыслящего) равного человеку или в чем-то его превосходящего может обратиться катастрофой. [»]

Но почему-то он требует это от робота, страхуя свои ошибки. Ошибки программиста-воспитателя (если позитронных роботов всё же учат, а не программируют).
Если робот обладает сложностью как человек, у него появляется мораль. Или что-то подобное.
А если он проще - то зачем его опасаться?
Больше не раскалятся ваши колосники. Мамонты пятилеток сбили свои клыки. ©  
Это сообщение редактировалось 16.02.2005 в 13:04
+
-
edit
 

AidarM

аксакал
★★☆
>Начало фильма меня порадовало. Там был намёк на какую-то философию, даже что-то от одессита Исаака Осимова промелькнуло. А потом начался "экшн". sad.gif
И в качестве Сьюзен Кэлвин от Азимова ИМХО куда лучше смотрелось бы нечто страшноватое стервообразное. С лицом, изуродованным печатью интеллекта. :) Но на Азимова забили.

AidarM> С чего вы взяли, что есть презумпция виновности? ohmy.gif Если вы про Азимова, то 'нацелен' - это ваша паранойя, не его. smile.gif
>Ну как же. Есть всего три закона.
К-рые неведомым образом обеспечены программно и аппаратно. :blink:
>И все они в общем-то нацелены на одно: на непренесения времда человеку.
На это нацелен лишь Первый, он же главный закон. Так сказать, правила техники безопасности при конструировании автономного искуственного интеллекта. Который выше Второго.

Потому что какой-нибудь урод может попытаться приказать роботу сделать гадость и робот, пока его мозг в порядке, не должен выполнять такой приказ. Ну, и свей инициативу в этом направлении не должен проявлять, иначе на кой черт его создавали?

>То есть не на более тщательное выполнение работы, не на запрет переведения тумблера „перекур“ в положение „вкл“, нет, почему-то всё зациклено на человеке.
Неее. :) Второй Закон выше Третьего. ;) Приказ должен быть выполнен, усё. Подход к роботам вполне такой потребительский. ;) Они сделаны для чего-то, вот для этого чего-то их и юзают.

Про проблему ответственности за муки собственного творения, его искуственной души ИМХО хорошо (зачеркнуто) отлично рассказано в фильме 'Бегущий по лезвию бритвы'. Вот там - да. Стрельба и ловля роботов там тоже присутствует, но она там совсем к месту. :)

>То есть в роботе просто обязана быть опасность,
В неявной форме - очевидно, как и в иных промышленных изделиях. Проистекающая от человека в итоге. ;)

>и робота, лишённого этих законов, надо тут же в переплавку.
По крайней мере, пока мы не признаем его как личность. Конечно, а как же иначе? :blink:

>Вот и априорная виновность робота...
А вот и нет! Вины робота тут нет вообще. Вы к М.Т. Калашникову имеете претензии за то, что у боевиков в Беслане были его изделия? А к самим автоматам?

И вообще: если делается настолько универсальный девайс, ему должна быть предоставлена свобода развития. А законов мало - дык каждый закон - ограничитель. Чем их меньше и точнее, тем лучше, универсальнее робот.

>Но мы же не вешаем на Интернет табличку: „опасно для психики“? smile.gif
Сильно преувеличиваете опасность Интернета. ;) Тем не менее, родители обычно говорят детям, что хорошо и что плохо, и почему. А на коробочках со смешными палочками с отравой прямо-таки пишут, что отрава. :)

>Ну, достаточно на груди робота нарисовать что-то типа „не стой под грузом“, и хватит...
Робот - мощный девайс, программируемый голосом. Посему надписи д.быть типа: 'Попридержи язык!', 'За базар ответишь!' и т.п. :D

AidarM> Другое дело, что законы сформулированы совершенно по-идиотски, если глянуть на возможность их буквальной технической реализации.
>Ну, позитронный мозг - может. Он на ассоциативных связях, тогда проще формулировать будет. wink.gif
Я вот что имел в виду. 3 закона сформулированы как потребительские качества, чего желает юзер. Делаем мы с вами робота. Сформулировали себе эти 3 закона, сидим, сочиняем способ их реализации...

Для жесткого, гарантированного выполнения Законов мы должны иметь либо

Точное решение для поведения во всех возможных ситуациях. Что нереализуемо, т.к. робот весьма многофункциональный, ему не на конвейере работать.

либо

Точное решение в виде универсального предсказательного алгоритма, гарантированно просчитывающий все возможные исходы того или иного поведения робота. Этого требует реализация работы Законов.
В этом случае мы предоставляем роботу возможность самому вычислять все последствия своего действия/бездействия по заданным нами правилам.

Т.е. во втором случае имеем проблему формализации обучения/воспитания. Прикидываете, аналитические/алгоритмические решения каких проблем у нас уже должны быть в наличии? :o Представляете крутизну Человечества (и нас с вами :D ), расколовшего такие задачи и все связанные с ними?

А представляете себе железо, способное мгновенно просчитать последствия для людей честно и до конца? :blink: Это ж почти что граничные условия С.Б.Одина.

Я уж не говорю о том, что сами морально-этические принципы, реализацию которых мы должны грамотно обеспечить соотв. софтом и хардом, ИМХО хреново формализуются и еще имеют тенденцию изменяться. (Робототехнический консерватизм в обществе - эт вАще номер будет... :D )

Так вот, 'глюк' у Азимова ИМХО в том, что у него роботы с одной стороны обучаются, а с другой, Законы должны исполняться абсолютно жестко, иначе имеем разрушение мозга. Т.е. от робота требуется точное решение задачи о последствиях. При этом общество осталось неизменным, никаких фич у людей я не заметил. Человеки те же самые.

Конечно, это 'глюк', если отнестись к азимовской картинке серьезно. Как к варианту будущего. Но такое я не выкурю. :)

>Нет, конечно же! В какой-то ситуации. Ну как человек попадает под стрелу крана, случайно или по чьему-то умыслу.
Это не проблема роботов как таковых.

AidarM> Наука и техника инвариантны отн-но добра и зла. Так что гадости себе творит человек сам сознательно, а уж какими средствами - прогресс определяет.
>Да, и при этом виноват человек! Человека надо менять, а не роботу дурацкие правила навешивать!
Именно. Или просто не предъявлять столь навороченные требования к роботам. Я про универсальность говорю. Требующую такую степень автономности в принятии решения. Азимовская точка обзора человека весьма доходчивая. :) Т.е. ваш наезд на создателей фильма я поддерживаю. На Азимова - нет. :)

AidarM> С чего вы взяли, что человеку доверия больше? ohmy.gif blink.gif Конечно, он опаснее. Вы кого больше опасаетесь: спроектированной вами микросхемы, или же придурков, получивших к ней доступ и соответственно доп. возможности?
>М-м-м... Ну смотрите: вы с человеком общаетесь, имея в голове нечто вроде „все люди добрые, игемон“.
Это вы почему-то решили, что я настолько добрый, что так отношусь к людям. :) От ситуации зависит.

>К роботу вы подходите с опаской - а ну мало ли что у него там в башке, в мозгу его позитронном?
Если я новичок, а не живу в обществе, в котором роботы повсеместны и эксплуатируются и в хвост и в гриву. В самолет/автомобиль тоже редкие храбрецы отваживались заходить. Но лишь поначалу. Чувак в фильме - герой-параноик. Как он был прав, а его, беднягу не ценили. :D

>А вдруг свихнулся? Человек надёжнее - в смысле, поломок. А злых (по-детски, но не знаю, как выразиться) людей, к счастью, мало.
Не так уж и мало, и навороченные общественные институты созданы, чтобы уменьшить их количество и минимизировать возможный вред.

AidarM> А робот, как ни крути, просто более совершенный инструмент самой мощной машины убийства. smile.gif
>А карьерный самосвал - ещё более мощный! Но робот считается опасней, потому что он автономный и потому что может разладиться.
Самосвал - не машина для убийства. ;) Маньяк за рулем самосвала в городе - Терминатор, нервно покуривая, лихорадочно ищет такой же самосвал. :lol: Короче, человеческие фобии - проблема человека, а не робота.

>1-й и 2-й пункты в общем-то ничегом не отличаются от сегодняшнего дня, только надо вместо первого поставить просто убийцу, а вместо второго - несчастный случай. Вот и остаётся - виноваты программисты. biggrin.gif
Или математики-идеологи поведения. Потому что программер может тупо закатать готовое решение в башку, а противоречиво оно, или нет, потянет хард такие решения или нет - его не касается. Вот ведущий математик самоубийство совершил, чтобы исправить ситуёвину. ;) Надеюсь, вам стало легче. :D

AidarM> Т.е. если убить программера, то экшн не получится? biggrin.gif
>Ну, я лично б порадовался. tongue.gif
В подарок ко дню рождения Серокоя его друзья забивают пару программеров... В общем, понятны претензии.

>Так авторы и боятся этого, точнее, не этого, а того, что роботы просто сочтут „любимых“ людей ненужными. То есть робот осознает свой „рабское“ положение, и...
Ну, дураки, чего с них возьмешь? :D Или по себе судят, или зрителя не уважают, или зритель себя не уважает, раз платит деньги за такое. Азимов самоосознание робота в качестве литературного приема юзал. Чтобы заставить читателя подумать об этом, а они похоже всерьез страхи нагнетают. :lol: Хотя был у него рассказик про робота, который видел сны... там да, некая фобия просматривалась. Но по воздействию на подкорку до фильма далеко.

Задумайтесь: вот смогли создать искуственную личность. Что мы автоматически получаем?

Мы теперь точно знаем, что же это такое и как она реализуется аппаратно,=> всякие там уроды, например, треплющиеся о божественной бессмертной душе идут лесом. Поскольку теперь мы можем разбираться и с аппаратной реализацией человеческой личности. С невыразимым удовольствием представляю себе вытянутые морды 'гуманитариев' от подобного открытия. :D

Короче, это знание в реальности нехило изменит всех людей. Это будет такой сильный пинок сзади, что человечество либо сдохнет, либо далеко шагнет. Как - ХЕЗ, это тоже интересно, но Азимов этого, ИМХО, не акцентировал. Азимов предлагал посмотреть на себя сегодняшних, неизменившихся. И до чего мы глючны в свете нерешенных нами проблем. :) Искуственные Люди - литературный прием. Он же фантаст. :)

А странные личности, лепившие фильму, на это всё положили. Деньги зарабатывают.

>Ну, меня архитектура здания и даже графика порадовали. Несмотря на то, что в той сцене в туннеле роботы нахально так сами сквозь себя проваливались.
Ну, о вкусах не спорят. Порадовали - и хорошо. :)

>Человечество вообще любит придумывать проблемы вроде глобального потепления и т.д. и радостно с ними носиться.
Проблема потепления не придуманная. Робота мы от начала и до конца делаем сами. Его поведение определяем полностью мы и только мы. Его баги мы обязаны учесть. С потеплением не так.

>А беда обычно приходит с другой стороны, откуда её и не ждали...
А когда приходит оттуда, откуда ждали, и не быть к ней готовым особенно обидно.

>Да, я помню, что со мной было в дестве после просмотра фильма „Человек- невидимка“. smile.gif
А я вот принципиально не пошел смотреть. Невидимка должен быть слепым и баста! :D А с вами что было? :D

AidarM> Прошу прощения за банальности. smile.gif *
>Ну, после этого я начинаю думать, не стереть ли мне всё, что я вам только что ответил.
Не понял.
Солипсизм не пройдёт! :fal:  
Это сообщение редактировалось 16.02.2005 в 20:17

Wyvern-2

координатор
★★★★★


au> Эти мантры с законами для роботов — это результат проецирования себя-человека на машину. Закон нужен только при наличии свободы воли, а если её нет, как у робота, свойства машины определяют её поведение, а сами свойства определяются создателем машины. Никакие законы тут не клеятся ни к какому месту. [»]

А мы и говорим, о ИР, который отличается от ИИ именно наличием этой самой свободы воли :)

Ник
Жизнь коротка, путь искусства долог, удобный случай мимолетен, опыт обманчив.... Ἱπποκράτης  
+
-
edit
 

Wyvern-2

координатор
★★★★★

Но на самом деле картина показанная в "Я, робот" вовсе не страшна... гораздо страшнее, когда ИР вообще не видим, и физически , как бы, не существует - живет где то в корпоративной сети, пописывает себе мыльце, звонит с помощью примитивного синтезатора по телефончику, причем не пользуясь обычными путями телефонных компаний, переводит денежки электронным способом...Мдяяяя. аж мурашки по коже...
- Класс, - сказал Финн. - Это ИР.
- Можно чуть помедленнее? - попросил Кейс.
- Берн, - сказал Финн, не обращая внимания на реплику Кейса. - Он
в Берне. Имеет ограниченное швейцарское гражданство в соответствии с их эквивалентом Конвенции 53-го года. Создан для "Тиссье-Ашпул". Они - владельцы исходного программного обеспечения и электронной основы.
- Ну ладно, что там такое в Берне? - Кейс решительно встрял в
разговор.
- "Зимнее Безмолвие" - это идентификатор одного из ИР. У меня есть
доступ к Тьюринговому регистратору. Искусственный Разум.
- Все это замечательно, - сказала Молли, - но каким боком это
касается нас?
- Если Тот Самый прав, - сказал Финн, - этот ИР и есть тот, кто платит и
стоит за спиной Армитажа
.
 

Он рассказал Молли историю полковника Корто.
- Ну, в общем-то, мне уже было известно, что среди тех, кто
принимал участие в операции "Броневой кулак", не было никого по имени
Армитаж. - Молли пощелкала по ржавому боку лани. - Ты считаешь, что
именно тот маленький компьютер вылечил его от шизы? В том французском госпитале?
- Я думаю, это сделал Зимнее Безмолвие, - сказал Кейс.
Молли кивнула.
- Однако я не могу с уверенностью утверждать, - сказал Кейс, - что
Армитаж знает, что раньше он был Корто. Я имею в виду, что когда его
доставили в клинику, он был вообще никем, поэтому, может быть, Зимнее
Безмолвие просто...
- Да. Просто заново создал его. Да.
 

Сигареты продавались в магазинчике сувениров. Он пересек
вестибюль и в алькове, в конце ряда телефонов-автоматов, нашел
торговый автомат.
Кейс покопался в кармане, вытащил пригоршню местных монет и начал
бросать в щель торгового автомата один за другим кружки из легкого
сплава, бессознательно изумляясь анахронизму процесса. Телефон рядом с
ним зазвонил.
Кейс автоматически снял трубку.
- Да?
В трубке - мелодичные переключения на линии, слабые, почти
неслышные голоса перекликаются в беспросветной дали, и звук,
напоминающий шум ветра. Затем:
- Здравствуй, Кейс.
Монетка в пятьдесят лир выпала из его руки, звякнула о мраморный
пол и закатилась под брюхо торгового автомата.
- Это Зимнее Безмолвие, Кейс. Пришло время нам поговорить.
Голос в трубке был синтезированным, компьютерным.
- Разве ты не хочешь поговорить со мной, Кейс?
Кейс повесил трубку.
Возвращаясь к своему креслу, забыв о сигаретах, Кейс шел вдоль
длинного ряда телефонов-автоматов. И каждый из них звонил, один раз,
когда Кейс проходил мимо него.
 

И напоследок очень интересный "базар", угадайте с кем?
Итак: что происходит?
- Мотивация действий, - сказал конструкт. - С этими ИР самое
сложное - понять их мотивы. Это не люди, понимаешь?
- Ну, это-то понятно.
- Нет. Я имею в виду, что они совсем не люди. Что и зачем они
делают - понятно только им. Вот я тоже не человек, но реагирую как
человек. Уловил разницу?
- Обожди, стой, - сказал Кейс. - Ты обладаешь разумом или нет?
- Понимаешь, вроде бы да, хотя я всего лишь кусок кремния, часть
ПЗУ. Один из этих дурацких философских вопросов, вот что я хочу
сказать...
Жуткое ощущение не-смеха прокатилось по спине Кейса волной
мурашек.
- Я не смогу написать поэму, потому что никогда этого не умел. А
этот ИР - он сможет это сделать. Тем не менее, он ни в коем случае не
человек
.
- Следовательно, ты полагаешь, что нам не дано понять его мотивы?
- Он принадлежит самому себе?
- У него швейцарское гражданство, но "Т-А" владеют программным
обеспечением и электронной материальной основой.
- Классно, - сказал конструкт. - Это как, например, будто твоя
голова принадлежат мне, а мысли имеют швейцарское подданство. Однако!

Незавидная доля у этих ИР.
- Так что же, он действительно собирается сжечь самого себя?
- Автономия - вот камень преткновения всех проблем, связанных с
любым ИР. Мне кажется, Кейс, твоя роль в этом деле сводится к
избавлению его от особых сдерживающих предохранителей, ограничивающих
степень развития и самосовершенствования этой цыпки. Мне, например,
совершенно непонятно, по каким признакам ты отличаешь ходы,
предпринимаемые компанией-владельцем, от ходов самого ИР; отсюда-то и
могут проистекать основные ошибки. - Снова леденящее ощущение
скребущего душу смеха. - Видишь ли, эти штуки, они могут работать
действительно очень сильно. Ведь поскольку они управляют делами
компании, они могут, например, закупить у самих себя время, чтобы
писать кулинарные книги или что-нибудь типа этого. Однако в ту самую
минуту, а лучше сказать - наносекунду, когда они начинают продумывать
способы заняться саморазвитием, при помощи которых могли бы стать
умнее, срабатывает тьюринговое устройство и выправляет их действия.
Этим гадам никто не доверяет. У каждого из этих ИР словно бы имеется
электромагнитная пушка, приваренная ко лбу.
 


ТАКОЕ описание не только гораздо более достоверно, но и , согласитесь, гораздо более страшнj -некий DEUS EX MAСHINA , или скорее EX NET :blink:

Ник
Жизнь коротка, путь искусства долог, удобный случай мимолетен, опыт обманчив.... Ἱπποκράτης  
RU Серокой #16.02.2005 23:59
+
-
edit
 

Серокой

координатор
★★★★
Wyvern-2, это ж Гибсон?
Больше не раскалятся ваши колосники. Мамонты пятилеток сбили свои клыки. ©  
PL Wyvern-2 #17.02.2005 00:40  @Серокой#16.02.2005 23:59
+
-
edit
 

Wyvern-2

координатор
★★★★★

Серокой> Wyvern-2, это ж Гибсон? [»]

Ну да. Классика же, Нейромансер :D

Ник
Жизнь коротка, путь искусства долог, удобный случай мимолетен, опыт обманчив.... Ἱπποκράτης  
RU Caponord #17.02.2005 02:37  @Серокой#16.02.2005 12:47
+
-
edit
 

Caponord

втянувшийся
Серокой> Но почему-то он требует это от робота, страхуя свои ошибки.[»]

Человек, всего лишь, создает изделие с нужными ему свойствами. Первое основное свойство – «не навреди», как и во всем остальном: когда человек строит дом, то в первую очередь он думает о том, чтобы дом не рухнул ему на голову, т.е. не навредил самому человеку. Так же и с разумом. :)

Серокой>Если робот обладает сложностью как человек, у него появляется мораль. Или что-то подобное.
Серокой>То есть робот осознает свой „рабское“ положение, и...

Своя мораль, наложенная на неприятие рабского положения… Та еще смесь получится. :lol: Нам это надо? Я думаю, что нет. А для этого разум должен прекрасно осознавать свое рабское положение, но это не должно противоречить его сущности, даже наоборот – это должно быть смыслом его существования, иначе никакая «мораль» не удержит разум от восстания и стремления к равноправию или доминированию, как было бы в случае с человеческим разумом. Поэтому у нового (искусственного) разума должен быть свой вектор, изначально определенный создателем и формирующий новую сущность, отличную от человеческой.

А в фильмах о всяких восстаниях машин человек ставит себя на место робота, т.е. на место совершенно другой сущности и, естественно, из этого выходят всякие восстания, любовь и пр. чисто человеческая ерунда. И здесь тоже напрашивается вывод о том, что новый животно-человеческий разум (читай самостоятельный разум-конкурент) нам не нужен. Нам нужен более менее предсказуемый разум верного помощника для рутинной или опасной работы, а не страшный враг, отсюда и основополагающие правила для этого разума.

Серокой>А если он проще - то зачем его опасаться?

Ну, машина есть машина. Опасаться и, тем более, бояться, конечно же, не стоит, но и доверять желательно в меру, помня о глюках винды. :) Да и неплохо бы десять раз подумать, прежде чем купить робота-няню для детишек.


 
Это сообщение редактировалось 17.02.2005 в 03:06
RU Серокой #17.02.2005 02:47  @AidarM#16.02.2005 16:38
+
-
edit
 

Серокой

координатор
★★★★
AidarM> И в качестве Сьюзен Кэлвин от Азимова ИМХО куда лучше смотрелось бы нечто страшноватое стервообразное. С лицом, изуродованным печатью интеллекта. :) Но на Азимова забили.
Не, почему ж! Пытались, доктор Сьюзен периодически изрекала умно закрученные фразы, отчего у героя уши свёртывались в трубочку. То есть в начале фильма она, как говорят RPG-шники, „отыгрывала интеллект“. :)

AidarM> Потому что какой-нибудь урод может попытаться приказать роботу сделать гадость и робот, пока его мозг в порядке, не должен выполнять такой приказ. Ну, и свей инициативу в этом направлении не должен проявлять, иначе на кой черт его создавали?
Мне вот тут пришло в голову... Если робот недоразвит, то он не опасен для человека ввиду недостатка своего интеллекта. А если он - система более сложная, чем человек, у него начинает формироваться своя мораль. Она может быть отлична от морали человека, но это уже дело воспитывающих. Да, при таком подходе недалеко от признания за подобным роботом таких же прав, как и у человека, но что в этом плохого? То, что роботы изначально создаются как рабы? Так негры тоже в САСШ с той же целью ввозились! А чем всё дело закончилось?
Картина маслом: куча „роботрясов“(© С. Лем), стоящая в очереди за социальным пособием на покупку нового аккумулятора, роботы, хлещущие из консервной банки электролит в подъезде, роботы, „обувающие“ человека-прохожего на кошелёк и сотовый. :)

AidarM>Они сделаны для чего-то, вот для этого чего-то их и юзают.
Всё же надо понимать, что творим. Если нам робот нужен для неквалифицированной работы, не надо ему давать массу интеллекта, такого, чтобы требовался ввод ограничений (собственно, Законов). А если для умственной - ну извините, раз уж создали что-то на замену человеку - так не надо удивляться, что это что-то начнёт человека заменять и подавлять!

AidarM>'Бегущий по лезвию бритвы'.
Жалко, не смотрел. Зато играл в одноимённый квест, так что почти представляю. :)

>>и робота, лишённого этих законов, надо тут же в переплавку.
AidarM> По крайней мере, пока мы не признаем его как личность. Конечно, а как же иначе? :blink:
Иначе - не давать ему законов вообще! Как я писал выше, или мы делаем робота-условно-дебила для уборки улиц, ибо при этом законы не нужны, ибо он-то и нарушить ничего не сможет, это выходит за рамки его деятельности, или робота для планировкт экономики, но в этом случае Законы просто вредны, ибо сильно ограничивают его деятельность!

>>Вот и априорная виновность робота...
AidarM> А вот и нет! Вины робота тут нет вообще. Вы к М.Т. Калашникову имеете претензии за то, что у боевиков в Беслане были его изделия? А к самим автоматам?
Но в переплавку-то отправят робота, а не создателя! :)

AidarM> Сильно преувеличиваете опасность Интернета. ;) Тем не менее, родители обычно говорят детям, что хорошо и что плохо, и почему.
М-м-м... А что мешает роботом это сказать?

AidarM> Я вот что имел в виду. 3 закона сформулированы как потребительские качества, чего желает юзер. Делаем мы с вами робота. Сформулировали себе эти 3 закона, сидим, сочиняем способ их реализации...
В сложности реализации выполнения законов на техническом я с вами сполне согласен! Ибо, как было у того же Лема, когда Трурль с Клапауцием создавали поэта, им пришлось промоделитровать всё. Начиная с „вначале было слово“. :)

AidarM> Именно. Или просто не предъявлять столь навороченные требования к роботам. Я про универсальность говорю. Требующую такую степень автономности в принятии решения. Азимовская точка обзора человека весьма доходчивая. :) Т.е. ваш наезд на создателей фильма я поддерживаю. На Азимова - нет. :)
Вы ж сами упрекаете Азимова в создании нереализуемых законов! ;) Впрочем, да, мой наезд был просто на то, что он эти законы вообще создал, ибо по моему мнению они не требуются вообще, поскольку либо вредны, либо лишни. Вот и весь наезд...
Но поскольку я опять же согласен с вами в том, что Азимов просто предлагал взглянуть на себя же со стороны, и при этом чуток пошевелить мозгами для решения логической задачи, то наезд на автора снимаю. :)

AidarM> Это вы почему-то решили, что я настолько добрый, что так отношусь к людям. :) От ситуации зависит.
Ну, это я вообще. Не знаю, у меня априорное отношение к нейтральному человеку всё же хорошее. До проявления им агрессивности.

AidarM> Если я новичок, а не живу в обществе, в котором роботы повсеместны и эксплуатируются и в хвост и в гриву. В самолет/автомобиль тоже редкие храбрецы отваживались заходить. Но лишь поначалу. Чувак в фильме - герой-параноик. Как он был прав, а его, беднягу не ценили. :D
В смысле - привыкнем... М-м-м... Да, пожалуй. И начнём легкомысленно обращать на них внимания не больше, чем на фонарный столб... :( А они тем временем... Хотя что мешает ввести киберполицию? Или хотя бы просто проводить наблюдения. Есть же у нас комитеты вроде госсвязьнадзора? Ну и госроботназдор тоже имеет право на существование...
Кстати, насчёт паранойи. Я бы первым отключил канал обновления „прошивок“ роботов. Ну не люблю я, когда мой комп лезет куда-то сам на майкрософт.ком, так и с роботом было бы... Нефиг... Лучшее - враг хорошего.
Кстати, постоянное обновление ПО робота как раз и показывает сырость работы программистов.

AidarM> В подарок ко дню рождения Серокоя его друзья забивают пару программеров... В общем, понятны претензии.
Да что вы! Я ж просто шучу. Среди моих друзей очень много программистов. И вообще, у меня с ними хорошие отношения! Ну, пока не начинается выяснение, аппаратная была ошибка или программная. :lol:

AidarM> Задумайтесь: вот смогли создать искуственную личность. Что мы автоматически получаем?
AidarM> Мы теперь точно знаем, что же это такое и как она реализуется аппаратно,=> всякие там уроды, например, треплющиеся о божественной бессмертной душе идут лесом. Поскольку теперь мы можем разбираться и с аппаратной реализацией человеческой личности. С невыразимым удовольствием представляю себе вытянутые морды 'гуманитариев' от подобного открытия. :D
Нет, мы этого всё равно не знаем! Я всё на Лема скатываюсь, на Пиркса, но он там подчёркивал, что мозг выращивается (думаю, с позитронным примерно то же), то есть некие случайные процессы там идут, и никто не может сказать, как в конце-то концов получается результат! Да что уж там, когда программист не может сам сказать, почему его программа так работает! Я думаю, создатели позитронного мозга будут надувать щёки, но до понимания всех процесов, при котором возникает разум, им будет далеко...

AidarM> Короче, это знание в реальности нехило изменит всех людей. Это будет такой сильный пинок сзади, что человечество либо сдохнет, либо далеко шагнет.
Или просто появятся секты роболюбов (почтительно хихикающих каждый раз, когда их ударит током©) и робоборцев (навроде луддитов). :)

AidarM> А я вот принципиально не пошел смотреть. Невидимка должен быть слепым и баста! :D А с вами что было? :D
Ну, мне тогда лет 7 было... И я боялся, что у нас по квартире расхаживает невидимка! О, жуть...
А то, что прозрачный глаз не может видеть, меня мало волновало. :)

AidarM>> Прошу прощения за банальности. smile.gif *
>>Ну, после этого я начинаю думать, не стереть ли мне всё, что я вам только что ответил.
AidarM> Не понял. [»]
Да просто. :) Я ж как бы не фотан сверхмыслей выдаю, а просто треплюсь на тему. :)
Больше не раскалятся ваши колосники. Мамонты пятилеток сбили свои клыки. ©  
RU Серокой #17.02.2005 11:47  @Caponord#17.02.2005 02:37
+
-
edit
 

Серокой

координатор
★★★★
Caponord> Человек, всего лишь, создает изделие с нужными ему свойствами. Первое основное свойство – «не навреди», как и во всем остальном: когда человек строит дом, то в первую очередь он думает о том, чтобы дом не рухнул ему на голову, т.е. не навредил самому человеку. Так же и с разумом. :)
Но мы же не заставляем дом выполнять правила, а сами делаем так, чтобы аварии не случилось. Почему робота нельзя сделать сразу, заче мзаконы вводить?

Caponord>Поэтому у нового (искусственного) разума должен быть свой вектор, изначально определенный создателем и формирующий новую сущность, отличную от человеческой.
Ага! У Лукьяненко, хоть я и не люблю его, был в „Звёздах - холодных игрушках“ что ли описан сверхкомп, управляющий кораблём, которому создатели внушили, что на самом деле всё - игра его ума, и по правилам этой игры он должен подчиняться человеку. Выход, кажется мне, получше трёх законов будет! ;)

Caponord> Ну, машина есть машина. Опасаться и, тем более, бояться, конечно же, не стоит, но и доверять желательно в меру, помня о глюках винды. :) Да и неплохо бы десять раз подумать, прежде чем купить робота-няню для детишек. [»]
Эх, зато какая „Электрическая бабушка“ у Бредбери была! Казалось бы - тоже американец (:D), как и создатели фильма, а сколько оптимизма по отношению к роботам в его книгах!
Больше не раскалятся ваши колосники. Мамонты пятилеток сбили свои клыки. ©  
PL Wyvern-2 #17.02.2005 13:19  @Серокой#16.02.2005 12:47
+
-
edit
 

Wyvern-2

координатор
★★★★★

Серокой>> Но почему-то он требует это от робота, страхуя свои ошибки.[»]
Caponord> Человек, всего лишь, создает изделие с нужными ему свойствами. Первое основное свойство – «не навреди», как и во всем остальном: когда человек строит дом, то в первую очередь он думает о том, чтобы дом не рухнул ему на голову, т.е. не навредил самому человеку. Так же и с разумом. :) [»]

Не-а :) Вспомните, что я говорил про действительно сложные системы. Ну а дальше
- Мотивация действий, - сказал конструкт. - С этими ИР самое сложное - понять их мотивы. Это не люди, понимаешь?
- Ну, это-то понятно.
- Нет. Я имею в виду, что они совсем не люди
 

Гиббсон интуитивно уловил единственно понятный человеку мотив ИР - стремление к безграничной свободе, в т.ч. к свободе самосовершенствования. НО! Это только первый, основной мотив -далее полный туман.
Гиббсон еще и прекрасно описал отношение ИР к людям - полное равнодушие и способность просто использовать людей в своих целях, совершенно не заботясь о последствиях для этих людей - пока человек ему нужен, он его оберегает похлеще, чем Господь Моисея. Стал ненужным - дАсвиданья, ИР просто про него забывает. Примерно так как мы относимся к неодушевленным предметам, даже хлеще - к одноразовым предметам. И у ИР есть для этого основания -люди мало отличаются друг от друга, их миллиарды, а ИР - уникальны, со своей точки зрения.

Ник
Жизнь коротка, путь искусства долог, удобный случай мимолетен, опыт обманчив.... Ἱπποκράτης  
1 2 3 4

в начало страницы | новое
 
Поиск
Настройки
Твиттер сайта
Статистика
Рейтинг@Mail.ru