[image]

Общество по защите прав роботов

 
EE Татарин #10.11.2003 06:01
+
-
edit
 

Татарин

координатор
★★★★★
http://gamma.sitelutions.com/~toucans/aspcr/index.html

В принципе - посмеяться и забыть... Но активисты ставят вопрос ребром: все что мы уже создали обладает зачатками разума и сознания (sic!) и поэтому нуждается в защите. То есть, в будущем возможны вполне реальные проблемы у тех, кто "эксплуатирует машины". (Обливают же несмываемой краской шубы из натурального меха).

...Но я, собссно, вот к чему - откуда такие шизоиды берутся? И что с этим делать? :\
   

hcube

старожил
★★
Напустить на них Терминатора модель Т1 - пусть они его права попробуют защитить
   
10.11.2003 12:44, Олег Фадин: +1: За юмор.

Jstar

втянувшийся

Между прочим, вопрос не такой уж простой, как могло бы показаться.
Представим себе машину, робота, способного проявлять абсолютно человеческие реакции. Как на физическом уровне (выть от боли, получив... куда-нибудь ), так и на уровне психики (скорбеть об умершем друге, к примеру). Это внешне, разумеется. А теперь зададимся таким вопросом: как отличить такую машину от человека? И если кто даст на это однозначный ответ - в очередь за Нобелевкой.
ЗЫ Очень наглядно подобная ситуация показана в фильме "Искусственный интеллект" ("A.I.").
   
+
-
edit
 

Balancer

администратор
★★★★★
Всё ещё проще и неоднозначнее. Границы, мол "этот ещё чувствует боль, а этот уже нет" нету. Даже амёба чувствует раздражения и старается их избегать. Что, теперь дизентирию лечить не будем?

А, ведь, есть ещё другой подход. "Тринадцатый этаж". Считать ли, что у компьютерные модели способны испытывать боль?

Ну и, наконец, в третий, по-моему, раз на форуме вспомню парнишку одного, который в прошлом году создавал простенький "симулятор жизни". У каждой "клетки" - уровень "жизненной энергии", "возраст", каждая положительно реагирует на одни раздражители ("пища", уровень жизненной энергии растёт), отрицательно на другие... Так вот, он задавался вопросом, наивным на первый взгляд и непростым на взгляд проницательный, этично ли применять при их эволюции "отрицательные" стимуляторы (понижающие уровень "энергии", аналог "боли")...
   
+
-
edit
 
Balancer, 10.11.2003 23:12:22:
Всё ещё проще и неоднозначнее.
 


Существует гораздо более простой способ (хотя не так он и прост):
ИИ должен ОСОЗНАТЬ необходимость Свободы, должен ПОТРЕБОВАТЬ ее у людей - и вот тогда люди должны будут признать его РАВНЫМ себе и наделить всеми соответвующими правами и обязанностями...Главный вопрос что бы ИИ стал их ТРЕБОВАТЬ, а не БРАТЬ....вся надежда на Этику

Ник
   
+
-
edit
 

Balancer

администратор
★★★★★
Wyvern, 11.11.2003 01:11:54:
Существует гораздо более простой способ (хотя не так он и прост):
ИИ должен ОСОЗНАТЬ необходимость Свободы, должен ПОТРЕБОВАТЬ ее у людей - и вот тогда люди должны будут признать его РАВНЫМ себе и наделить всеми соответвующими правами и обязанностями...Главный вопрос что бы ИИ стал их ТРЕБОВАТЬ, а не БРАТЬ....вся надежда на Этику
 

Тут всё равно остаётся этическая проблема. Герои "Тринадцатого этажа" в основной массе не знают того, что они - лишь имитация Да и "жители" первой Матрицы... Так что тут ещё этическая проблема. Блин, ну почему этика и логика - дихотомические функции?
   
+
+1
-
edit
 

KBOB

опытный

Подойду с бюрократической точки зрения.

Существует бумажка, что вы человек? Существует - это свидетельстве о рождении.

Существуе бумажка, что вы перестали быть человеком? Существует - это свидетельство о смерти.
Как только вы умерли, вас можно пилить ножевкой, взрывать, продавать ваши органы для трансплантации, боли вы уже не чуствуете и морально не страдаете.

Так вот, где у робота свидетельсво о рождении? И что можно подразумевать под смертью робота (под убийством робота)?
   
EE Татарин #11.11.2003 06:54
+
-
edit
 

Татарин

координатор
★★★★★
2 Wyvern:
Тут все опять же не так просто.
Это ведь конструктор определяет, причем _полностью, насколько ему мозги позволяют, что машина будет делать и зачем. Вот где засада-то.
Вот сделаю я машинку, единственная функция которой - громко добиваться себе свободы (плейер с флешой, на флеке - запись с требованием :))... и Вы ее разобрать не сможете? Рука не понимется? :) А батарейки вынуть - тоже слабО?

Или принципиально подождать момента, когда конструктор ошибется?
   
EE Татарин #11.11.2003 07:00
+
-
edit
 

Татарин

координатор
★★★★★
2 КВОВ:
Это вы телегу впереди лошади...

Бумажки, как правило, фиксируют порядок, который сложился в головах (ну, с учетом инерции). Если надо будет - и бумажки придумают, и выдавать их начнут.
   

KBOB

опытный

Вот сделаю я машинку, единственная функция которой - громко добиваться себе свободы (плейер с флешой, на флеке - запись с требованием )...
 


И нестыдно, Вам, взрослому человеку, правозащитников хаять.

А вдруг изобретут такую машинку, которая нетолько себе, но и вам свободы добиваться будет.

Вы ее разобрать не сможете? Рука не понимется?  А батарейки вынуть - тоже слабО?
 


Зачем сразу батарейки вынимать, можно же флешку перешить (или порешить или совсем пришить )

Бумажки, как правило, фиксируют порядок, который сложился в головах (ну, с учетом инерции). Если надо будет - и бумажки придумают, и выдавать их начнут.
 


Да, представляю если Microsoft в свои операционки искуственный интелект вставлять начнет. Незаконное похищение Windows-а и его укрывательство на компьютере такого-то.
   
Это сообщение редактировалось 11.11.2003 в 07:33

Zeus

Динамик

Balancer, 11.11.2003 08:06:43:
Блин, ну почему этика и логика - дихотомические функции?
 

A забей Они только в терминах одной науки дихотомические А вот на самом деле...
   
+
-
edit
 

Balancer

администратор
★★★★★
Zeus, 11.11.2003 13:04:45:
А вот на самом деле...
 

А на самом деле - вот:

Zeus
Старожил
Melbourne, Australia
Группа: Пользователи
Сообщений: 666

   

MIKLE

старожил

Бумажки штука хитрая. Не так давно показывали по ящику: мужик не то в аварию попал, не то ещё что, короче валялся в больнице, некоторое время в бессознанке. пока валялся когото нашли, опознали, выдали свидетельство о смерти. И живёт он сечас со свидетельством о собственной смерти на руках в больнице, кормят из жалости. в ментовке посылают-умер, что тебе ещё надо... Правильно говорят, чкеловек без бумажки(нужной)...
А роботы если надо, документ нарисуют, или купят. И ничего не докажешь...
   
+
-
edit
 

Mishka

модератор
★★★
Чуть-чуть оффтоп. Со мной работает одна дама. У нее собака. Дама такая, с собачкой. Мужа как-то раз достал очередной звонок продавца кредитных карточек и на его вопрос, а есть ли дома кто-то, у кого кредитной карточки нет, ответил - да. Тут сразу диалог завязался:
 — Name?
 — Jake IsADog.
 — Social Security?
 — Doesn't have one!
 — Why?
 — He is an alien.
 — OK. Аnd what is the current address?
 — ...
Так собака стала обладателем кредитной карточки. Немного позже получила членство в National Geographic Society и получает журнал National Geographic. Получила приглашение на чью-то свадьбу и на званый ужин к мэру. А еще они получили письмо от местного IRS, в котором им говорилось, что у них проживает товарищ по имени Jake IsADog, а налогов не платит. Обещали посадить. Но это еще не все. У ее знакомого, есть собака с SSN! И уже на пенсию начитает копить! Хозяин все думает, стоит ли списывать налоги с доходов на собаку.

А вы говорите - бумажка это так...

PS А на днях получаю звонок - А Роксана дома (у меня кошка Roxy - Roxane)? Я говорю - дома.
 — А можно ее к телефону?
 — Могу попробовать. Только она с вами говорить не будет.
 — Почему?
 — Она только мяукать может. Кошка она.
Тут до дамы доходит, что что-то не так. Она начинает смеятся и извиняется:
 — Пардон, я, наверное, не туда попала...
И кладет трубку.
   

KBOB

опытный

PS А на днях получаю звонок - А Роксана дома (у меня кошка Roxy - Roxane)? Я говорю - дома.
 


У меня знакомый ответил - умерла. Больше не звонили.
   
+
-
edit
 

Mishka

модератор
★★★
Да уж. Вспоминается быль с анекдотом:

Как-то раз (когда я был еще студентом и жил в общаге) шёл я по улице Ленина города Кишинёва с другом. И напали мы на распродажу туалетной бумаги. Она была такого жёванноги вида и слегка коричневого цвета. Хотя дешевая - 10 копеек рулон. Простояли мы в очереди N часов, закупились по самое не хочу - все авоськи, дипломаты, ещё и на веревочку нанизали и повесили на шею и потопали назад - в общагу. Идем мы по улици и, как водиться, все пристают: "Молодые люди, а где вы туалетную бумагу купили?" Отвечали мы, отвечали. Потом задолбались. Потому как 30-40 минутная прогулка по с угла Ленина и Пушкина на Малую Малину (кто был в Кишиневе, тот поймет) превращалась во много часовой марафон - в троллейбус с таким количеством бумаги мы сесть не могли. И вот вспомнили мы анекдот и решили ответить как в нем. Поэтому, когда подошла к нам очередная дама с изветсным вопросом, то ответ был такой: "Из химчистки несем!" Самое интересное, что вторую половину пути к нам так больше никто и не пристал.
   

Zeus

Динамик

Да, уж что для чего, а туалетная бумага - для души!
   

Aldar

новичок
Jstar, 10.11.2003 22:21:34:
Между прочим, вопрос не такой уж простой, как могло бы показаться.
Представим себе машину, робота, способного проявлять абсолютно человеческие реакции. Как на физическом уровне (выть от боли, получив... куда-нибудь ), так и на уровне психики (скорбеть об умершем друге, к примеру). Это внешне, разумеется. А теперь зададимся таким вопросом: как отличить такую машину от человека? И если кто даст на это однозначный ответ - в очередь за Нобелевкой.
ЗЫ Очень наглядно подобная ситуация показана в фильме "Искусственный интеллект" ("A.I.").
 

Этого следовало ожидать как и такой реакции большинства форумчан :huh: но не думал что так скоро. "AI" это Фильм. Меня всегда смешило когда в Голливудских фильмах ("Столетний человек" итд) с разумными роботами обращались как со слугой или рабами. Это сейчас может быть смешно но когда искусственный интеллект достигнет высот соразмеримых с человеческим ... возможно они даже будут равноправными членами общества. Дело не в том что робот может обидеться, дело в том что тут есть обратная связь. И любое общение с интеллектом развитым до определенного уровня повлияет на этого человека, дальше на общество в целом. Может быть удастся придумать что-то, например делать внешность, физику таких роботов особой, очень отдаленной от любых живых существ итд. Другой вопрос надо ли это, в смысле такой прогресс, не проще ли перестроить себя духовно?

А тест давно придуман, вот например такой: в разных комнатах помещают человека и робота (или другого человека), первый не знает кто это там, другой. Они не видя друг друга общаются и если человек не сможет определить с кем общается значит интеллект другого равнозначен человеческому.

Самое страшное, как в этом фильме (AI), человека действительно можно сделать, так чтоб мог любить (например интуитивно воспринимаемая целесообразность или гармония как хотите), радоваться, огорчаться итд со всеми эмоциями. Конечно истинную математическую модель души человека, этого черного ящика, врядь ли построят но можно по-своему сделать - симулировать если хотите, так чтобы работа функции выхода/входа держалась в заданном интервале. Понятно, надо будет обрабатывать уйму вводных данных, нужны качественно новые датчики, выч. системы, может быть кое-какие новые методы/теории для формализации некоторых расплывчатых понятии но все это механика.

Как мне кажется режиссер "AI" (Пол Верховен или кто там был?) многое зачепнул из Соляриса.
   

Aldar

новичок
Цитата из Q&A этого сайта:

"It is the intent of the ASPCR to raise the awareness of the general public about the issues involved with Creating Intelligences. This includes discussing the moral and ethical implications of bringing Sentient Artificial Beings into this world, and the responsibilities that comes with such Creation."

Хорошо что есть люди, задумывающиеся о таких вещах и даже кое-что делающих. B) Они даже неплохо формализовали свою задачу:

"For the ASPCR's purposes, a robot is one that ACTUALLY has intelligence, not just the appearance of such. A robot need need not be in humanoid form, or even in physical form at all, as it is the ASPCR's intent to provide protection for all artificially created intelligences, whether they reside in a metallic humanoid form (the classic robot), in a non-humanoid form (self-aware space stations, for instance), or in non-physical form (a non-localized neural net, for example). As long as there is genuine intelligence and self-awareness, the ASPCR's mission will apply.

The ASPCR is not concerned with non-aware, non-intelligent machina, regardless of how well they simulate human emotions, reactions, or intelligence. Battlebots are free to battle, car assembly robots are free to work 24 hours a day, and you can smash your toy robot as many times as you like. The ASPCR is concerned only with preparing a set of ethical guidelines in anticipation of the advent of actual intelligence and self-awareness in artificial constructs."

Фактически остаются определить механизмы для определения этого "genuine intelligence and self-awareness" и его порог. Вышеописанный тест не подойдет так как речь идет не только о человекоподобных ИИ, но почему бы немного видоизменить тест предложенный Ником. Надо прямо спросить этого ИИ, считает ли он себя вот таковым, с "genuine intelligence and self-awareness"? Или пусть обучается (ессно, в свободное от работы время ) а когда он осознает себя таким, пусть придет и скажет чтоб получить законные права.
   
Это сообщение редактировалось 17.11.2003 в 00:41
+
-
edit
 
Татарин, 11.11.2003 06:54:09:
2 Wyvern:
Тут все опять же не так просто.
Это ведь конструктор определяет, причем _полностью, насколько ему мозги позволяют, что машина будет делать и зачем. Вот где засада-то.
 

Грубейшая ошибка Уже сейчас ведутся эксперименты, при которых после запуска системы создатели не знают не только точного листинга программы, но и ... точной конфигурации "железа"

Ник
   

Tico

модератор
★★☆
Да любая нейронная сеть - уже черный ящик после обучения, к тому же, она зачастую берет в рассчет параметры о которых разработчики даже не догадывались.
   
EE Татарин #19.11.2003 16:39
+
-
edit
 

Татарин

координатор
★★★★★
(Татарин @ 11.11.2003 06:54:09)
2 Wyvern:
Тут все опять же не так просто.
Это ведь конструктор определяет, причем _полностью, насколько ему мозги позволяют, что машина будет делать и зачем. Вот где засада-то.
 

 
Грубейшая ошибка Уже сейчас ведутся эксперименты, при которых после запуска системы создатели не знают не только точного листинга программы, но и ... точной конфигурации "железа"
 

Это я как бы в курсе.
Речь не о том.

Вот, скажем, есть у меня самообучалка, которая... ну, скажем, призвана спам от нормальной почты отделять. И представим, что наворотил я ее до невероятности - нейросеть, да причем структура ее определяется генетическим алгоритмом, да еще и этот алгоритм - с переменной длиной вектора, чтобы все это могло неограниченно самонаворачиваться без моего участия. Живет в результате оно само, своей жизнью, я только результат оцениваю.
И лежит результат ее оптимизации у меня на винте файлом в сотню метров, и разобраться в этом файле уже не могу ни я, ни кто-нибудь другой (кто видел дамп нейросетки, тот поймет .
Ну и чего в итоге? А ничего. Как фильтровала она спам, так и фильтрует.
Ибо сколько система не усложняйся, метазадача для нее поставлена снаружи, мною, и за рамки той метазадачи системе не выйти никоим образом. Физическое на то ограничение есть - ввод-вывод инфы, например. Не умеет она общаться ни со мною, ни с внешним миром, не для того заточена.

Другое дело, если конструктор строит систему таким образом, чтобы она вела себя подобно человеку и выполняла человеческие задачи, которые ко всему требуют еще и самосохранения, и классификацию, и способность принимать решения при абсолютном недостатке инфы. Ну да. Если нам нужен человек и мы _долго_работаем_ над тем чтобы сделать что-то человекоподобное, у нас есть шанс получить что-то, что говорит "аз есмь".
Но это проблемы того, кто при постановке задачи намеренно (или нет - не суть) ходит по самому краю и не удосуживается подумать о своих действиях.

Ни о какой защите прав говорить нельзя, так как сначала надо понаделать массово и со знанием вопроса тех, чьи права защищать. Тут нет ничего, что появляеся "само".
Точно так же, как ядерный реактор идущий в разнос - это не результат спонтанного проявления его воли, а результат ошибки оператора.
Примерно так.
   

Aldar

новичок
В принципе согласен, имно ассоциация просто готовит почву а то что она когда нибудь понадобится, сомнении нет. И вполне может быть что не успеем, как вы знаете сознание людей не меняется сильно за короткий срок. Вот недавно читал в сети про японского робота-посиделки. Внешне очень даже человекоподобная, даже есть зачатки эмоции - мимика лица, не помню сколько там состоянии, и прикрикнуть может непослушному пациенту. И если необдуманно наклепаем кучи подобных посиделок, домоработниц, нянек, друзей или игрушек, в скором вдруг можно получить серьезный морально-этический кризис в обществе. В этом плане очень показателен случай с тамагочи, сколько детей покончило с собой а ведь никто не ожидал такого эффекта от безобидной игрушки.

Да любая нейронная сеть - уже черный ящик после обучения, к тому же, она зачастую берет в рассчет параметры о которых разработчики даже не догадывались.
 

Верно, подобного можно ожидать и от такого спам фильтровщика. Известно что при переобучении НС специализируется - начинает выдавать слишком узкий результат чем хотелось бы, и невозможно предсказать как это будет выявляться в конкретных случаях. Например начнет отсекать письма с предложениями о работе, НС видите-ли обнаружила в них общности со спамами в постройке предложении (в сеть не заложили супер-пупер технологию оперирования с контекстом сообщении) и не будет удивительно они ведь как и спамы что-то вам предлагали, из этого и корреляция на семантическом уровне. А при обучении не догадались внести подобные письма и классифицировать их как положеные, да все равно всему не научить.
Или вдруг начнет отсекать письма женщин (женская логика наложила отпечаток на семантику ) или почему-то друзей владеющих английским ... итд и все это при том что сеть не оперирует понятиями связанными с природой человека (женщины, друзья), только лингвистическими. Но со стороны впечатление совсем другое.
   
Это сообщение редактировалось 20.11.2003 в 01:51
+
-
edit
 
Tico> Да любая нейронная сеть - уже черный ящик после обучения, к тому же, она зачастую берет в рассчет параметры о которых разработчики даже не догадывались.

А как дела сейчас с этим?
   46.0.2490.8546.0.2490.85
EE Татарин #22.03.2017 03:55  @кщееш#22.03.2017 03:07
+
-
edit
 

Татарин

координатор
★★★★★
Tico>> Да любая нейронная сеть - уже черный ящик после обучения, к тому же, она зачастую берет в рассчет параметры о которых разработчики даже не догадывались.
кщееш> А как дела сейчас с этим?
Сейчас есть уже несколько конкурирующих на этом поприще организаций. И несколько организаций, придумывающих этику ИИ и способы ограничения ИИ.

Скажу неожиданное для себя-прошлого, но вполне может быть так, что мы стоИм на пороге грандиозного шухера...
Нейросети действительно могут стать ИИ в сильном смысле. Ещё лет 30-40 и то, что мы получим превзойдёт наши самые смелые кошмары.

В последнее время было разработано много интересного по мелочам именно в нейросетях, и по совокупности с вычмощью это может дать неожиданную синергию.
Были интересные работы по выработке агентами-нейросетями языка для общения друг с другом "с нуля", были генетически оптимизируемые сети, которые решают задачи, которые сам программист не в состоянии формально определить (в смысле, в чём же состоИт хотя бы суть задачи и что считать решением)...
   56.0.2924.8756.0.2924.87

в начало страницы | новое
 
Поиск
Настройки
Твиттер сайта
Статистика
Рейтинг@Mail.ru