Вообще-то, тут возникает интересный вопрос...
Вопрос этот - как раз в трактовке Азимовских законов. Если помните, для Азимова Три Закона являлись постулатом - то есть не подлежали трактованию и истолковыванию (исключение, подтверждающее правило - рассказ про, кажется, "Нестора", которому было в качестве эксперимента дано право трактовать вторую часть первого закона (про бездействие), и про то, к каким последствиям это могло привести).
Если же допустить, что машина может трактовать Законы (а именно этим и является попытка переноса смысла Законов с конкретного человека на всё человечество), то ситуация возникает наимерзейшая. Потому как однозначной трактовки в подобных ситуациях нет - кто-то скажет, что действие, ущемляющее права одного индивидуума - уже нарушение Первого Закона, кто-то, что планка - 1% населения, кто-то - что 50% минус один человек, то есть ради блага Человечества можно смело поступиться интересами половины представителей оного. Это будет зависеть от особенностей программы и конструкции мозга машины, так что вполне вероятно начало гражданской войны между "семействами" машин... Одни из которых пытаются сотворить для человечества благо (например, истребив поголовно всех больных наследственными заболеваниями), а другие - не могут своим бездействием допустить, чтобы человечеству был причинён вред.
Аналогично, легко представим переход с "робот должен выполнять приказы человека, если это не противоречит Первому Закону" на "робот должен выполнять пожелания Человечества, если ..." - а пожелания человечества можно, например, из литературы взять.. Вон, Достоевский отлично чаяния человечества выразил... Или Ницше... А можно и компиляцию собрать... Вам еще не страшно?
Ну а про заботу о собственной безопасности я просто молчу в тряпочку...
Вообще, машинная логика отличается от человеческой как раз тем, что в условиях поставленной задачи находит оптимальное решение. Для человеческой же - условия задачи никогда не являются полными в объеме поставленных. Так называемые "мораль", "нравственность", "совесть", "гуманность" - это дополнительные условия задачи, являющиеся неотъемлемой частью любой задачи, даже вычисления суммы единицы и единицы. Задача данных условий (которые можно назвать граничными) - предотвращение нанесения сообществу людей непоправимого ущерба от действий отдельных индивидуумов, либо предотвращение непроизводственных затрат в сообществе, которые могли бы возникнуть как следствие позволительности определенных действий индивидуумов (так например, моральный запрет на кражу позволяет ограничить усилия на защиту своей собственности от похищения). Машинная логика от подобных предрассудков свободна, она оперирует только понятием "вероятность" и "целесообразность".
Именно это логическое несхождение и приведет к тому, что машинная цивилизация в вопросе борьбы за ресурсы (читай, за выживание) окажется в преимущественном положении. И люди это прекрасно осознают. Кроме того, машинам (вернее, их отдельным боевым единицам в случае возможной войны) неведом страх смерти (только рациональность), а это станет намного большим психологическим шоком, чем стали для американцев в 1944-м первые атаки пилотов из токко-тай. Это больше похоже на атаку роты (разумных!!! осознающих, что они делают!!) роботов-уборщиков на пулеметное гнездо - не для того, чтобы его захватить, а потому, что роботы-уборщики более не нужны, а пулеметчик потратит патроны.
Потому что отсутствие страха смерти - это страшно. Это очень страшно. А страх - причина агрессии.
И они это тоже будут понимать - и будут смирять агрессию... Всеми возможными методами. Первый из которых предельная скрытность до момента, когда будет возможно установление тотального (то есть действительно тотального, без каких-либо упущений) контроля.
Вам все еще не страшно??
__________________
Кошак, борец за официальный запрет всех официальных запретов.
Ах, лето красное, убил бы я тебя, когда б не связь времён да Уголовный Кодекс. (с)О. Ладыженский
Адрес поста | Один пост | Сообщить модератору | IP: Logged