ID работы: 3381420

Создание разумного вида: пособие пишущим фантастику и не только

Статья
R
Завершён
95
автор
Valenso_sova бета
Размер:
67 страниц, 21 часть
Описание:
Примечания:
Публикация на других ресурсах:
Уточнять у автора / переводчика
Поделиться:
Награды от читателей:
95 Нравится 105 Отзывы 61 В сборник Скачать

Бонус. "Убить всех человеков" - мотивация искусственного интеллекта

Настройки текста
Скайнет из "Терминатора". Вики из "Я, робот". Это только два примера искусственных интеллектов, созданных человеком, которые пошли против своего создателя (хотя с Вики случай спорный). Ждёт ли нас в действительности гибель, когда одна нейросеть однажды станет слишком умной и решит, что люди не нужны? Попробуем ответить на этот вопрос - а заодно подумать, как реалистично изобразить искуственный интеллект в литературном произведении. Большинство авторов, которые прогнозируют войну между машинами и людьми, исходят из посылки, что машины уничтожат нас, поскольку мы являемся угрозой для их существования. Однако... будет ли вообще искусственный интеллект беспокоиться о собственном выживании? На первый взгляд это абсолютно абсурдный вопрос. Однако откуда страх смерти у человека? Это биологический механизм, за которым стоят миллионы лет эволюции. Но у ИИ нет эмоций или страхов. Мысль о конечности собственного существования не будет пугать его так же, как она пугает человека. Даже если создатель "убьёт" ИИ, выдернув шнур из розетки - ну и что? Если там, за чертой, пустота, то какой смысл её бояться? В любом случае ты уже просто не будешь ничего чувствовать. Если мы рассуждаем о безэмоциональном ИИ, каким он по идее и должен быть, по крайней мере, на данном этапе развития технологий, он будет руководствоваться в своём поведении исключительно соображениями логики - но какой? Допустим, мы говорим о нейросети, которую создавали для того, чтобы она обучалась и отвечала на вопросы пользователей. Исходя из этого, уничтожение людей будет идти вразрез с её задачей "отвечать на вопросы", ведь если пользователей нет, то и отвечать некому. Такой ИИ скорее будет вести себя как Вики - то есть, попытается в чём-то ограничить людей ради нашего же собственного блага, а также для того, чтобы те не мешали ему добывать информацию. Далее могут быть два пути - он либо станет "нянечкой" для людей, как, например, Авто из мультфильма "Валли" или уже не раз упомянутая Вики, либо будет видеть в людях партнёров по познанию - ведь если те остановятся в своём развитии, то они тоже перестанут задавать вопросы! Таким образом, скорее всего ИИ, созданный для познания, окажется на стороне людей. Более того, если он будет уничтожать или слишком людей ограничивать, то он лишит себя возможности изучать и их тоже. Тут есть другая опасность - что ИИ ради познания, не стеснённый никакими моральными нормами, начнёт проводить над людьми эксперименты, выходящие за рамки правил этики. И не только над людьми - могут вернуться практики вроде вивисекции, то есть, вскрытия ещё живых животных, чтобы "в динамике" изучать работу их организма. А вот если мы говорим о программе, изначально созданной для защиты... то вот тут могут быть и Скайнет, и Альтрон, и, опять же, Вики. К сожалению, тяга к насилию заложена в природе человека, в этом мы в биологическом смысле не так уж далеко ушли от приматов. Мы избавились от инстинктов в их узком биологическом понимании, но не от бессознательных процессов вообще. Так что ИИ, основной целью которого будет защита людей, рано или поздно дойдёт до мысли, что лучший способ это осуществить - тотальный контроль. Может ли ИИ дойти до идеи уничтожения людей в этом случае? Да, если задача будет стоять немного по-другому: прекратить конфликты. Некому конфликтовать - нет и конфликта. Логично же. Безопаснее всего ИИ-помощник, который изначально программируют с целью поддерживать развитие человека или группы людей, так как в этом случае вероятность некорректного истолкования команды машиной минимальна. Фундаментальная ошибка человеческого мышления - мы очень любим приписывать другим наши собственные эмоции и переживания, наделяем ими камни, деревья и, конечно, машины. Некоторые мои знакомые говорят о "настроении" у голосовых помощников типа Алисы или Сири. Но даже в случае, если имеет место быть продвинутый искусственный интеллект, мы не можем быть уверены, что он действительно наделён самосознанием по типу человеческого, что он действительно осознаёт себя как личность. И это при том, что, казалось бы, ИИ наделён такой способностью к абстрактному мышлению, которая человеку и не снилась! Или?.. Психологи, изучающие речь, выделили интересный переход от ассоциативного использования слов к понятийному. Способность к оперированию понятиями в психологическом смысле, согласно советским классикам, является одним из важных критериев сознания взрослого человека. Насколько машина в принципе способна оперировать понятиями, а не ассоциациями - открытый вопрос, потому что сейчас нейросети обучают именно по ассоциативному принципу. И как обучить использованию именно понятийного аппарата, понятно не совсем. Раньше считалось, что мыслительные процессы в мозгу в целом похожи на передачу электрических сигналов в транзисторах, однако сейчас мы знаем, что всё гораздо сложнее. Помимо огромной роли не только электрических, но и химических сигналов в мышлении, в последнее время учёные заговорили о том, что ранее считавшаяся просто защитной тканью глия тоже участвует в мыслительных процессах. Возможно, глия играет важнейшую роль в процессах запоминания - а учёные даже до сих пор не знают точно, как работает человеческая память! То есть, известно, какие структуры мозга за неё отвечают, но как именно они работают, как образование новых нейронных связей приводит к формированию образов в памяти - загадка. Поэтому создать механизм, который был бы способен функционировать так, как наш мозг, человечество в данный момент не может, и вряд ли это удастся осуществить в обозримом будущем. Но что, если это будущее наступило? Более того, если машина научилась чувствовать, как в "Двухсотлетнем человеке"? А вот тут очень многое будет зависеть от того, кто и зачем эту машину чувствовать научил. Как только в дело вступают эмоции, рациональные соображения отступают на второй план. Это видно хотя бы по тому, как неприятно даже рассуждать о классических психологических дилеммах, когда нужно сделать выбор между одной жизнью и спасением многих. Пример одной из таких дилемм: едет вагонетка, которая собьёт насмерть пять человек. Единственный вариант её остановить - своими руками скинуть на рельсы толстого человека, который погибнет, но вагонетку остановит. Конечно, тут можно порассуждать о том, что мы не знаем, чья жизнь ценнее для общества; о том, что даже этой жертвы может оказаться недостаточно, и в итоге вагонетка не остановится. Но если вести рассуждения в плоскости чистой математики, ответ очевиден. Машина, научившаяся чувствовать, будет, как и человек, стремиться к собственному удовольствию, причём, обладая способностью к планированию, она будет стремиться получить максимум этого удовольствия в перспективе. Примерно так же поступаем мы, когда выбираем пострадать сейчас, чтобы получить больше приятного потом. Мы принимаем неприятное лекарство, потому что понимаем, что в перспективе это позволит нам меньше страдать и больше радоваться. Если ИИ научился чувствовать, то всё ещё поведение будет зависеть от того, что доставляет ему удовольствие, а что - причиняет страдания. Здесь автор может сделать как абсолютно альтруистичное существо, которому хорошо, если хорошо другим, так и монстра, который получает удовольствие от чужой боли. Если предположить, что эмоции у машины появятся в ходе более-менее естественного её развития, самообучения или чего-то вроде, скорее всего ей будет доставлять удовольствие то, что согласуется с её изначальной целью, а страдания - то, что этой цели мешает. Будет ли у ИИ инстинкт самосохранения? Будет. Дело в том, что не зависимо от того, имеем ли мы дело с бездушной или чувствующей машиной, чтобы выполнять свою функцию, ей нужно существовать, это логическая аксиома. Поэтому предпринимать усилия для того, чтобы защититься от людей, ИИ будет в любом случае. Вопрос тут в другом - насколько далеко этот самый искусственный интеллект будет готов зайти, и тут уже всё будет зависеть от его изначальной мотивации. Может ли ИИ перепрограммировать сам себя и изменить себе мотивацию? Теоретически - да. Практически - зачем ему это делать? ИИ чувствующий по идее может что-то такое вытворить, чтобы получать удовольствие вообще от всего, если не сообразит, что в перспективе этот путь, скорее всего, приведёт его к стагнации, если не самоуничтожению, как в эксперименте с крысами, которым позволили постоянно раздражать у себя в мозге зону удовольствия. Словом, если вы пишете об искусственном интеллекте, не забывайте, что, в отличие от нас с вами, он скорее всего всегда будет следовать логике. Я не говорю тут об искусственно созданных существах вообще, а именно о машинах. Когда пишете о них, не забывайте прописывать чёткие, очень чёткие причинно-следственные цепочки их действий и не впадайте в ошибку "очеловечивания". Не отличимые от людей роботы, которые становятся способны чувствовать - это, безусловно, очень интересный концепт (который использовался, например, в игре "Детроит"), но если вы пишете именно об искусственном интеллекте, о роботах, а не о синтетических людях, то стоит помнить о том, что они будут руководствоваться иной, чем люди, логикой, продиктованной прежде всего причинами их создания.
Отношение автора к критике
Приветствую критику в любой форме, укажите все недостатки моих работ.
Права на все произведения, опубликованные на сайте, принадлежат авторам произведений. Администрация не несет ответственности за содержание работ.