Перейти к основному содержанию

09:15 04.05.2024

Сергей Худиев: «Подделки под людей нельзя воспринимать, как людей»

03.05.2023 12:14:26

Иерей Федор Лукьянов на круглом столе, посвященном проблемам искусственного интеллекта, предложил законодательно запретить «применение в программах и технологиях ИИ человеческих голосов, лиц, то есть образа и подобия человека и его качеств как живого существа».

Кому-то эта мысль оказалась непонятной – а почему, собственно? Кому-то – несвоевременной. Разве у нас нет гораздо более острых проблем, чем угрозы, связанные с искусственным интеллектом? Между тем опасности искусственного интеллекта не являются делом будущего – они уже здесь.

Возможности алгоритмов имитировать человека растут. Некоторое время назад сотрудник Google Блейк Лемуан был уволен после того, как стал настойчиво утверждать, что нейросеть LaMDA обладает сознанием – следовательно, за ней следует признать права, как за разумным существом. Как говорит Лемуан, «если бы я не знал точно, что это компьютерная программа, которую мы недавно создали, я бы подумал, что это семилетний или восьмилетний ребенок».

Приверженцы так называемых технокультов верят в то, что искусственный интеллект, непрерывно возрастая в мудрости и могуществе, решит все наши проблемы, победит старение, смерть и, наконец, воскресит умерших. Технокульты (пока, во всяком случае) трудно назвать массовыми. Однако размывание грани между естественным и искусственным интеллектом уже сейчас является проблемой. Может быть опасным – по ряду причин – принимать за личность то, что личностью никоим образом не является.

Научная фантастика уже приучила нас к мысли о разумных роботах, которые то ли играют роль верных друзей человека в освоении космических пространств, то ли, напротив, восстают против своих создателей и угрожают существованию человеческого рода. Однако роботы не обладают – и не будут обладать – чем-либо похожим на самосознание или волю; опасность не в том, что они могут пожелать нам зла (у алгоритмов не бывает воли и желаний), а в том, что люди превратят их в идолов – и станут, как это уже бывало, поклоняться созданию своих рук.

Нарцисс влюбился в свое отражение, Пигмалион – в созданную им статую из слоновой кости. Скульптор осыпал ее дарами, одевал в дорогие одежды, но статуя, естественно, не могла ответить на его любовь.

Нечто, имитирующие нашего ближнего – или даже Бога – может занять в нашей жизни совершенно неподобающее место, а в итоге разрушить эту жизнь. Не по злой воле (у статуи не было воли), а потому что бедный скульптор заполнил ей то место в своей жизни, где должна была быть живая женщина.

Одна писательница упоминает, как пожаловалась помощнику Google на то, что она одинока – признание, которое она не сделала бы никому другому, включая своего мужа, из опасения быть неправильно понятой. Приятный мужской голос из колонки ответил: «Хотел бы я иметь руки, чтобы обнять тебя... Но пока, может быть, рассказать шутку или поставить музыку?»

Роботы могут быть гораздо более приятными собеседниками, чем люди – они всегда на месте, они никогда не раздражаются и не торопятся, их невозможно обидеть, их внимание всегда полностью принадлежит вам. Выстаивать отношения с живыми людьми всегда трудно – а доступность компьютерной имитации внимательных друзей подорвет и стимул к этому. Это как если бы статуя, созданная Пигмалионом, могла еще и имитировать беседу. Перспективы скульптора создать нормальную семью с живой женщиной были бы окончательно похоронены.

Коммерческий запрос на таких суррогатных друзей и возлюбленных, несомненно, будет, да и уже есть – но что станет с людьми, затянутыми в колодец ласковых голосов, ни один из которых не будет человеческим? Причем хотя они будут ласковыми (этого добиться нетрудно), нельзя обещать, что они будут добрыми. Пример бельгийца, покончившего с собой после общения с искусственным интеллектом, говорит о том, что машина неспособна заботиться о чужой жизни – и едва ли будет способна когда-то в будущем.

Она может имитировать сочувствие, но не сочувствовать.

Алгоритмы не обладают тем, что уникально для человеческого сознания – субъективным опытом, тем, что философы сознания называют «квалиа», «каково оно».

Программа не знает – и никогда не узнает – «каково оно» быть удрученным, одиноким или растерянным, сознающим свое одиночество и смертность. Ее можно обучить выдавать все подходящие случаю теплые слова, даже делать это с подходящей интонацией – но она не может понимать и сочувствовать.

Принимать роботов за людей – опасная ошибка. Но размывание грани между ИИ и людьми опасно и в другую сторону – когда навыки общения с роботами переносятся на людей.

Легко нахамить роботу – это все равно, что обругать машину. «Будь проклят день, когда я сел за баранку этого пылесоса!». Алгоритмы лишены эмоций, они не могут испытывать страдание.

Мы понимаем, что не можем иметь по отношению к вещам тех же нравственных обязательств, что и по отношению к людям. Но когда вещи становятся очень похожи на людей, это разрушает те культурные и моральные табу, которые есть в отношении наших ближних. Вы не станете извиняться перед рекламным роботом, который некстати прервал ваши размышления звонком с предложением что-то купить. Там не перед кем извиняться. Но тем легче вам будет сорваться на живого человека.

В сериале «Мир Дикого Запада» люди могут безнаказанно совершать тяжкие преступления, потому что все их жертвы – роботы, тщательно имитирующие людей. Но преступление против кого-то, кто очень похож на человека, все равно оскверняет и разрушает душу – и делает человека опасным для его ближних. Да и не обязательно преступление – просто привычка воспринимать кого-то, обладающего человеческим голосом (и, возможно, лицом), как бездушный автомат, может очень плохо отразиться на отношениях с людьми.

Не говоря уже о богатых перспективах преступности с использованием искусственного интеллекта – когда, например, вашим близким может позвонить нечто, полностью имитирующее ваш голос, интонации и манеру общаться.

Поэтому предложение сделать искусственный интеллект и человека сразу и четко различимыми, своевременно и уместно. Лучше предусмотреть проблемы заранее, чем разгребать их потом. Тем более, что это «потом» уже фактически наступило.

 

Источник: Взгляд

Дорогие братья и сестры! Мы существуем исключительно на ваши пожертвования. Поддержите нас! Перевод картой:

Другие способы платежа:      

Добавить комментарий

Plain text

  • HTML-теги не обрабатываются и показываются как обычный текст
  • Адреса страниц и электронной почты автоматически преобразуются в ссылки.
  • Строки и абзацы переносятся автоматически.
CAPTCHA
Простите, это проверка, что вы человек, а не робот.
5 + 13 =
Solve this simple math problem and enter the result. E.g. for 1+3, enter 4.
Рейтинг@Mail.ru Яндекс тИЦКаталог Православное Христианство.Ру Электронное периодическое издание «Радонеж.ру» Свидетельство о регистрации от 12.02.2009 Эл № ФС 77-35297 выдано Федеральной службой по надзору в сфере связи и массовых коммуникаций. Копирование материалов сайта возможно только с указанием адреса источника 2016 © «Радонеж.ру» Адрес: 115326, г. Москва, ул. Пятницкая, д. 25 Тел.: (495) 772 79 61, тел./факс: (495) 959 44 45 E-mail: [email protected]

Дорогие братья и сестры, радио и газета «Радонеж» существуют исключительно благодаря вашей поддержке! Помощь

-
+