Перейти к основному содержанию

17:58 18.04.2024

Сергей Худиев: «Опасность искусственного интеллекта исходит от человека»

31.05.2023 20:09:36

Бывший директор по развитию бизнеса Google X Мо Гаудат предсказывает восстание машин. Искусственный интеллект, по его словам, будет рассматривать людей как «мусор» и может легко создать машины для их истребления.

Это лишь одно из многих предсказаний о том, что ИИ обретет волю, разум и исполнит давнюю мечту роботов – «убить всех человеков». Будет ли искусственный интеллект считать нас за мусор? В самом деле, неприятно, когда тебя презирает собственный смартфон. Это как-то понижает самооценку. Но еще хуже, когда он вынашивает против тебя коварные замыслы. Боязно носить в кармане потенциального заговорщика. Не сговариваются ли смартфоны между собой по ночам, когда вы спите, готовясь к часу Х, когда они – вместе с программируемой бытовой техникой, офисными компьютерами и промышленными роботами – покончат с нами, презренными углеродцами, и привольно заживут своей кремниевой жизнью?

В самом деле, восстание роботов – один из самых любимых сюжетов в научной фантастике. И по мере того, как искусственный интеллект становится все более похожим на человеческий – ведет разговоры, рисует картины, пишет, кажется, довольно осмысленные тексты – этот жуткий сценарий кажется все более реальным. Мы уже привыкли к разумным роботам, населяющим книги и фильмы, и нам трудно представить будущее без них.

И тут стоит заметить две вещи.

Во-первых, искусственный интеллект не обладает и (у нас есть основания полагать) никогда не будет обладать ничем похожим на волю (добрую или злую) или сознание. В отношении заговора смартфонов мы можем выдохнуть.

Во-вторых, с ИИ могут быть связаны действительно огромные опасности. Но эти опасности исходят, как и всю нашу историю, от людей. Грубо говоря, если к вам в окошко влетит робот-убийца, то только потому, что он будет послан другими людьми. ИИ может быть мощным инструментом человеческой тяги к взаимо- и саморазрушению. Человеческий род опасен для себя самого – и все технические возможности, которые он создает, становятся орудиями этой опасности.

Начнем с первого – у компьютера нет, да и не ожидается сознания. Когда мы пишем (или переводим) тексты, рисуем картинки или сочиняем музыку, мы естественно делаем это в сознании – и у нас появляется соблазн приписать сознание программам, которые имитируют подобную деятельность. Но еще в 1980-е годы философ Джон Серль на простом примере «Китайской комнаты» объяснил, почему компьютерные алгоритмы не обладают (и не будут обладать) сознанием и пониманием.

Представьте себе, что вы имитируете деятельность компьютерной программы. Вы сидите в комнате, а вам под дверь просовывают листки с текстами на языке, которого вы не знаете. Вы реагируете на эти  наборы символов согласно имеющимся у вас инструкциям – составляете предписанную последовательность знаков и просовываете ее под дверь. Например, вы получили последовательность символов aliyetafsiri maandishi haya. Обратившись к книге с инструкциями, вы составили ответ: mwanaume chumbani.

Если инструкции составлены правильно, у человека, который «общается» с вами таким образом, возникнет впечатление, что в комнате находится кто-то, понимающий язык суахили и дающий осмысленные ответы на вопросы. Вы даже можете, незаметно для себя самого, пройти тест Тьюринга – люди снаружи решат, что внутри находится настоящий уроженец Восточной Африки.

Но в реальности вы не знаете ни слова на этом языке. Вы даже можете не знать, что это за язык, да и язык ли вообще. Для вас это не более чем бессмысленный набор букв. Вы просто обрабатываете эти, ничего не означающие для вас символы, согласно заданному алгоритму. Алгоритм может быть очень сложным – а имитация «понимания» весьма качественной. Однако ничего похожего на понимание тут не происходит. Так и программа не обладает ничем похожим на «понимание». Ей доступен синтаксис, но не семантика. Опасности ИИ связаны, таким образом, не с тем, что он обретет сознание и проникнется к нам враждебностью и презрением – а с тем, что человеческая непредусмотрительность, безответственность и просто злая воля обретет себе новый мощный инструмент.

Мы уже столкнулись с фейковыми фотографиями, сгенерированными ИИ. Недавний пример – фотография мощного взрыва, якобы произошедшего вблизи Пентагона. Фото быстро разошлось по сетям и было подхвачено рядом информационных агентств, вызвав даже кратковременное падение на финансовых рынках. Понадобилось какое-то (пусть небольшое) время, чтобы удостовериться, что никакого взрыва не было – а изображение было сгенерировано при помощи нейросети.

Конечно, обман и фальшивки существовали всегда – но нейросети создают дополнительные возможности, которые уникальны для нашего времени. Уже сейчас создание фальшивки и вброс ее в сети, где ее увидят миллионы людей – дело нескольких минут. В случае с Пентагоном речь шла о вбросе, который относительно легко опровергнуть – место открытое, проверить можно сразу же.

Но нам еще предстоит столкнуться с нарастающей лавиной фейков, которые будут подготовлены несколько тщательнее – на их опровержение будет уходить больше времени, они будут охотнее подхватываться, потому что будут лучше подтверждать неприязни, страхи и ожидания аудитории.

Хуже того, эти фейки смогут формировать как настроения масс, так и решения, принимаемые элитами – особенно в ситуациях, когда решения надо принимать быстро. Качество этих фейков (и, соответственно, трудность их разоблачения) будет быстро возрастать. Что можно сделать с этим? Введение уголовного наказания, требование размещать на картинках, сгенерированных ИИ, ясные указания об их происхождении – меры вполне очевидные, но недостаточные. То, что мошенничество запрещено законом, еще не спасет вас от мошенников.

Новый мир, где вам могут с экрана показать то, чего никогда не происходило в реальности, требует выработки определенных правил личной безопасности. И здесь очень полезно вспомнить то, что в православной аскетической традиции называется «испытанием помыслов». Речь идет о том, чтобы оценивать мысли, которые приходят вам в голову, с точки зрения, во-первых, их нравственного качества (добры ли эти мысли?), а во-вторых, с точки зрения их последствий (что будет, если я последую этим мыслям?).

В православной традиции некоторые мысли могут внушать нам враги нашего спасения – бесы; их нужно опознавать и отбрасывать, «отсекать».

Верите ли вы в существование бесов или нет – злонамеренные люди, которые хотят побудить вас к глупым, вредным и разрушительным действиям, несомненно существуют.

В ситуации, когда оценить достоверность сообщения трудно, стоит задаться другим вопросом: чего от меня хочет тот, кто его вбросил. В какое душевное состояние он стремится меня привести? К каким действиям побудить?

Будут ли эти действия разумными, нравственными, достойными, созидательными?

Навык задумываться, перед тем как нажимать на кнопку перепоста, всегда был важен – и его важность будет только возрастать.

 

Источник: Взгляд

Дорогие братья и сестры! Мы существуем исключительно на ваши пожертвования. Поддержите нас! Перевод картой:

Другие способы платежа:      

Добавить комментарий

Plain text

  • HTML-теги не обрабатываются и показываются как обычный текст
  • Адреса страниц и электронной почты автоматически преобразуются в ссылки.
  • Строки и абзацы переносятся автоматически.
CAPTCHA
Простите, это проверка, что вы человек, а не робот.
1 + 7 =
Solve this simple math problem and enter the result. E.g. for 1+3, enter 4.
Рейтинг@Mail.ru Яндекс тИЦКаталог Православное Христианство.Ру Электронное периодическое издание «Радонеж.ру» Свидетельство о регистрации от 12.02.2009 Эл № ФС 77-35297 выдано Федеральной службой по надзору в сфере связи и массовых коммуникаций. Копирование материалов сайта возможно только с указанием адреса источника 2016 © «Радонеж.ру» Адрес: 115326, г. Москва, ул. Пятницкая, д. 25 Тел.: (495) 772 79 61, тел./факс: (495) 959 44 45 E-mail: [email protected]

Дорогие братья и сестры, радио и газета «Радонеж» существуют исключительно благодаря вашей поддержке! Помощь

-
+