Инсинуации - стр. 101
Элис, как и многие в зале, удивлённо моргнула и недоверчиво уставилась на лениво покачивающего ногой Риверса. Тот помолчал, словно ожидал ответа, безотчётно скользнул кончиками пальцев свободной руки по идеально ощетинившемуся подбородку и, так и не услышав ни одного комментария, медленно поднялся, выпрямляясь во весь свой гигантский рост. И будто именно этого не хватало, чтобы публика впала в зыбкое оцепенение и окончательно погрузилась в атмосферу, которую мог создать только он. Мягкая вкрадчивость его голоса одурманивала.
– Судя по многозначительному молчанию, ответ – нет. Но с момента моего вопроса прошли десятки секунд, и вот уже появились единицы, кто может сказать о социальной и этической важности. Но что же остальные? А остальные кинулись упиваться инвестиционной значимостью каждого своего чиха. Верно?
Риверс прислонил руку к глазам, стараясь за безумным светом софитов разглядеть реакцию людей.
– Вы киваете, значит, я прав. Судите сами, мы создаём интеллект, который способен решать задачи без человеческого участия. Обучаем его, тренируем, иногда воспитываем. Вам это ничего не напоминает?
Профессор, который до этого медленно расхаживал перед аудиторией, остановился и сделал паузу, снова оглядев слушателей. Те хранили мёртвое молчание.
– Ожидаемо. – Он скептически усмехнулся, а потом устало выдохнул: – Это ребёнок. Ваше чадо, которое постепенно растёт, меняется и… становится мудрее. Однако вместе с этими переменами приходят и проблемы. Во-первых, машины становятся нашими конкурентами, сокращая изо дня в день необходимость в человеческих ресурсах. Во-вторых, наш опыт показывает – искусственный интеллект ещё более необъективен, чем человеческий. Он полностью зависит от того, чему мы его научим, и даже малейший сдвиг в балансе приведёт к тому, что на конкурсах красоты компьютер выберет исключительно белых участниц. Каков расист, верно? Но даже это ещё не всё. Есть последний, но важный момент – кто будет виноват в компьютерном сбое, когда он произойдёт? Кто понесёт ответственность, когда ваш искусственный разум решит запустить ядерные боеголовки только лишь потому, что в его алгоритмы заложена система защиты себя самого? Да, мы сделали это – наш код прекрасно определяет, как реагировать на события и реагировать ли вообще. Но можем ли мы предсказать его поступки? Нет. Однажды настанет момент, когда мы поймём, что хоть и создаём нейронную сеть, но не управляем ею. Границы ответственности стираются. Уже сейчас даже при самом невинном сбое нельзя сказать, кто виноват: пользователь, разработчик или тот, кто обучал…