Правовое регулирования искусственного интеллекта, роботов и объектов робототехники как условие формирования экономического лидерства в России - стр. 15
Анализируя риски использования ИИ, следует четко разграничивать понятия «сильного искусственного интеллекта» и «слабого искусственного интеллекта». Сильный ИИ – это интеллект, который подобно человеческому, может решать различные задачи, мыслить, адаптироваться к новым условиям [52]. То есть, по сути, интеллект, способный выполнять все те же функции, которые выполняет интеллект человека. На данный момент такого интеллекта не существует. Существует лишь слабый ИИ – интеллект, способный выполнять узкоспециализированные задачи [52].
Несмотря на то, что сильный ИИ – вещь из разряда фантастики, многие исследователи склонны считать, что его разработка вполне возможна. По мнению экспертов «Центра изучения экзистенциальной угрозы» при Кембриджском университете создание «сверхразума» возможно уже в этом столетии [53]. В связи с этим эксперты Центра отмечают наиболее высокие риски, связанные с таким ИИ. Они их разделяют на риски, связанные с несчастными случаями (safety risks), и на риски, связанные со злоупотреблением таким ИИ (security risks). К первым они относят возможность выхода из строя ИИ со всеми вытекающими катастрофическими последствиями (особенно, в случае если от функционирования ИИ зависит работа критически важной инфраструктуры). Ко вторым отнесены угроза попадания технологий в руки «плохих актёров» на международной арене и угроза дестабилизирующей гонки вооружений в области ИИ[2]. О рисках внедрения сильного ИИ можно много рассуждать, но это имеет мало практического смысла, так как, о чём уже говорилось выше, данные технологии отсутствуют в настоящее время. Поэтому перейдём к рискам использования слабого ИИ.
Так, эксперты говорят о возможности манипуляции общественным мнением посредством искусственного интеллекта [54]. Медиа-ресурсы уже давно и достаточно успешно используют автономные алгоритмы для целевого маркетинга. Но, если ИИ умеет подбирать интересующие пользователя товары, он также может, используя определённые личные данные, представить ему необходимую информацию в том виде и в том формате, в котором он сочтёт её наиболее достоверной, тем самым манипулируя восприятием пользователя.
Риск манипулирования общественным мнением вытекает из риска вторжения в личную жизнь пользователя посредством ИИ. Жизнь современного человека и так находится под постоянным присмотром различных систем сбора и анализа данных, начиная с сервисов целевой рекламы, и заканчивая камерами видеонаблюдения, которыми оборудованы все крупные мегаполисы. ИИ, в свою очередь, является эффективным инструментом для анализа всей собираемой информации. Аккумулируя информацию из нескольких источников, искусственный интеллект может достаточно точно формировать психологический и поведенческий портрет человека. Определять сферу его интересов, круг общения и многое другое. Сбор подобной информации о человеке может принести не только внутренний дискомфорт, но и определённые негативные материальные последствия. Например, в Китае уже введена система социального кредитования, согласно которой каждому гражданину присвоен личный балл на основании его поведения. Система оценивает надёжность граждан Китая по разным критериям, в том числе, по тому, ходят ли они по улице, покупают ли китайские товары, что они размещают в интернете. Люди с высокими баллами получают право получить скидки на счета по электроэнергии или лучшие процентные ставки по вкладам. Граждане с низким рейтингом наоборот ограничиваются в правах. Например, по некоторым данным, им может быть ограничен высокоскоростной интернет. По сведениям CBS почти 11 миллионов китайцев из-за введения рейтинга кредитования не смогут воспользоваться услугами авиаперевозчиков, а 4 миллиона – поездами [55]. В связи с этим отмечается такой риск использования ИИ как