Стремительное развитие целого семейства цифровых технологий, объединяемых понятием «искусственный интеллект» (ИИ), всё более смещается из теоретической – и тем более технологической – сферы в область этики. Конечно, перед учёными, инженерами и программистами стоят сложные задачи, особенно в том, что касается так называемого «сильного» ИИ, то есть способного не только выполнять отдельные функции мышления человека, но в значительной степени походить на него. Тем не менее практика внедрения уже имеющихся разработок, их использования как государствами и организациями, так и частными пользователями, физическими лицами, выявила целый спектр проблем этического характера. Причём их серьёзность и масштаб уже потребовали разработки этического регулирования ИИ на уровне государственной и межгосударственной политики, создав таким образом новую область международной конкуренции. Об этом свидетельствует факт принятия многими странами национальных стратегий и планов по развитию ИИ, в большинстве из которых имеются разделы по этическим принципам его разработки и использования.
Несмотря на регулярные международные, различного странового охвата мероприятия, посвящённые проблемам развития этих технологий, до сих пор их участники не смогли принять ни одного транснационального документа, который носил бы обязывающий характер. У этого сразу несколько причин.
Во-первых, в условиях роста конфликтности в современных международных отношениях практически любые ограничения исследований или внедрения новых технологий и техники могут повлечь за собой возникновение новых уязвимостей для государств. Тем более когда речь идёт об искусственном интеллекте, буквально завораживающе действующем на многие умы, включая политиков и военных, ввиду множащихся предложений и планов по его использованию. И многие из них носят не только откровенно футуристический характер, но уже имеют реальный военный потенциал (прежде всего, автономные боевые роботы, но также и разработки информационного оружия).
Во-вторых, технологии ИИ не только уже мало кому понятны, но и всё более разнообразны и трудно верифицируемы. Отсюда, кстати, более-менее продуктивное движение к, возможно, первому консенсусу в этой области – маркировке продуктов, созданных с использованием ИИ. Это, правда, вряд ли устранит первую вышеуказанную причину – хотя бы потому, что всё, что развивается в военных целях, стороны стараются хранить в тайне.
В-третьих, огромные усилия, инвестиции в развитие ИИ вкладывает бизнес. Его представители, начиная с крупнейших игроков технологического сектора, находятся между собой в жёсткой конкуренции, которая также может быть проиграна, как и конкуренция межстрановая. При этом в США именно предприниматели первыми обратились к своим властям ввиду необходимости государственного регулирования отрасли. Этот же аспект важен и для второй стороны любого бизнес-процесса – трудящихся. Изменения рынка труда уже начались, и всё более очевидно, что грядёт масштабная переквалификация кадров, а также и адаптация к ИИ всей образовательной системы. Наконец, быстро растёт внимание к использованию ИИ со стороны правозащитных организаций и обществ едва ли не всех стран ввиду таких рисков и угроз внедрения этих новых технологий, как создание и распространение ложной информации, недостоверных данных, в том числе в такой критической для жизни и здоровья человека области, как медицина, а также систем автоматического наблюдения и распознавания лиц и так далее. И это не говоря о потенциальном появлении сильного (общего) искусственного интеллекта, по поводу которого явно превалируют катастрофические сценарии.
В настоящее время лидерские позиции в области ИИ (кадры, вычислительные мощности, публикации в научных изданиях, уровень цифровизации экономики) занимают США, к которым по многим показателям приближается КНР. Важные разработки есть также у ЕС и России (которую в последние годы Запад старательно игнорирует). Однако этика оказывается вовсе не простой производной от технологической или экономической мощи государства, которое могло бы задавать тон регулированию ИИ на международной арене и навязывать свои соответствующие правила. Дело не только в том, что в условиях движения мира к многополярности всё большее количество игроков стремится к самостоятельным позициям по ключевым вопросам, включая этику. Так, с 2017 года Китай начал принятие документов, всесторонне регламентирующих развитие и внедрение ИИ в различных сферах. Первым из них стал «Искусственный интеллект нового поколения», содержащий более 80 целей, которые должны быть реализованы до 2030 года. В 2021 году появился «Этический кодекс ИИ нового поколения», формулирующий шесть принципов: повышение благосостояния человека, содействие справедливости, обеспечение безопасности, обеспечение управляемости и достоверности данных, обеспечение ответственности и повышение этической грамотности.
Процесс концептуализации регулирования искусственного интеллекта в Европейском союзе начался в 2018 году. Промежуточным его итогом можно считать одобренный депутатами Европарламента в декабре 2023 года Закон об искусственном интеллекте, согласование которого проходило сложно с учётом разноплановых интересов его участников, представляющих 27 государств.
Во всех китайских и европейских документах по ИИ присутствует раздел, посвящённый этике, в котором затрагиваются проблемы безопасности, доверия, транспарентности. При похожем, на первый взгляд, содержании более детальный анализ выявляет принципиальные различия, лежащие в плоскости ценностных подходов, доминирующих в КНР и ЕС. Среди отличительных особенностей европейских концепций можно выделить повышенное внимание к инклюзивности и недискриминации – вовлечение в развитие и внедрение ИИ большего количества женщин, людей различного происхождения, в том числе с ограниченными возможностями. Такой политизированный подход перекликается с практикуемым в США принципом «положительной дискриминации» и, помимо снижения квалификации кадрового состава, несёт в себе риски идеологически искажённых генерируемых данных.
Возникшая необходимость международного обсуждения этических аспектов ИИ, при том что для результатов переговоров по ядерным технологиям потребовались десятилетия, свидетельствует об их существенном отличии. Этика ИИ непосредственно затрагивает интересы протагонистов всех уровней – государств, обществ, бизнес- и иных организаций и индивидов. Специфика этих технологий, например машинного обучения, предполагает использование массивов баз данных, то есть того, что создано и постоянно создаётся людьми и загружено и постоянно добавляется в вычислительные системы. Это означает переход конкуренции в область этики и шире – в область ценностей и культуры в целом. Ведь на один и тот же вопрос, заданный системам с разными или по-разному отобранными данными, то есть вырабатываемыми в той или иной этической и культурной среде, системы выдают разные ответы. Кто займёт лидирующие позиции в этой конкуренции, покажет, возможно, уже ближайшее будущее.