Мы переходим от управления к созависимости, где машины уже не просто исполняют команды, а генерируют решения – то, что исторически никогда не было задачей техники. О рисках зависимости от искусственного интеллекта и перспективах технологического передела влияния в мире пишет Анна Сытник, доцент СПбГУ, генеральный директор АНО «Колаборатория». Материал подготовлен специально к Валдайскому круглому столу на тему «Человек растерянный: как перестать бояться и полюбить перемены».
Природа современных технологий искусственного интеллекта (ИИ) принципиально отличается от всех более ранних изобретений человека, так или иначе повлиявших на ход мировой истории – будь то колесо, порох, печатный станок или расщепление атома. ИИ – технология, которая затронет основу абсолютно всех сфер жизни человека. В этой связи близка параллель с электричеством. Когда-то оно стало невидимой, но критически важной инфраструктурой, и поныне лежащей в основе всего. Сегодня ИИ становится «новым электричеством» цифровой эпохи.
Алгоритмы уже идут с нами рука об руку. Рекомендательные системы на основе ИИ присутствуют в нашем смартфоне, при одобрении кредитов, в оптимизации маршрутов и постановке диагнозов в медицине – перечислять примеры можно долго. Невозможно назвать сферу общественной жизни, в которую не интегрированы решения на основе ИИ.
Ключевое отличие ИИ от электричества состоит в том, что электротехнологии не обладают когнитивной природой: они передают энергию, но не осмысляют информацию. В то время как передовые ИИ-системы, основанные на больших языковых моделях, оперируют значениями, интерпретациями и могут участвовать в процессах, ранее считавшихся исключительно человеческими – от анализа текста до принятия решений. Корректный перевод AI (Artificial Intelligence) – это не «искусственный интеллект», а «искусственная способность рассуждать разумно».
Человечество всегда грезило созданием себе подобных: от Гомункулуса в алхимических трактатах до Терминатора в научной фантастике. В ближайшие годы мы будем наблюдать кульминацию многотысячелетнего стремления человечества воссоздать самого себя. Последние достижения в области ИИ держатся на так называемой петле обратной связи от человека к машине (буквально – human-in-the-loop). Но если перевернуть инженерный принцип в культурно-философскую метафору, то уже всё больше сам человек – и шире, человечество – втягивается в петлю зависимости от ИИ.
Мы переходим от управления к созависимости, где машины уже не просто исполняют команды, а генерируют решения – то, что исторически никогда не было задачей техники. Создание и выбор решений всегда оставались прерогативой человеческого мышления, культуры и ответственности. Теперь же сама архитектура смысла и действия всё чаще формируется алгоритмами, выходя за рамки привычного технорационального контекста.
ИИ по своей природе – инструмент оптимизации. В силу математической структуры он стремится к нахождению единственно «правильного» решения, опираясь на массивы данных и на собственную способность к постоянному самообучению. Или, как выразился Генри Киссинджер, «AI knows only one purpose: to win» («ИИ знает только одну цель: победить»). Это придаёт системам ИИ квазисубъектность – способность не просто реагировать, но предвосхищать, создавать логику действия.
Однако, несмотря на риски зависимости, ИИ, вероятнее всего, останется всего лишь инструментом в руках человека. Перспектива появления так называемого AGI (Artificial General Intelligence) – «общего» (или «сильного») искусственного интеллекта, который способен полностью заменить человека, пока туманна. И хотя одни представители технологических корпораций в гонке за лидерство заигрывают с инвесторами, объявляя о том, что знают, как создать AGI, другие их коллеги – главы отделов по ИИ говорят, что такого понятия вообще не должно существовать – это утопия. Научное сообщество также не может пока дать чёткого ответа, каковы пределы развития ИИ, хотя и строит вполне успешные прогнозы на ближайшие годы.
Поэтому ИИ, хоть и проникнет во все сферы, не изменит логику глобальной конкуренции – он станет очередным инструментом в руках конфликтующих акторов. Но всепроникающим инструментом. Именно в этом заключается основной вызов данного этапа.
Понимание актуальных трендов в развитии ИИ позволит сохранить стратегическую осведомлённость в условиях нарастающей технологической зависимости мировой политики.
Контуры ближайших изменений уже прослеживаются. Следующим этапом после генеративного ИИ станут ИИ-агенты, автономные системы-помощники, в основе которых всё те же LLM. Разговоры о них громко звучат в этом году, но на деле это всего лишь надстройка. Следует смотреть за тем, куда движется сама модель развития. А она ведёт нас к следующему этапу – к роботам.
Для развития роботов нужна более сложная база – мультимодальные модели. Это ИИ-системы, которые могут воспринимать и обрабатывать сразу несколько типов информации: текст, изображение, звук, видео и даже физические сигналы. В отличие от обычных языковых моделей (LLM), которые работают только с текстом, мультимодальные умеют «смотреть», «слушать», «читать» и «понимать» одновременно. Роботов учат анатомии действия. Для их тренировки потребуются не только инженеры-теоретики, а эксперты с живым опытом: слесари, хирурги, водители, агрономы, логисты, военные. Люди, чьи руки и навыки станут основой будущих машин.
Два этапа технологического прогресса, между которыми мы находимся, существенно отличаются. Генеративный ИИ стал инструментом в руках людей, соприкасающихся с информацией. Роботы же будут помогать людям в той работе, где нужны физические действия. Сортировать товары на складах, готовить еду, ассистировать врачам, патрулировать и доставлять. Таким образом, ИИ окончательно проникнет во все сферы жизни человека.
Мы должны уже сейчас задаваться вопросом о структуре формирующейся технологической взаимозависимости в мире, а значит – будущего глобального политического ландшафта.
Во-первых, это касается природы самих ИИ-технологий: будут ли они построены на открытых решениях (опенсорс), доступных различным странам и компаниям и адаптируемых ими, или окажутся под контролем ограниченного круга держав и корпораций. Сейчас мы видим, как открытые модели с задержкой всего в несколько месяцев догоняют закрытые, воспроизводя их возможности в области, считавшейся ранее запредельно сложной для опенсорса.
Во-вторых, важен процесс коммодизации моделей, то есть превращения ИИ-систем из уникального конкурентного преимущества в стандартный легко масштабируемый и взаимозаменяемый продукт. Если базовые языковые модели станут столь же распространёнными и доступными, как сегодня браузеры или операционные системы, это резко изменит экономику ИИ: не компании-монополисты, а те, кто быстрее адаптирует модели под локальные задачи и контексты, получат преимущество.
В-третьих, рынок труда станет ключевым индикатором и полем борьбы. ИИ меняет требования к компетенциям, создавая спрос на новые формы креативной, инженерной и управленческой деятельности. Та страна (или тот регион), которая быстрее подготовит специалистов, способных не только пользоваться ИИ, но и проектировать его применение, получит долговременное преимущество.
Трансформация занятости неизбежна. До промышленной революции человек выбирал профессию раз и навсегда. С приходом индустриализации смена профессии стала возможной и даже необходимой. Теперь, в эпоху ИИ, эта динамика усиливается: смена профессий будет происходить всё чаще, а устойчивость к переменам станет ключевой компетенцией. Эксперты, освоившие новые инструменты, вероятно, будут ещё эффективнее, чем прежде. Это станет сдвигом, который откроет новые горизонты для тех, кто сумеет адаптироваться.
Возникает закономерный вопрос: что делать в условиях столь стремительных изменений?
Продолжение теоретических размышлений о технологиях без опоры на реальные вызовы, с которыми сталкиваются практики на «фронтах» ИИ, чревато уходом от насущных проблем по нескольким причинам.
Прежде всего, поскольку в последние два года в ходу технологии генеративного ИИ, многие эксперты сосредоточены на так называемой «национальности» ИИ, или же суверенности технологии с точки зрения генерируемой ею информации. Увлечённые этой проблемой деятели совершенно справедливо указывают на то, что наши ИИ-модели (типа ChatGPT в Америке, Deepseek в Китае, или GigaChat в России) должны выдавать информацию в соответствии с политикой и ценностями того или иного государства. Поэтому, по их мнению, самое важное, что мы должны сделать, это создать свои этические фильтры и суверенные датасеты на своём языке, которые сделают наши модели «правоверными» или хотя бы освободят их от излишней политической предвзятости.
Помимо того, что такие дополнительные настройки тормозят процесс развития больших языковых моделей, логическая ловушка, отвлекающая нас от сути проблемы, заключается в следующем: «LLM развиваются через язык (национальные датасеты/поисковики), а язык – это, как завещали конструктивисты, культура, идентичность, история. Значит, каждая крупная ИИ-модель – цифровое зеркало цивилизации, которая её породила. Поэтому, нам надо обучать модель так, чтобы она максимально отражала наши ценности». Это важно, но лидеры рынка разгорающегося противостояния стремятся не к этому.
Основная цель крупнейших разработчиков ИИ-моделей на данном этапе – получить как можно больше пользователей по всему миру, то есть создать универсальные для всего мира модели. То, каким ИИ-приложением пользуются люди для выполнения задач на русском языке – американским, китайским или российским, – на бытовом уровне определяется удобством, а не идеологией. Логика рынка порой побуждает китайцев пользоваться американским ChatGPT, поскольку пока он лучше по некоторым характеристикам. А статистика запретов на Deepseek в мире отнюдь не отразилось на популярности китайского приложения. Люди пользуются «китайским цифровым зеркалом», потому что оно простое и удобное в использовании.
Участники второго направления дискуссии об ИИ занимают несколько иную позицию, утверждая, что ИИ – это хайп, а прогнозы о стремительности его внедрения сильно переоценены. Популярная позиция такова: вокруг слишком много шума, ИИ будет внедряться медленно, мы успеем адаптироваться. Их аргументация тоже не лишена смысла. По большей части это связано с рисками потери рабочих мест. К примеру, в Китае, ситуация сейчас не располагает к повсеместной замене человеческого труда на машинный. Это чревато безработицей и вытекающими из неё социальными проблемами. Развивается регулирование, особенно в таких странах как ЕС и Япония, которое сдерживает развитие ИИ. Все государства в целом согласны насчёт необходимости безопасного внедрения ИИ и его ответственного использования. Есть страны и регионы, которые борются сейчас с вызовами другого характера – уровень экономического и социального развития не позволяет им уделить внимание технологической сфере.
Однако в этой гонке никто не будет ждать отстающих. Стоит обратить внимание не столько на темпы внедрения ИИ по всему миру, сколько на растущее частно-государственное партнёрство в таких сферах, как развитие критической инфраструктуры, военная сфера и госуправление. Ведущие государства и ИТ-гиганты совместно занимаются активным внедрением новейших технологий ИИ. Бесполезно успокаивать себя аргументом о том, что у нас в запасе много времени. Отставание накапливается, и чем дольше тянуть, тем сложнее будет нагонять.
Можно спорить о временной перспективе повсеместного внедрения ИИ – пять лет, пятнадцать или даже пятьдесят. Но давайте вспомним, что ещё три года назад мало кто понимал, что такое генеративный ИИ. Да, роботы пребывают в зачаточном состоянии, но они развиваются.
И наконец, третье направление – самое опасное: «Чужие технологии доступны, так зачем нам вступать в заведомо проигрышную гонку». Довольно распространённая идея среди стран мирового большинства. Её сторонники считают, что следует занять свою устойчивую нишу, а не подрывать экономику непосильными инвестициями в сферу ИИ. Это подразумевает создание собственных решений на более слабых моделях, к примеру малых узкоспециализированных или больших, но обученных на иностранных LLM. Это направление, по сути, включает в себя первое, но не сосредоточено только на национальности. Многочисленные практичные технооптимисты объясняют, что мы можем пользоваться чужими технологиями и создавать на их базе конкурентоспособных ИИ-агентов, так что всё нормально. Это мнение особенно распространено в странах, где отсутствуют собственные прорывные ИИ-разработки. Это неудивительно, такую же позицию эти державы занимали по ядерным технологиям. Но слышать их в России, для которой вопрос обладания ядерными технологиями был критически важным с точки зрения выживания в прошлом веке, по меньшей мере странно.
Текущий этап развития ИИ в мире характеризуется тем, что технологиями делятся. Но это делают не по доброте душевной, а для захвата данных, рынков, наконец, для дообучения самих моделей. Но так будет не всегда. Накопление данных закончится, а конфронтация – нет. Именно поэтому суть суверенных технологий не в суверенных надстройках, а в инфраструктуре, железе, мозгах и постоянном ударном развитии. Когда дело дойдёт до реального технологического передела влияния в мире, никто не будет просто так делиться своим «ядерным оружием».
Суверенных технологий не достичь с помощью национализации, стратегии осторожного внедрения и постоянной опоры на чужие решения. Это всё лишь небольшие составляющие потенциального успеха. Прорыв в ИИ зависит целиком и полностью от людей и от организации процесса. На всех уровнях развития технологии.