РАН: ИИ в финансах несет кибератаки, дискриминацию и хаос на рынках

РАН: ИИ в финансах несет кибератаки, дискриминацию и хаос на рынках

Искусственный интеллект прочно вошел в финансовый сектор, но вместе с возможностями принес и серьезные риски. Более 70% финансовых организаций уже активно используют нейросети в своей работе, однако Российская академия наук недавно выпустила тревожный доклад о главных угрозах, которые несет массовое внедрение ИИ в финансовую сферу. Это исследование показывает, что регуляторы и банки стоят перед критическим выбором: как получить выгоду от технологии, не подвергая риску финансовую стабильность.

Масштабы внедрения ИИ в финансах

Современный финансовый сектор уже не представляет себя без искусственного интеллекта. Нейросети используются в платежных системах, кредитном анализе, страховании и управлении активами. По оценкам McKinsey, мировой банковский сектор может получать от внедрения ИИ от 3% до 5% совокупной выручки отрасли ежегодно. Это огромные потенциальные прибыли, которые стимулируют банки и страховые компании активнее внедрять технологию. Однако за этими впечатляющими цифрами скрываются реальные угрозы, которые институты экономики РАН тщательно проанализировали. Доктор экономических наук Дмитрий Кочергин в своем исследовании "Основные направления использования искусственного интеллекта в финансовой сфере" выделил несколько критических рисков, которые требуют немедленного внимания регуляторов.

Кибератаки и уязвимость финансовых систем

Одна из главных угроз — резкий рост кибератак благодаря генеративному ИИ. Злоумышленники используют языковые модели для создания убедительных фишинговых писем, вредоносного программного обеспечения и захвата устройств. Это может привести к краже данных, вымогательству и масштабному мошенничеству. Особенно опасны атаки с отравлением данных — когда вредоносный код проникает в обучающие наборы данных. Злоумышленники целенаправленно вносят ошибки в модели, чтобы нарушить функционирование систем или изменить их поведение. Такие атаки сложнее обнаружить и предотвратить, чем традиционные кибератаки, так как они работают на уровне самого алгоритма. Финтех-компании уже столкнулись с этой проблемой на практике. По данным исследования российского финтех-сектора, более четверти участников опроса неоднократно сталкивались с инцидентами информационной безопасности, связанными с атаками на ИИ-системы. Это заставляет компании срочно перестраивать подходы к киберзащите.

Предвзятость алгоритмов и дискриминация

Серьезная проблема, которую выделяют в РАН, — предвзятость алгоритмов. Нейросети могут воспроизводить и усиливать искажения, присутствующие в исторических данных. Это приводит к дискриминации при кредитовании и страховании, ограничивая доступ уязвимых групп населения к финансовым услугам. Например, если модель обучена на данных, где определенные демографические группы исторически получали меньше кредитов, алгоритм будет воспроизводить эту предвзятость, причем часто в усиленном виде. Это не только этическая проблема, но и юридический риск для банков и страховых компаний, которые могут столкнуться с исками о дискриминации. Кроме того, склонность нейросетей к так называемым "галлюцинациям" — генерированию ложной информации, которая выглядит убедительно — повышает юридические риски. В финансовом секторе с его жесткими стандартами защиты данных такие ошибки могут иметь серьезные последствия.

Зависимость от ограниченного числа поставщиков

Один из наиболее тревожных рисков, выявленных исследованием, — синхронизация решений на рынке. Финансовые организации часто используют одни и те же языковые модели от ограниченного круга поставщиков. Это означает, что разные банки и инвестиционные компании могут одновременно принимать схожие решения — покупать или продавать одни и те же активы. Хотя это не является результатом сговора, эффект получается тем же: синхронизированное поведение искажает ценовые показатели и увеличивает волатильность на рынках. Такая волатильность создает условия для манипуляций и подрывает финансовую стабильность. В неблагоприятном сценарии это может привести к волне дефолтов и системному кризису.

Влияние на рынок труда и социальные последствия

Внедрение ИИ в финансовом секторе неизбежно влечет за собой сокращение персонала и перераспределение рабочей силы. Аналитики отмечают риск девальвации человеческого труда — работники, чьи функции берут на себя алгоритмы, теряют спрос на рынке труда. Это создает неравенство в зарплатах между специалистами, умеющими работать с ИИ, и теми, кто теряет квалификацию. Более того, небольшие финансовые игроки, не имеющие ресурсов для внедрения ИИ и найма соответствующих специалистов, будут вытеснены с рынка крупными корпорациями. Это усилит концентрацию рынка и снизит конкуренцию.

Как банки и регуляторы отвечают на вызовы

Финансовый сектор не остается в стороне от этих угроз. По данным последних опросов, 88% крупнейших финансовых компаний планируют в 2026 году внедрить программы обучения по безопасности ИИ. Три четверти компаний работают над формированием внутренних политик в этой сфере, 63% планируют интегрировать специализированные защитные инструменты, а 62% — проводить аудит и тестирование ИИ-систем. Эксперты подчеркивают, что ИИ требует принципиально иной архитектуры безопасности, которая объединяет классические механизмы киберзащиты, управление рисками и элементы этического регулирования. Традиционная модель угроз трансформируется, и финансовый сектор — как один из наиболее уязвимых — должен оперативно перестраивать свои подходы.

Практические шаги для снижения рисков

Эксперты рекомендуют несколько конкретных мер. Во-первых, необходимо внедрять системы мониторинга и аудита ИИ-систем в реальном времени. Во-вторых, обучение персонала должно включать не только техническую безопасность, но и понимание этических аспектов использования ИИ. В-третьих, финансовые организации должны диверсифицировать источники ИИ-решений, чтобы избежать чрезмерной зависимости от одного поставщика. В-четвертых, необходимо разработать механизмы контроля за предвзятостью алгоритмов, включая регулярные тесты на дискриминацию. Наконец, человеческий контроль должен оставаться неотъемлемой частью процесса принятия решений, особенно в критических областях, таких как кредитование и страхование. Быстрое распространение ИИ-решений требует осторожности и взвешенного подхода, который балансирует инновации с защитой финансовой системы и интересами потребителей.