В РАН предупредили о рисках для банков при использовании ИИ

3 мин
24
1
23 января 2026

В Российской академии наук назвали главные уязвимости при внедрении ИИ в финансы. Манипулирование рынками, рост кибератак, дискриминация заёмщиков и девальвация рабочей силы — вот основные угрозы. При этом более 70% банков и страховых компаний уже используют нейросети. Проблема в том, что они часто применяют одинаковые модели и данные. Из-за этого алгоритмы принимают схожие решения и двигают рынки в одном направлении. В результате игроки одновременно покупают или продают одни и те же активы, изменяют цены схожим образом. Фактически они действуют как единый скоординированный участник рынка. Формального сговора нет, но эффект для рынка — искажение цен, рост волатильности и риск манипуляции.

По оценке ЦБ, во втором полугодии 2025 года нейросети использовал каждый второй банк. В страховании ИИ внедрили более 80% компаний, среди профессиональных участников фондового рынка — свыше 70%.

В 2026 году ИИ работает в платежах, кредитном анализе, страховании и управлении активами. Технология повышает эффективность: снижает издержки, помогает выявлять мошенничество, улучшает клиентский сервис. По оценке McKinsey, только в банковском секторе ИИ может приносить 3–5% совокупной выручки отрасли ежегодно. Такие данные приводит доктор экономических наук Института экономики РАН Дмитрий Кочергин в статье об использовании искусственного интеллекта в финансовой сфере.

Но массовое внедрение нейросетей создаёт серьёзные риски. Усиливается угроза кибератак. Генеративные модели расширяют возможности злоумышленников по созданию фишинговых писем, вредоносного ПО и захвату устройств пользователей. Это ведёт к краже данных, вымогательству и мошенничеству.

Ещё одна угроза — атаки с отравлением данных. Злоумышленники вмешиваются в массивы, на которых обучаются языковые модели финансовых организаций. Цель — изменить поведение систем и нарушить их работу. Всё больше приложений используют данные, созданные самими моделями. Поэтому операционные риски для финансового сектора растут.

Отдельная проблема — предвзятость алгоритмов. Модели могут воспроизводить и усиливать искажения в данных. Это ведёт к дискриминации при страховании и кредитовании, ограничивает доступ уязвимых групп к финансовым услугам. Кроме того, в условиях жёстких стандартов защиты данных применение ИИ повышает юридические риски. Особенно из-за склонности нейросетей к «галлюцинациям».

Серьёзные угрозы связаны с зависимостью рынка от ограниченного круга поставщиков языковых моделей. Высокие затраты на разработку и концентрация данных приводят к олигополии: несколько компаний контролируют весь рынок. Любой сбой или атака на них создаёт риски для всех пользователей. При этом даже собственные банковские нейросети обычно основаны на одних и тех же технологиях и ведут себя схожим образом.

В позитивном сценарии при контролируемом внедрении ИИ способен повысить производительность, поддержать экономический рост и замедлить инфляцию. В негативном варианте — при спонтанной автоматизации — возможны девальвация рабочей силы, рост дефолтов, ускорение роста цен и снижение налоговых доходов. Эти факторы способны подорвать финансовую стабильность.

Важное по теме
Новости
Читать 2 минуты
23.01.2026
Эксперты отмечают спад интенсивности атак, зато появились новые схемы обмана
Новости
Читать 2 минуты
23.01.2026
Исследователи зафиксировали критический рост успешных взломов
Новости
Читать 2 минуты
22.01.2026
Вредонос перехватывал пароли, номера карт и личную информацию
Оставьте комментарий
Доступно для авторизованных пользователей
1/1000