В РАН предупредили о рисках для банков при использовании ИИ
В Российской академии наук назвали главные уязвимости при внедрении ИИ в финансы. Манипулирование рынками, рост кибератак, дискриминация заёмщиков и девальвация рабочей силы — вот основные угрозы. При этом более 70% банков и страховых компаний уже используют нейросети. Проблема в том, что они часто применяют одинаковые модели и данные. Из-за этого алгоритмы принимают схожие решения и двигают рынки в одном направлении. В результате игроки одновременно покупают или продают одни и те же активы, изменяют цены схожим образом. Фактически они действуют как единый скоординированный участник рынка. Формального сговора нет, но эффект для рынка — искажение цен, рост волатильности и риск манипуляции.
По оценке ЦБ, во втором полугодии 2025 года нейросети использовал каждый второй банк. В страховании ИИ внедрили более 80% компаний, среди профессиональных участников фондового рынка — свыше 70%.
В 2026 году ИИ работает в платежах, кредитном анализе, страховании и управлении активами. Технология повышает эффективность: снижает издержки, помогает выявлять мошенничество, улучшает клиентский сервис. По оценке McKinsey, только в банковском секторе ИИ может приносить 3–5% совокупной выручки отрасли ежегодно. Такие данные приводит доктор экономических наук Института экономики РАН Дмитрий Кочергин в статье об использовании искусственного интеллекта в финансовой сфере.
Но массовое внедрение нейросетей создаёт серьёзные риски. Усиливается угроза кибератак. Генеративные модели расширяют возможности злоумышленников по созданию фишинговых писем, вредоносного ПО и захвату устройств пользователей. Это ведёт к краже данных, вымогательству и мошенничеству.
Ещё одна угроза — атаки с отравлением данных. Злоумышленники вмешиваются в массивы, на которых обучаются языковые модели финансовых организаций. Цель — изменить поведение систем и нарушить их работу. Всё больше приложений используют данные, созданные самими моделями. Поэтому операционные риски для финансового сектора растут.
Отдельная проблема — предвзятость алгоритмов. Модели могут воспроизводить и усиливать искажения в данных. Это ведёт к дискриминации при страховании и кредитовании, ограничивает доступ уязвимых групп к финансовым услугам. Кроме того, в условиях жёстких стандартов защиты данных применение ИИ повышает юридические риски. Особенно из-за склонности нейросетей к «галлюцинациям».
Серьёзные угрозы связаны с зависимостью рынка от ограниченного круга поставщиков языковых моделей. Высокие затраты на разработку и концентрация данных приводят к олигополии: несколько компаний контролируют весь рынок. Любой сбой или атака на них создаёт риски для всех пользователей. При этом даже собственные банковские нейросети обычно основаны на одних и тех же технологиях и ведут себя схожим образом.
В позитивном сценарии при контролируемом внедрении ИИ способен повысить производительность, поддержать экономический рост и замедлить инфляцию. В негативном варианте — при спонтанной автоматизации — возможны девальвация рабочей силы, рост дефолтов, ускорение роста цен и снижение налоговых доходов. Эти факторы способны подорвать финансовую стабильность.