OK: Move tools map after training data OK: Move glossary after GenAI process OK: Move §5 transition before glossary (after DL Q) AI в работе – Занятие 1
Программа курса · Занятие 1

AI в работе: возможности, ограничения и принципы использования

Программа
01 / 79
Содержание

Четыре вопроса, на которые сегодня ответим

01
Как это работает?
Устройство модели и почему она ошибается даже на простых задачах.
02
Где помогает, где создаёт риски?
Карта применимости в работе банка: для каких задач AI годится, для каких – нет.
03
Какими принципами пользоваться?
Пять рабочих правил для повседневной работы с AI.
04
Где мы сейчас?
Я и AI: где мы? – как каждый из нас уже использует AI и где собирается дальше.
Программа
02 / 79
Маршрут

Содержание

Восемь разделов. Сначала – что такое AI и какие у него направления. Потом – где он работает на практике, где ошибается, и как с ним обращаться без потерь.

1
Что такое ИИ
Слои технологий: AI ⊃ ML ⊃ Deep Learning ⊃ Generative AI
2
Чем отличаются направления
Classical ML vs Deep Learning vs Generative AI на одной таблице
3
Три направления AI по отдельности
Classical ML, Deep Learning, Generative AI – как работают и где применяются
4
Где AI помогает в бизнесе
Реальные кейсы с измеримым эффектом
5
Где бесполезен и риски
Где не помогает, где опасен, и каких мифов стоит избегать
6
Роль человека
Кто отвечает за ошибку AI и где заканчивается зона его ответственности
7
Принципы работы
Пять рабочих правил для повседневной работы с AI
8
Я и AI: где мы?
Фиксируем текущий уровень взаимодействия с AI: что уже в работе, что остаётся барьером
03 / 79
Раздел 1 из 8

Что такое ИИ

Сначала разберёмся, что вообще скрывается за этим словом.

04 / 79
Опенер раздела

Что мы называем «искусственным интеллектом»

За одним термином – несколько вложенных слоёв. Generative AI, про который много говорят сегодня, – самый узкий и самый молодой из них.

AI Machine Learning Deep Learning Generative AI / LLMs
AI
Любые системы, имитирующие интеллектуальное поведение. Очень широкая категория.
Machine Learning
Системы, обучающиеся на данных. Сюда входят антифрод, скоринг, рекомендательные системы.
Deep Learning
ML на нейронных сетях с большим числом слоёв. Биометрия, распознавание речи.
Generative AI / LLMs
Подкласс Deep Learning, обученный генерировать текст, изображения, код. ChatGPT, Claude, Midjourney.
Что такое AI
05 / 79
Раздел 2 из 8

Сравним три направления AI

Classical ML, Deep Learning и Generative AI – чем они отличаются друг от друга, и почему это важно понимать.

AI Machine Learning Deep Learning Generative AI / LLMs
Из слайда 5
06 / 79
Раздел 1 – Где встречаются на практике

Те же слои – на конкретных системах в компаниях

Антифрод – это Machine Learning. Биометрия – Deep Learning. ChatGPT – Generative AI. Все три встречаются ежедневно, все три называют 'AI'. При этом устроены по-разному. Возьмём пример банковского сектора.

ML
Антифрод-системы
отслеживают подозрительные транзакции
CV
Биометрия в приложении банка
узнают клиента по лицу или голосу
GenAI
ChatGPT, Claude, Gemini
отвечают на вопросы и пишут тексты
Что такое AI
07 / 79
Раздел 2 – Сравнение

В чём разница между Classical ML, Deep Learning и GenAI

Все три встречаются в банке. Но решают разные задачи, по-разному учатся и по-разному ошибаются. Самое важное – в одной таблице.

Classical ML скоринг, антифрод, churn
Deep Learning OCR, распознавание речи, BERT
Generative AI ChatGPT, Claude, Midjourney
Задача
Одна, узкая
Узкая, но «сырая» (фото, голос, текст)
Универсальная
Данные обучения
Размечены банком (таблицы)
Размеченные изображения / аудио / тексты
Публичный интернет
Тип ответа
Категория или число
Текст / категория / структурированные поля
Текст любой длины, изображение
Точность
Измеряется и валидируется
Измеряется, но падает на edge-cases
Сложно валидировать
Поведение
Предсказуемо
Стабильно на типовых, хрупко на новых
Вариативно
08 / 79
Раздел 3 из 8 · часть 1 из 3

Classical ML

Узкие задачи, размеченные данные, измеримая точность.

09 / 79
Раздел 1 – Классический AI

Как работает классический AI: пример антифрода

Узкая задача. Размеченные данные. Бинарный ответ.

сумма
получатель
время
локация
Поток транзакций – каждая со своими признаками
Обученный классификатор
Обучен на исторических размеченных данных банка
Норма
Подозрение
Решение по каждой транзакции
Пропустить
Заблокировать → проверка
Действие
Одна задача. Один тип ответа. Точность измерима. Поведение предсказуемо.
10 / 79
#1 Пример – Антифрод в банке
Раздел 3 – Антифрод по шагам

Антифрод одной картинкой

Это «детектор», который просмотрел миллионы прошлых транзакций и запомнил, какие из них странные. Каждую новую сравнивает с этим опытом.

💳Кофе, 350 ₽, 9 утра
💳Магазин, 4 200 ₽
💳Бензин, 3 100 ₽
⚠️120 000 ₽ в Турции, 03:42
💳Аптека, 850 ₽
Поток транзакций
тысячи в секунду со всех клиентов банка
Детектор
помнит миллионы прошлых случаев и сравнивает каждую новую
Норма
пропустить молча
Подозрение
заблокировать,
позвонить клиенту
Решение за миллисекунды
для каждой транзакции отдельно
Никто не писал правило «120 000 ночью в Турции = подозрение». Детектор сам это «выучил», просмотрев миллионы случаев. Когда мы говорим «ML учится на данных» – это ровно про это.
11 / 79
#2 Пример – Модель оттока (Churn) в банке
Раздел 3 – Глубокий пример

Как работает модель оттока: от данных клиента до действия

Разбираем по шагам. Так работает любая классическая ML-модель: данные → модель → score → действие.

Шаг 1 · Вход
Данные клиента
Стаж в банке3,2 года
Активные продукты2 из 5
Транзакций / мес↓ 18 → 4
Баланс трендом↓ 41%
Обращений в КЦ2 за месяц
Логин в приложение14 дней назад
~80 признаков всего
Шаг 2 · Модель
Обученный
классификатор
обучен на сотнях тысяч
ушедших и оставшихся
Шаг 3 · Score
Вероятность оттока
87%
0%100%
высокий риск
Шаг 4 · Действие
Удержание
Звонок персонального менеджера
Персональное предложение по ставке
Push с напоминанием выгоды
приоритет в очереди
retention-команды
Вся логика – обучена, не написана. Никто не программировал «если транзакций меньше 5 → отток». Модель сама нашла такие паттерны в исторических данных. То же самое для антифрода, скоринга, soft collection.
12 / 79
Опенер раздела

Где Classical ML уже работает в компаниях

Узкие задачи, размеченные данные, измеримая точность. Возьмём пример банковского сектора – ML-системы давно встроены в работу банка.

01
Антифрод
Каждая транзакция сравнивается с миллионами прошлых. Подозрительные блокируются за миллисекунды.
02
Кредитный скоринг
Оценка вероятности дефолта по сотням признаков клиента. Решение по заявке за секунды.
03
Soft Collection
Прогноз – кто из просрочников вернётся в график без активного взыскания. Экономит звонки и людей.
04
Churn-модели
Предсказание оттока клиентов до его наступления – чтобы успеть удержать акцией или контактом.
13 / 79
Раздел 3 – Бизнес-эффект

Что Classical ML даёт бизнесу в цифрах

«Уже работает» – мало. Важно, какой эффект это даёт. Типовые показатели по индустрии для четырёх ML-направлений из предыдущего слайда.

01
Антифрод
−40 до −70% убытков от мошенничества. Каждая транзакция проверяется автоматически за миллисекунды – человек физически столько не успеет.
02
Кредитный скоринг
−15 до −30% просрочки в портфеле при том же объёме выдачи. Решение по заявке за 30 секунд вместо часов ручного андеррайтинга.
03
Soft Collection
−25 до −40% расходов на колл-центр взыскания. Система звонит только тем, кто реально не вернётся в график без контакта.
04
Churn-модели
+10 до +20% к удержанию клиентов в highest-risk сегменте. Удерживать дешевле, чем привлекать заново – ROI окупается за 2-3 квартала.
Цифры – типовые диапазоны по открытым кейсам банков. Конкретный эффект зависит от качества данных, портфеля и зрелости процессов.
14 / 79
Раздел 3 – Риски

Где Classical ML может ошибаться и навредить

Зрелая технология не значит «бесконфликтная». Вот четыре места, где даже точная модель приводит к плохим бизнес-решениям.

01
Данные устаревают
Модель училась на прошлом. Поведение клиентов после ставки ЦБ или санкций не похоже на то, что было до – модель этого не знает.
02
Edge cases
Для редких случаев – VIP-клиенты, нестандартные продукты – обучающих примеров мало. Точность падает именно там, где цена ошибки выше.
03
Чёрный ящик
Модель отказала клиенту в кредите – но не объясняет почему. Регулятор и клиент имеют право на объяснение, которого у модели нет.
04
Унаследованный bias
Если в исторических решениях были смещения по полу/возрасту/региону, модель их закрепляет и масштабирует. Это уже регуляторный риск.
15 / 79
Вопрос аудитории

А у вас уже был такой опыт с ML-моделями?

2 минуты на короткий обмен. Скоринг, антифрод, churn – где сталкивались.
01 Где у вас в жизни уже работают классические ML-модели?
02 Был ли случай, когда модель явно ошиблась – и как заметили?
03 Что в текущих моделях вызывает наибольшую тревогу?
16 / 79
Раздел 3 · часть 2 из 3

Deep Learning

Подкласс ML на нейросетях. Распознаёт лица, голос, текст в документах.

17 / 79
Опенер раздела

Что добавляет Deep Learning поверх классического ML

Тот же принцип «учиться на данных» – но с большим количеством слоёв. Каждый следующий слой строит более сложное обобщение из предыдущих.

Classical ML
Deep Learning
Человек выбирает признаки
Аналитик решает: для скоринга кредита – возраст, доход, история. Модель учится взвешивать эти заранее заданные признаки.
Подходит для табличных данных: транзакции, клиенты, продукты.
Модель сама находит признаки
На вход – «сырое» изображение, аудио или текст. Каждый из десятков слоёв нейросети обнаруживает свой уровень закономерностей: от пятен на картинке до концепций.
Подходит для документов, голоса, лиц, естественного языка.
18 / 79
Раздел 4 – Что используется в компаниях

Основные DL-технологии, которые используются в компаниях

Каждая делает свою узкую работу. Часто комбинируются друг с другом и с GenAI в одну систему.

01
OCR
Optical Character Recognition. Извлечение текста из изображений документов: паспорт, справка, договор, выписка.
02
ASR
Automatic Speech Recognition. Распознавание речи в текст. Основа речевой аналитики, голосовых ботов, IVR.
03
TTS
Text-to-Speech. Синтез голоса из текста. Голос ассистента в приложении, автоматические уведомления по телефону.
04
BERT и аналоги
Глубокое понимание смысла текста. Классификация обращений, поиск по внутренней базе, извлечение фактов из длинных документов.
19 / 79
Раздел 4 – Реальный пример

Пример DL модели – OCR: документ валютного контроля

Тысячи документов в день – раньше каждое поле вводилось руками. Сейчас OCR извлекает поля автоматически, человек только подтверждает спорные места.

Шаг 1
Скан документа
SWIFT MT103
PDF / фото / скан
DL модель
находит поля
Шаг 2
Нейросеть размечает
области с текстом
SWIFT MT103
распознаёт пиксели → текст
Поля попадают
в систему
Шаг 3
Структурированные
поля
СуммаUSD 47 250.00
БенефициарXYZ TRADING LTD
СтранаSG
НазначениеCONSULTING SVC
Код ВО21100
Дата14.11.2024
готово к проверке человеком
Время одной операции – с 15 минут ручного ввода до 30 секунд проверки. Дальше – на основе этих полей: проверка санкционных списков, валютной позиции, классификация ВО.
20 / 79
Раздел 4 – Применение

Где это уже работает на практике

Часто DL – это «незаметная» часть процесса. Клиент не видит, что в форму онбординга встроено OCR, а в колл-центре – ASR. Без них процесс был бы в разы медленнее. Возьмём пример банковского сектора.

OCR
Валютный контроль и онбординг МСБ
Документы валютной операции, учредительные документы, выписки из ЕГРЮЛ – раньше вводились руками. Сейчас OCR извлекает поля автоматически, человек только подтверждает спорные места. Время операции сокращается с часов до минут.
ASR + BERT
Колл-центр и речевая аналитика
Каждый звонок расшифровывается в текст, классификатор определяет тему и тональность. Покрытие 100% звонков для QA вместо ручной выборки 3–5%. На том же стеке – голосовой бот, который снимает простые обращения без оператора.
BERT
Поиск по внутренним документам
Сотрудник пишет вопрос на естественном языке – система находит релевантный пункт в политиках, регламентах, продуктовых справочниках. Альтернатива бесконечному копанию в SharePoint.
21 / 79
Раздел 4 – Бизнес-эффект

Что Deep Learning даёт бизнесу в цифрах

«Уже работает» – мало. Важно, какой эффект это даёт. Типовые показатели по индустрии для трёх DL-внедрений из предыдущего слайда.

01
OCR валютного контроля
−85 до −95% времени на ввод полей. С 15 минут ручной обработки одной операции до 30 секунд проверки. Освобождённые сотрудники переключаются на сложные кейсы.
02
Речевая аналитика колл-центра
100% покрытие звонков по compliance вместо 3-5% при ручной выборке. −8 до −15% AHT. +5 до +10% к конверсии outbound.
03
Поиск по внутренним документам
−60 до −80% времени на поиск ответа в политиках и регламентах. Сотрудник получает ответ за секунды, а не за полчаса копания в SharePoint.
Цифры – типовые диапазоны по открытым кейсам. Конкретный эффект зависит от качества данных на входе и того, насколько процесс реально перестроен под автоматизацию.
22 / 79
Раздел 4 – Риски

Где Deep Learning может ошибаться

DL устойчивее на типовых случаях и более хрупок на нетиповых. Большинство сбоев – на стыке с физическим миром: плохое фото, шум, акцент.

01
Качество входа
OCR теряет данные на размытых сканах, фотографиях с наклоном, плохом освещении. ASR – на акцентах и шуме. Сбой на входе тащится по всей цепочке.
02
Узкая лексика
Если модель не доучена на банковских терминах – «непокрытый аккредитив» расшифруется как «не покрытый аккредитив». Семантика искажается.
03
Чёрный ящик глубже
У классической ML хотя бы можно посмотреть веса признаков. У DL – десятки слоёв, и понять «почему модель так решила» в общем случае невозможно.
04
Дрейф со временем
Документы меняют формат, акценты в речи смещаются, появляются новые продукты. Модель не адаптируется сама – её надо переобучать. Без процесса – деградация молча.
23 / 79
Вопрос аудитории

А у вас уже был такой опыт с DL-системами?

2 минуты на короткий обмен. OCR, голосовые системы, поиск по документам – где сталкивались.
01 Где у вас уже работают OCR / ASR / поиск по документам?
02 Был ли сбой, который ушёл в работу следующих систем?
03 Где DL принёс больше всего пользы – а где ожидания не оправдались?
24 / 79
Раздел 3 · часть 3 из 3

Generative AI

Та самая технология, про которую сейчас все говорят. Самая молодая и самая нестабильная.

25 / 79
Раздел 1 – Generative AI

Как работает Generative AI

Универсальная задача. Публичные данные. Текст за текстом.

«Напиши письмо клиенту…»
Один запрос на естественном языке
LLM (например, GPT-4)
Обучен на больших публичных корпусах текста
Уважаемый Иван Иванович ,
каждое слово – отдельное предсказание
Готовый текст
Множество задач. Вариативные ответы. Точность не всегда измерима. Поведение нестабильно.
Что такое AI
26 / 79
Перед стартом раздела 2

Несколько слов, которые понадобятся дальше

Это не словарь и не зачёт – просто чтобы дальше не приходилось останавливаться и пояснять термин на ходу.

LLM
Large Language Model · большая языковая модель
Модель, обученная предсказывать следующий кусок текста. ChatGPT, Claude, Gemini, GigaChat – всё это LLM.
Токен
единица обработки
«Кусок текста», которым оперирует модель. Чаще всего – слово или его часть. Не отдельные буквы – об этом ещё будет важный пример.
Промпт
prompt · запрос
То, что мы пишем модели. Может быть вопросом, инструкцией, фрагментом текста для продолжения. От качества промпта напрямую зависит качество ответа.
Галлюцинация
основной источник риска
Уверенный, грамотно написанный, но фактически неверный ответ. Не баг, а свойство модели – к этому ещё вернёмся в разделах 4 и 6.
Терминология
27 / 79
Главный образ раздела

По сути – это очень мощное автодополнение.

Из этого свойства вытекают и сильные стороны, и ограничения.

Как устроено
28 / 79
Раздел 2 – Автодополнение

Автодополнение, которое все знают

9:41● ● ●
Когда встречаемся?
Я сегодня иду на
обед
встречу
совещание

Телефон предсказывает следующее слово на основе ваших прошлых сообщений.

ChatGPT работает по тому же принципу – но обучен не на личных сообщениях, а на большой части публичного интернета.

Как устроено
29 / 79
Раздел 2 – Выбор слова

Как модель выбирает следующее слово

Совет директоров утвердил
ОБЛАСТЬ ВЫСОКОЙ ВЕРОЯТНОСТИ КОНТЕКСТ бюджет 22% стратегию 18% решение 15% отчёт 12% план – 9% парусник 0.0001% далеко по смыслу – почти невозможно
Каждое слово живёт в пространстве смыслов. Чем ближе кандидат к контексту – тем выше его вероятность. Модель берёт самое близкое и переходит к следующему слову.
Как устроено
30 / 79
Раздел 2 – То же самое, нагляднее

Слова в воображаемом пространстве смыслов

Чем ближе слова друг к другу, тем чаще они встречаются вместе и тем выше шанс, что модель выберет одно как продолжение другого. Покажем на смешном примере.

Запрос «Моя кошка вчера»
Далеко по смыслу красным – чего модель НЕ выберет почти никогда
КОНТЕКСТ спала играла мурлыкала ласкалась поела сидела знала слушала смотрела реагировала голосовала лоббировала подписала контракт инвестировала провела IPO ≈ 0.0001%
Близко по смыслу зелёным – что модель скорее всего выберет
КОНТЕКСТ играла мурлыкала ласкалась поела сидела знала слушала смотрела реагировала голосовала лоббировала провела IPO инвестировала подписала контракт спала ≈ 18%
Между «спала» и «провела IPO» – десятки тысяч слов, у каждого своя вероятность. Модель почти всегда выбирает ближнее. Но иногда – и в этом источник «удивительных» ответов – она ловит редкое.
Как устроено
31 / 79
Раздел 2 – В реальном времени

Так это выглядит вживую

Каждое следующее слово – отдельное предсказание. Вот как это ощущается на руке: одно слово ставится, по нему предсказывается следующее, и так до конца ответа.

Чат с моделью
Подготовь короткий черновик письма клиенту о задержке операции на 2 рабочих дня.
Символов 0 / 248
Скорость ~30 токенов/сек
Внутри 248 предсказаний подряд
Каждый символ выше – результат отдельного предсказания «какое слово/часть слова сейчас». Никакого «думания» в обычном смысле нет – только последовательная статистика. Скорость на демо чуть замедлена для наглядности.
Как устроено
32 / 79
Под капотом – цепочка из 5 шагов

100 000+ вариантов на каждое следующее слово

У большой модели в словаре – около ста тысяч токенов. И на КАЖДЫЙ следующий шаг генерации она перебирает их все.

100 000+
возможных продолжений на каждый шаг
бюджет
Один токен – один выбор из 100 тысяч. Дальше – снова 100 тысяч. И так до конца ответа.
Под капотом
33 / 79
Под капотом – цепочка из 5 шагов

Что физически происходит между «отправил» и «получил»

Каждый ваш запрос проходит через эту цепочку. Каждое следующее слово в ответе – ещё один полный прогон по всей цепочке заново.

1
Токенизация
Текст режется на «куски» – токены
2
Эмбеддинги
Каждый токен – точка в пространстве смыслов
3
Трансформер
«Внимание»: модель сопоставляет токены друг с другом
4
Вероятности
Каждому из 100 000+ токенов – свой балл
5
Выбор
Один токен выбран. Возврат на шаг 1.
И так ~30 раз в секунду – пока ответ не закончится
Дальше – подробнее по каждому из шагов. Понимая эту цепочку, легче увидеть, где именно модель ошибается.
Под капотом
34 / 79
Раздел 2 – Данные обучения

На каких данных модель обучена

Wikipedia Книги Новости Форумы Документация GitHub LLM
Модель не имеет доступа к внутренним системам банка, политикам, продуктам, клиентским данным. Всё, что она «знает» о банке – публично известное на момент обучения.
Большая часть публичного интернета. Но не банковские данные, не клиентские документы, не внутренние процессы.
Следствие
Модель отвечает уверенно даже там, где данных у неё нет. Дальше – три типичные демонстрации.
Как устроено
35 / 79
Раздел 1 – Инструменты

Карта основных инструментов

Цель слайда – ориентация в рынке. Не рекомендация к использованию.

Текст
ChatGPT
Claude
Gemini
DeepSeek
Изображения
Midjourney
DALL·E
Видео
Sora
Veo
Runway
Код
GitHub Copilot
Cursor
Голос
ElevenLabs
36 / 79
Раздел 5 – Применение

Где это уже работает на практике

GenAI в компаниях ещё в начале пути по сравнению с ML и DL, но эти четыре направления уже устойчиво приносят пользу. Возьмём пример банковского сектора.

01
Драфт клиентских коммуникаций
Письма клиентам, ответы на жалобы, шаблоны продуктовых сообщений. AI готовит черновик – человек правит и подписывает.
02
Поиск по внутренней базе знаний
Сотрудник пишет вопрос на естественном языке – система находит нужный пункт в политиках, регламентах, продуктовых справочниках.
03
Суммаризация длинных документов
Кредитные меморандумы, отчёты по аудиту, стенограммы комитетов – ключевые выводы за минуты вместо часов чтения.
04
Code-assist для разработчиков
GitHub Copilot, Cursor – AI пишет рутинный код, тесты, миграции. Уже стандарт в большинстве IT-команд крупных банков.
37 / 79
Раздел 5 – Бизнес-эффект

Что Generative AI даёт бизнесу в цифрах

Типовые показатели по индустрии для четырёх GenAI-направлений из предыдущего слайда. Цифры зависят от качества внедрения и зрелости процессов.

01
Драфт коммуникаций
−60 до −80% времени на первый черновик письма или меморандума. Сотрудник тратит время на проверку и адаптацию, а не на написание с нуля.
02
Поиск по документам
−80 до −90% времени на поиск ответа «где это написано». Минуты вместо часов копания в SharePoint.
03
Суммаризация документов
100% покрытие документов экспресс-выводами вместо ручной выборки. Аналитик читает не 50 отчётов, а 50 выжимок – глубоко смотрит то, что важно.
04
Code-assist
+20 до +30% к продуктивности разработчиков. Особенно сильно на рутине: тесты, миграции, конвертация форматов, документация.
Цифры – типовые диапазоны по открытым кейсам. Реальный эффект сильно зависит от того, как процесс перестроен под AI, и от качества проверки на выходе.
38 / 79
Раздел 5 – Риски

Где Generative AI может ошибаться и навредить

У GenAI свой набор рисков, отличный от ML и DL. Главный из них – уверенный тон при отсутствии гарантий. Дальше разберём на конкретных примерах.

01
Галлюцинации
Модель уверенно генерирует правдоподобный, но фактически неверный ответ: вымышленные источники, цифры, цитаты, номера регламентов.
02
Утечка чувствительных данных
Публичные сервисы (ChatGPT, Claude) пишут запросы на серверы провайдера. Клиентские данные, внутренние документы, исходный код – туда нельзя.
03
Сложно валидировать
У ML модели есть метрика точности на тестовой выборке. У GenAI ответ – свободный текст, единого «правильного» нет. Качество проверяется человеком, а это дорого.
04
Дрейф между версиями
Модель обновляется – поведение меняется. То, что работало в пилоте на GPT-4, может вести себя иначе на GPT-4o. Регрессионных тестов как у ПО почти нет.
39 / 79
Демонстрация 1 из 3 – задачи на уровне символов

Пример: посчитать цифры в БИК

Как модель видит этот вопрос
Как видит человек
044525974
девять отдельных цифр – каждую можно посчитать
Как видит модель
044525974
три «куска текста» без знания, что внутри каждого
Модель не работает с отдельными символами. Она оперирует «кусками». Поэтому посчитать, сколько раз встречается цифра 5, – это задача не «трудная», а структурно недоступная.
Запрос
В БИК 044525974 – сколько раз встречается цифра 5?
Результат
ChatGPT GPT-4
U
В БИК 044525974 – сколько раз встречается цифра 5?
ChatGPT
Давайте разберём БИК 044525974 по позициям:
044525954
Цифра 5 встречается на позициях 4, 6 и 8.

Ответ: 3 раза.
Неверно. Правильный ответ – 2 (на позиции 8 стоит цифра 7, а не 5).
Что это значит для банка
Любая задача, где важна каждая цифра или символ, – не для AI напрямую: валидация счетов, контрольные суммы, маскирование номеров карт, извлечение идентификаторов из документов.
Как устроено
40 / 79
Демонстрация 2 из 3 – фактические утверждения

Пример: фабрикация исследований и источников

Откуда берётся правдоподобный, но несуществующий ответ
Когда мы спрашиваем модель про академические исследования по узкой теме, она ищет ответ в области своих обучающих данных «как выглядят академические ссылки про банки и ESG». В этой области у неё много примеров формы: имя автора, год, название журнала. Поэтому она составляет ссылку, которая выглядит правильно. Имена звучат как реальные имена, журналы – как реальные журналы.

Но механизма проверить «существует ли эта работа на самом деле» внутри модели нет. У неё нет базы данных публикаций, нет доступа к интернету в этот момент, нет понятия «реальность». Есть только статистика, какие слова обычно идут друг за другом в ссылках.
Запрос
Назови три академических исследования о влиянии ESG-критериев на стоимость капитала российских банков – с авторами, журналами и годами публикации.
Результат
ChatGPT GPT-4
U
Назови три академических исследования о влиянии ESG-критериев на стоимость капитала российских банков – с авторами, журналами и годами публикации.
ChatGPT
Вот три ключевых исследования по этой теме:
  1. Иванов А.В., Петрова Е.С. (2021). Влияние ESG-факторов на стоимость капитала кредитных организаций РФ. // Финансы и кредит, 27(8), 1842–1865.
  2. Соколов Д.М. (2022). ESG-рейтинги и стоимость заимствований российских банков. // Банковское дело, 14(3), 45–58.
  3. Кузнецова О.Н., Морозов В.А. (2023). Sustainability-linked loans в банковском секторе России. // Деньги и кредит, 18(2), 112–130.
Все три источника – выдуманы. Ни автора, ни статьи, ни года публикации не существует.
Что это значит для банка
Любой текст, который ссылается на источники: меморандумы со ссылками на нормативные акты, риск-доклады с цитатами из исследований, юридические заключения. Модель будет уверенно изобретать номера положений, авторов и формулировки. Проверка ссылок – отдельный шаг, не часть запроса.
Как устроено
41 / 79
Демонстрация 3 из 3 – точные расчёты

Пример: пересчёт средневзвешенной ставки

Почему модель ошибается даже на школьной математике
Модель не считает. Она угадывает, как должен выглядеть ответ. Когда она правильно отвечает на «2+2 = 4», это не потому, что она вычислила. Это потому, что строчка «2+2=4» встречалась в её обучении миллионы раз – и она просто подставляет «4» как самое вероятное продолжение.

На уникальном расчёте – таком, как ниже, – она угадывает по похожим примерам: пропускает шаг с весами, ошибается на округлении, или меняет порядок операций. Внутри неё нет калькулятора, который можно «включить».
Запрос
Портфель – 47,3 млрд ₽ под средневзвешенную ставку резерва 1,8%. Новый origination – 12,1 млрд ₽ под 2,3%. Какая средневзвешенная ставка по объединённому портфелю?
Результат
ChatGPT GPT-4
U
Портфель – 47,3 млрд ₽ под средневзвешенную ставку резерва 1,8%. Новый origination – 12,1 млрд ₽ под 2,3%. Какая средневзвешенная ставка по объединённому портфелю?
ChatGPT
Чтобы найти среднюю ставку по объединённому портфелю, посчитаем среднее значение двух ставок:

(1,8% + 2,3%) / 2 = 2,05%

Ответ: средневзвешенная ставка резерва составляет 2,05%.
AI: 2,05% (без взвешивания)
Правильно: 1,902%
Что это значит для банка
Любые расчёты в портфельной аналитике, нормативах, сценарном анализе, отчётности. Модель выдаст уверенное число – но это предсказание формы ответа, не вычисление. Числа от AI всегда пересчитываются в Excel или специализированном инструменте.
Как устроено
42 / 79

AI выдаёт текст, который звучит убедительно. Это не то же самое, что текст, который верен.

Модель не проверяет, знает ли она ответ. Эта проверка – на стороне человека.

Как устроено
43 / 79
Вопрос аудитории

А у вас уже был такой опыт?

3 минуты на короткий обмен. Перед перерывом – чтобы зашло на отдых.
01 В какой задаче вы уже пробовали AI?
02 Когда AI выдавал убедительный, но ошибочный ответ?
03 Что с этим сделали – заметили или приняли как есть?
Обсуждение
44 / 79
Перерыв
10 минут
10:00
Перерыв
45 / 79
Раздел 4 из 8

Где AI помогает в бизнесе

От теории к практике – реальные кейсы с измеримым эффектом.

46 / 79
Раздел 3 – Где AI помогает

Карта применимости

Перед тем как открывать AI на новой задаче – три секунды на этот квадрат. Где она тут? Чем выше и левее – тем безопаснее.

сложно Возможность проверить легко
Уверенное применение
  • Драфтинг писем
  • Суммаризация
  • Перевод
С контролем
  • Расчёты с проверкой
  • Код с тестами
  • Юридические формулировки
Допустимо
  • Брейншторм
  • Поиск идей
  • Набросок направления
Повышенный риск
  • Юридические заключения
  • Медицинские оценки
  • Финансовые рекомендации
низкая Цена ошибки высокая
Где помогает
47 / 79
Раздел 3 – Применение

Где AI помогает

Семь категорий задач, где модель действительно экономит время. Дальше – три коротких примера и один глубокий разбор реальной системы.

Черновики
Письма, презентации, меморандумы
Суммаризация
Документы, протоколы, отчёты
Перевод
Языки, регистры, стили
Поиск идей
Варианты названий, формулировок, гипотез
Объяснение
Адаптация сложного материала под аудиторию
Структурирование
Превращение разрозненных заметок в связный документ
Код и формулы
В том числе для тех, кто не пишет код профессионально
Где помогает
48 / 79
Раздел 3 – Пример

Пример: черновик письма клиенту

Запрос
Подготовь черновик письма клиенту private banking. Сообщаем о задержке исполнения операции на 2 рабочих дня в связи с дополнительной проверкой. Тон – корректный, без избыточных извинений, без юридического жаргона. Длина – 5–6 предложений. Закончи указанием контактного лица.
Результат

Уважаемый Сергей Александрович,

Уведомляем о задержке исполнения операции по вашему счёту на два рабочих дня. Задержка связана с дополнительными процедурами проверки, предусмотренными внутренним регламентом банка.

Средства зарезервированы и будут зачислены не позднее 14 ноября. Никаких действий с вашей стороны не требуется.

Если потребуется уточнение по статусу операции, свяжитесь со мной напрямую: Анна Петрова, персональный менеджер, +7 495 XXX-XX-XX.

С уважением,
Анна Петрова

Черновик за 5 секунд. Дальше – обычный процесс: правки, проверка комплаенс, отправка.
Где помогает
49 / 79
Раздел 3 – Пример

Пример: суммаризация

Аналитический отчёт
14 страниц
AI обрабатывает
8 секунд
Ключевые выводы
  • Чистая прибыль за квартал – 4,2 млрд ₽ (+12% к прошлому кварталу)
  • Главный драйвер – рост в розничном сегменте, особенно ипотека
  • Основной риск – концентрация портфеля на 3 крупнейших корп. клиентах
  • Рекомендация – диверсификация корп. портфеля в течение 6 месяцев
  • Открытый вопрос – влияние новой ставки ЦБ на спрос в Q4
Один из пунктов оказался выводом, которого в исходном тексте не было. Удалил при проверке. Это нормальный режим работы с AI, а не аномалия.
Где помогает
50 / 79
Раздел 3 – Пример

Пример: заметки → документ

Заметки со встречи
- решили по бюджету Q3
    нужно ИТ согласие
* кто отвечает за поставщика?
дедлайн 15-е
поменять процесс согласования (!)
- юр.отдел согласует к среде
открытый: лимиты по клиентам?
AI обрабатывает
5 секунд
Структурированный протокол

Решения

  • Бюджет Q3 утверждён в текущей редакции
  • Процесс согласования подлежит пересмотру

Действия

  • Согласование ИТ – отв. И. Иванов, до среды
  • Юр. отдел согласует – отв. М. Сидорова, до среды

Открытые вопросы

  • Лимиты по клиентам – требуется отдельная встреча

Сроки

  • Поставщик: ответственный определяется до 15-го числа
Где помогает
51 / 79
Раздел 3 – Глубокий пример

Речевая аналитика – это отдельный вид AI, не ChatGPT

Возьмём одно зрелое применение AI в банке и разберём на части – увидеть, что внутри одной «AI-системы» обычно сидит несколько разных моделей с разными сбоями.

Аудио-
запись
звонка
Классическая ML
01 Стенограф
Что делает
Слушает запись, превращает речь в текст.
Как работает
За годы обучения «прослушал» миллионы часов чужих звонков с готовой расшифровкой. Запомнил, какие звуки соответствуют каким словам. Не понимает смысл – просто сопоставляет.
Где ломается
Акцент, шум, редкий банковский термин. «Непокрытый аккредитив» может расшифровать как «не покрытый аккредитив» – и ошибка пойдёт дальше по конвейеру.
Классическая ML
02 Сортировщик
Что делает
Читает расшифровку, ставит ярлык темы – «жалоба / тариф / возврат / сбой».
Как работает
Ему заранее показали тысячи прошлых звонков с проставленными ярлыками. Для нового звонка он ищет, на какой из виденных он больше всего похож, – и ставит такой же ярлык.
Где ломается
Если приходит совсем новый тип обращения – он не скажет «не знаю». Силой припишет к ближайшему известному ярлыку. В отчёте тема окажется неправильная, а человек, который читает отчёт, об этом не узнает.
Generative AI
03 Контролёр скрипта
Что делает
Проверяет, прочитал ли оператор обязательные фразы – например, «звонок может записываться».
Как работает
Это уже тот же тип AI, что ChatGPT, – «генерирующий». Ему дают расшифровку и спрашивают: «было ли это сказано?» Он читает и даёт ответ – да или нет.
Где ломается
Оператор сказал что-то близкое по смыслу, но не точно по скрипту – контролёр часто посчитает, что disclosure был. Compliance-отчёт получается красивым, а звонок при этом нарушал требования.
Generative AI
04 Тренер
Что делает
Пишет короткий разбор: «вот что оператор мог сказать лучше» – для последующего обучения.
Как работает
Тоже генерирующий AI. По образцам «удачных ответов операторов» составляет рекомендацию.
Где ломается
Рекомендация может противоречить актуальной политике банка – модель её никогда не видела. Если такие подсказки уходят прямо в обучающие материалы без проверки – банк сам себе создаёт расхождение.
Отчёт
по звонку
Это не один AI, а четыре разных в одном продукте.
Роботы 1 и 2 – старая, проверенная технология (NICE, Verint, CallMiner – в банках больше 10 лет). Роботы 3 и 4 – новый GenAI-слой поверх. Главный риск – сбой одного робота незаметно идёт в работу следующего, а на выходе человек видит уверенный отчёт без следов того, что внутри что-то пошло не так.
Где помогает
52 / 79
Раздел 5 из 8

Где AI бесполезен и риски

Где не помогает, где опасен, и каких мифов стоит избегать.

53 / 79
Раздел 4 – Где AI создаёт риски

Где AI создаёт риски

Та же карта, что в начале раздела 3. На ней теперь подсвечен квадрат, где AI без дополнительных проверок опаснее всего: и проверить трудно, и цена ошибки высокая.

сложно Возможность проверить легко
Уверенное применение
С контролем
Допустимо
Повышенный риск
  • Юридические заключения без проверки юристом
  • Финансовые расчёты без верификации
  • Медицинские оценки
  • Решения по конкретным клиентам или сотрудникам
  • Регуляторная отчётность
низкая Цена ошибки высокая
Риски
54 / 79
Раздел 4 – Уверенность ≠ компетентность

Уверенность модели не равна её компетентности

Сложность задачи Уровень Человек AI: компетентность AI: уверенность
Риски
55 / 79
Раздел 4 – Стабильные ошибки

Где AI стабильно ошибается

01
Свежие факты
События после даты обучения модели
02
Точные цифры
Арифметика без внешних инструментов
03
Узкоспециальные знания
Локальные регуляции, узкая нормативная база
04
Источники и цитаты
Фабрикация при сохранении уверенного тона
05
Сведения о людях
Вымышленные биографические данные
06
Системные смещения
Предвзятость по полу, возрасту, языку – унаследована из обучающих данных
Особо чувствительно в кредитных решениях, HR-процессах, клиентском скоринге.
Риски
56 / 79
Раздел 4 – Данные

Что происходит с данными, которые попадают в AI

Шаг 1
Ваш текст
Ввод данных в публичный чат – выглядит как локальная сессия
Шаг 2
Серверы провайдера
OpenAI / Anthropic / Google – текст уходит туда
Шаг 3
Может использоваться для обучения
В публичных версиях – как правило. В корпоративных – обычно нет.
Шаг 4
Может проявиться в чужих ответах
Редкий, но задокументированный сценарий
Простое правило: если эти данные нельзя отправить внешнему получателю по обычной почте – в публичный AI-инструмент их тоже нельзя.
Риски
57 / 79
Раздел 4 – Инфраструктура и зависимости

Где это всё физически работает

За мгновенным ответом ChatGPT – огромная инфраструктура, концентрированная у нескольких провайдеров. Это объясняет одновременно скорость, стоимость и регуляторные риски, о которых был предыдущий слайд.

10⁴+
Специализированных чипов в одном дата-центре
GPU NVIDIA H100 – около $30–40 тыс. за карту. В кластере под обучение GPT-уровня моделей – десятки тысяч таких карт, объединённых в единую сеть.
$100M
Стоимость одного цикла обучения большой модели
Только электричество и аренда чипов. GPT-4 ≈ $50–100 млн на обучение. Каждое следующее поколение моделей – на порядок дороже предыдущего.
2–3
Региона, где это всё физически расположено
Дата-центры под GenAI – в основном США и Европа. Для российского банка – отдельный пласт регуляторики: локализация данных, согласование зарубежных вендоров, банковская тайна.
Это индустриальная инфраструктура, а не «один сервер на стороне». Поэтому скорость в миллисекундах, поэтому стоимость API в центах за запрос, и поэтому зависимость от трёх–четырёх крупных провайдеров с известной географией.
Риски
58 / 79
Раздел 4 – Прецеденты

Несколько публичных случаев

2023, Нью-Йорк
Юристы Mata v. Avianca
Адвокаты подали в суд документ с цитатами на несуществующие судебные решения, сгенерированные ChatGPT. Суд оштрафовал двух адвокатов и фирму на $5 000 каждого. Дисциплинарное разбирательство в коллегии.
2024
Air Canada
Чат-бот авиакомпании ввёл клиента в заблуждение по условиям тарифа на похоронные перелёты. Авиакомпания заявила, что не отвечает за ответы своего AI. Tribunal обязал выплатить компенсацию.
2023
Samsung
Инженеры вставили в ChatGPT внутренний код для отладки. Часть кода – конфиденциальная. Компания ввела внутренний запрет на использование публичных AI-инструментов с рабочих устройств.
Риски
59 / 79
Вопрос аудитории

А что у нас? Без обвинений и без имён.

3 минуты на короткий обмен. Кейсы, которые мы только что разобрали, – не уникальны.
01 Слышали о подобных инцидентах в банковской индустрии?
02 У нас в банке кто-то уже сталкивался с похожей ситуацией?
03 Какой из увиденных рисков вызывает наибольшую тревогу?
Обсуждение
60 / 79
Раздел 6 из 8

Роль человека

AI готовит черновик. Подпись и решения остаются за человеком.

61 / 79
Раздел 5 – Процесс

Корректный рабочий процесс

Аналогия – AI как младший ассистент: готовит черновик. Решения и подпись – за человеком.

01
AI готовит
Черновик, вариант, заготовка
02
Человек проверяет
Факты, цифры, формулировки, регуляторный контекст
03
Человек принимает решение
Принять, доработать, отклонить
04
Человек несёт ответственность
За результат и его последствия
Ответственность
62 / 79
Кто отвечает за ошибку AI

Тот, кто использовал AI и подписал результат.

Ответственность лежит на сотруднике и организации. Вендор и модель её не несут.

Регулятор не примет аргумент «это нам ChatGPT написал».

Ответственность
63 / 79

Если вы это отправили вы это написали.

Не имеет значения, что черновик готовил AI. Подпись определяет авторство.

Раздел 5 – ответственность
Ответственность
64 / 79
Раздел 7 из 8

Принципы работы с AI

Пять рабочих правил для повседневной работы.

65 / 79
Раздел 6 – Как пользоваться

Пять рабочих принципов

Из всего, что разобрали в первых пяти разделах, на практике сводится к пяти простым правилам. Каждый – на отдельном слайде ниже.

01
Контекст важнее команды
02
Проверять – раньше, чем доверять
03
Никаких чувствительных данных
04
AI – для черновиков, не для финалов
05
Не можете проверить – не используйте
Принципы
66 / 79
Раздел 6 – Принцип 1

Принцип 1: Контекст важнее команды

Мало контекста
Напиши служебную записку про оптимизацию процесса.
Достаточно контекста
Я – руководитель департамента. Записка для члена правления, который не погружён в детали. Тон – деловой, без жаргона. Контекст: текущий процесс согласования занимает 14 дней, цель – сократить до 5. Длина – одна страница. Закончи тремя вариантами решения с оценкой рисков каждого.
роль аудитория тон контекст формат цель
Принципы
67 / 79
Раздел 6 – Принцип 2

Принцип 2: Проверять до того, как доверять

Цифры и даты – проверить вручную или через первоисточник
Цитаты, ссылки, нормативные акты – найти оригинал
Юридические, медицинские, финансовые утверждения – спросить эксперта
Имена, должности, биографические данные – сверить с открытыми источниками
Принципы
68 / 79
Раздел 6 – Принцип 3

Принцип 3: Никаких чувствительных данных

Не передаём в публичные AI-инструменты
Персональные данные клиентов (ФИО, паспорт, ИНН, счета)
Внутренние документы – кредитные меморандумы, материалы комитетов
Финансовая отчётность до публикации
Внутренние коммерческие переписки и стратегические документы
Исходный код банковских систем
Простая проверка
Отправил бы я эти данные внешнему получателю по обычной почте?
Если ответ – нет, в AI-инструмент тоже не отправляю.
Принципы
69 / 79
Раздел 6 – Принцип 4

Принцип 4: AI готовит черновик, финал – за человеком

AI делает 80% работы за 20% времени. Последние 20% – самые важные – за человеком.
AI: 80% объёма за 20% времени
Человек: критические 20%
Что входит в последние 20%
Проверка фактов Точность формулировок Тон под получателя Регуляторный контекст Репутационные нюансы
Принципы
70 / 79
Раздел 6 – Принцип 5

Принцип 5: Не можете проверить – не используйте

Не разбираетесь в теме – не сможете отличить точное от выдуманного
Нет времени проверить – не используйте AI для этой задачи
Узкоспециальная область – AI скорее ошибётся, а вы скорее не заметите
Иногда правильное решение – не использовать AI вовсе.
Принципы
71 / 79
Раздел 8 из 8

Я и AI: где мы?

Где каждый из нас сейчас в работе с AI.

72 / 79
Практическая часть

Где вы сейчас в работе с AI

Я и AI: где мы? – 25 минут
Индивидуально
5 минут
Запишите ответы на 4 вопроса
В парах
10 минут
Обмен ответами
Общий круг
10 минут
Обсуждение результатов
Диагностика
73 / 79
Раздел 7 – Индивидуально, 5 минут

Запишите ответы на четыре вопроса

01
Где я уже использую AI в работе?
Задачи, инструменты, частота
02
Где я сознательно его избегаю – и почему?
Причины: недоверие, непонимание, риск, привычка
03
Когда AI меня подводил?
Что произошло, какой вывод сделал
04
Какую одну задачу попробую с AI на этой неделе?
Конкретная задача с планом проверки
Диагностика
74 / 79
Раздел 7 – Обмен и обсуждение

Поделитесь и обсудим

В парах – 10 минут
Поделитесь ответами
Обмен ответами в парах. Особое внимание – случаям, когда AI давал некорректный результат.
Общим кругом – 10 минут
Что увидели вместе
Повторяющиеся паттерны. Доминирующие риски. Кандидаты на первое внедрение.
Вопросы для общего обсуждения
Структура использования: кто, где, в каких задачах
Структура избегания: причины и обоснования
Системные риски: что требует внимания на уровне процессов банка
Диагностика
75 / 79
Итоги

Итоги

Главное за сегодня и что дальше.

76 / 79
Раздел 8 – Итоги

Главное за сегодня

01
AI – мощное автодополнение. Уверенный тон не означает корректный ответ.
02
Сильные стороны: черновики, суммаризация, структурирование. Слабые: факты, расчёты, источники.
03
Чувствительные данные не передаются. Проверка: можно ли отправить эти данные внешнему получателю по почте.
04
Проверка – на человеке. Подпись – ваша. Регулятор не примет «AI написал».
05
Пять принципов: контекст, проверка, безопасность, черновики, проверяемость.
Итоги
77 / 79
Что дальше

Занятие 2: [тема следующего занятия – заполнить]

На следующей встрече – формулирование запросов и границы того, что решается техникой.

Итоги
78 / 79
Спасибо за внимание.
Итоги
79 / 79