Нейросети в маркетинге: как использовать ИИ для контента, аналитики и дизайна
Продолжительность
1 день
Почему стоит начать?
Вы узнаете:
→ Как правильно формулировать запросы, чтобы ИИ понимал вас с первого раза.
→ Какие бесплатные инструменты экономят время и дают профессиональный результат.
→ Как комбинировать сервисы для сложных задач: от генерации идей до готовых креативов.
Чему вы научитесь:
· Работать с нейросетями — даже если никогда не пробовали.
· Решать реальные задачи — создавать тексты, изображения, анализировать данные.
· Встраивать ИИ в процессы — от маркетинга до дизайна.
Формат:
• Практические видеоуроки на основе реальных кейсов.
• Доступ к курсу навсегда + обновления материалов.
• Закрытое комьюнити для обмена опытом.
Результат:
Вы сможете создавать контент и креативы намного быстрее. ИИ станет вашим надежным помощником, а не сложной технологией, которая работает против вас.
Аудитория курса:
· Маркетологи, которые хотят внедрить ИИ в создание контента и аналитику.
· Предприниматели, стремящиеся автоматизировать рутину и сократить расходы.
· Дизайнеры и копирайтеры, желающие ускорить работу с помощью нейросетей.
· Новички в ИИ, которые хотят разобраться в инструментах без сложных терминов.
Промт-инженер. Искусство общения с искусственным интеллектом
Продолжительность
5 дней/40 академических часов
Модуль 1: Знакомство с миром LLM и основами промптинга (10 часов)
Темы:
• Что такое Большие Языковые Модели (LLM)? Интуитивное понимание, как они "думают" (без глубокой математики).
• Кто такой промпт-инженер и почему это важно?
• Обзор популярных LLM (ChatGPT, YandexGPT, Gemini, Claude и др.): интерфейсы, базовые возможности и отличия.
• Анатомия простого промпта: инструкция, вопрос, контекст.
• Первые шаги: формулирование четких и конкретных запросов.
• Итеративный подход: почему редко получается идеальный ответ с первого раза и как улучшать промпты.
• Основные ошибки новичков при общении с ИИ.
Практика:
• Регистрация и знакомство с интерфейсом одной или двух LLM.
• Написание первых промптов для решения простых задач (ответ на вопрос, краткое изложение).
• Эксперименты с изменением формулировок и наблюдение за результатами.
• Анализ "плохих" ответов и попытки их исправить.
Модуль 2: Ключевые техники эффективного промптинга (10 часов)
Темы:
• Сила контекста: как предоставление фоновой информации меняет ответ ИИ.
• Задание роли (Persona Prompting): "Представь, что ты..." – заставляем ИИ действовать в нужной манере.
• Установка ограничений: управление длиной, форматом (список, таблица, JSON), стилем и тоном ответа.
• Техника "Zero-Shot" (то, что делали раньше) vs "Few-Shot" Prompting: обучение ИИ на лету с помощью примеров прямо в запросе.
• Разбиение сложных задач на подзадачи в промпте.
• Важность использования четких глаголов и формулировок.
Практика:
• Создание промптов с явным указанием роли и аудитории.
• Генерация текстов в заданном формате и стиле.
• Практика Few-Shot Prompting на простых примерах (классификация тональности, генерация по образцу).
• Решение задачи, требующей нескольких шагов или уточнений в одном промпте.
Модуль 3: Применение промпт-инжиниринга для разных задач (10 часов)
Темы:
• Генерация контента: статьи, посты для соцсетей, email, слоганы (с учетом тона, стиля, ключевых слов).
• Суммаризация и рерайтинг: получение краткого содержания текстов, перефразирование.
• Мозговой штурм и генерация идей: использование ИИ как креативного партнера.
• Помощь в обучении: объяснение сложных тем простым языком, создание планов обучения.
• Работа с кодом (даже для непрограммистов): объяснение фрагментов кода, генерация простых скриптов (например, для Excel).
• Извлечение структурированной информации из неструктурированного текста.
• Техника Chain-of-Thought (CoT) – базовое применение: просим ИИ "думать вслух" для решения логических задач.
Практика:
• Генерация различных типов контента по заданным сценариям.
• Суммаризация новостных статей или научных текстов.
• Использование ИИ для генерации идей для проекта или мероприятия.
• Решение простых логических задач с помощью CoT.
• Извлечение данных (имена, даты, компании) из текста.
Модуль 4: Оценка результатов, этика и продвинутые концепции (10 часов)
Темы:
• Критическая оценка ответов ИИ: как проверять факты, выявлять "галлюцинации" (выдумки ИИ).
• Понимание и смягчение предвзятости (bias) в ответах LLM.
• Этические аспекты: плагиат, авторское право, конфиденциальность данных при работе с ИИ.
• "Дебаггинг" промптов: что делать, если ИИ упорно не понимает или дает неверный результат.
• Обзор более сложных техник (без глубокого погружения): ReAct, Self-Consistency и др.
• Инструменты для промпт-инженеров (обзорно).
• Будущее промпт-инжиниринга и взаимодействия с ИИ.
Практика:
• Анализ предоставленных ответов ИИ на предмет ошибок, галлюцинаций, предвзятости.
• Практика пошагового улучшения "плохого" промпта.
• Обсуждение этических дилемм на примерах.
Мини-проект: Решение комплексной задачи (например, создание контент-плана, исследование темы, планирование простого проекта) с использованием различных техник промптинга и критической оценкой результата.
Использование искусственного интеллекта для оптимизации
Продолжительность
72 академических часов
Модуль 1. Введение в оптимизацию с использованием AI (14 часов)
1.1. Основные понятия и роль оптимизации в современном мире (4 часа)
· Понятие «оптимизация» и ее значение в науке, бизнесе и промышленности
· Классификация задач оптимизации (линейная, нелинейная, дискретная, многокритериальная)
· Вклад искусственного интеллекта в решение оптимизационных задач
· История развития AI-технологий и их взаимодействие с классической математической оптимизацией
1.2. Обзор методов искусственного интеллекта для оптимизации (6 часов)
· Машинное обучение как инструмент для оптимизационных задач
· Метаэвристические алгоритмы (генетические алгоритмы, рой частиц, муравьиные колонии и др.)
· Глубокое обучение и его связи с оптимизацией (стохастический градиентный спуск, адаптивные оптимизаторы и т.д.)
· Роль генеративных моделей в поиске оптимальных решений (пример: генерация вариантов конфигурации для производственных процессов)
1.3. Практикум: постановка оптимизационной задачи (4 часа)
· Формулировка реальной задачи (e.g. оптимизация расписания, управление цепочками поставок, анализ трафика)
· Определение метрик и критериев эффективности
· Определение инструментов и методов для решения: обзор доступных библиотек и фреймворков
Модуль 2. Классические и современные алгоритмы оптимизации (14 часов)
2.1. Базовые классические методы (6 часов)
· Метод наискорейшего спуска, градиентный спуск и его модификации
· Линейное программирование (Simplex, внутренние точки и т.д.)
· Нелинейное программирование: методы штрафных функций, барьерных функций
2.2. Метаэвристики и эволюционные алгоритмы (6 часов)
· Генетические алгоритмы (GA): принципы, оператор скрещивания, мутации, селекции
· Алгоритм роя частиц (PSO): применение для задач оптимизации
· Алгоритм муравьиной колонии (ACO): маршрутизация и логистические задачи
· Комбинации и гибридные подходы: GA + градиентный спуск, локальные методы улучшения
2.3. Практикум: настройка и отладка алгоритмов (2 часа)
· Сравнение производительности классических и эволюционных алгоритмов
· Выбор гиперпараметров и критериев остановки
· Практические кейсы: демонстрация работы алгоритмов с помощью Python-библиотек (DEAP, PyGAD и др.)
Модуль 3. Машинное обучение и нейронные сети для оптимизации (16 часов)
3.1. Методы машинного обучения и их применение (6 часов)
· Супервизия и оптимизация параметров моделей (деревья решений, ансамбли, бустинг)
· Роль байесовских методов для оптимизации гиперпараметров
· Регуляризация моделей, борьба с переобучением, кросс-валидация
· Автоматизированный подбор гиперпараметров (AutoML, Hyperopt, Optuna)
3.2. Глубокое обучение и современные архитектуры (6 часов)
· Полносвязные нейронные сети, CNN, RNN, трансформеры
· Оптимизационные аспекты обучения нейронных сетей (SGD, Adam, RMSProp, LAMB)
· Использование глубокой сети для аппроксимации сложных целевых функций (например, распределение вероятностей решений)
· Применение генеративных моделей (GAN, VAE) для задач синтеза и поиска оптимальных вариантов
3.3. Практикум: разработка моделей для конкретной оптимизационной задачи (4 часа)
· Создание модели на базе популярных фреймворков (PyTorch/TensorFlow)
· Настройка и отладка процесса обучения (логирование, мониторинг потери и метрик)
· Внедрение модели в процесс принятия решений (промышленная среда, веб-сервис, edge-устройства и т.д.)
Модуль 4. Прикладные кейсы и отраслевые решения (16 часов)
4.1. Оптимизация производственных процессов и логистики (4 часа)
· Управление цепочками поставок: прогнозирование спроса и оптимизация запасов
· Планирование производственных линий, оптимизация расписания сотрудников/станков
· Алгоритмы маршрутизации для транспорта и доставки (Vehicle Routing Problem)
4.2. Финансовые, экономические и маркетинговые приложения (4 часа)
· Оптимизация торговых стратегий, алгоритмический трейдинг, портфельные инвестиции
· Ценообразование и маркетинговые кампании: динамическое и персонализированное ценообразование.
· Аналитика рисков и моделирование сценариев
4.3. Энергетика, «умные» города и IoT (4 часа)
· Оптимизация энергопотребления: балансировка сетей, прогнозирование нагрузки
· Управление «умными» зданиями и городами (трафик, освещение, аварийные системы)
· Роль IoT-устройств и потокового анализа данных в процессах оптимизации
4.4. Практикум: разбор конкретных бизнес-кейсов (4 часа)
· Командная работа над кейсом: постановка задачи, сбор данных, выбор алгоритмов
· Разработка базового прототипа для решения кейса
· Защита результатов и обратная связь от экспертов
Модуль 5. Проектная работа и современные тенденции (12 часов)
5.1. Финальный проект: от идеи до прототипа (8 часов)
· Формирование проектных групп и распределение ролей
· Постановка реальной оптимизационной задачи (по выбору или предложенной заказчиком)
· Сбор и предобработка данных, разработка прототипа оптимизационного алгоритма (с применением AI-технологий)
· Тестирование, оценка результатов, презентация проекта
5.2. Перспективы и тренды в области AI-оптимизации (4 часа)
· Возрастающая роль больших языковых моделей (ChatGPT, GPT-4 и др.) и их возможностей для оптимизационных задач
· Слияние классических методов оптимизации и генеративного AI (генерация новых идей, сценариев)
· Edge-AI и децентрализованные решения (использование блокчейн-технологий для децентрализованной оптимизации)
· Этические и правовые аспекты применения AI для оптимизации (прозрачность, ответственность, безопасность)
Формат и методы обучения
1. Лекции и семинары: изучение теоретических основ, разбор алгоритмов и примеров из реальной практики.
2. Практические лабораторные работы: работа в Python со специализированными библиотеками (Scikit-Learn, PyTorch, TensorFlow, DEAP и др.).
3. Кейс-стадии: групповые проекты, основанные на реальных или близких к реальности сценариях оптимизации в бизнесе и промышленности.
4. Проектная работа: слушатели создают собственный прототип решения задачи оптимизации под руководством экспертов.
Итоговая аттестация
· Тестирование по ключевым темам курса (понимание основных алгоритмов, навыки работы с библиотеками).
· Защита итогового проекта: команда презентует решение задачи оптимизации, демонстрирует результаты, проведенные эксперименты и перспективы развития.
Распределение часов по модулям
1. Модуль 1. Введение в оптимизацию с использованием AI – 14 часов
2. Модуль 2. Классические и современные алгоритмы оптимизации – 14 часов
3. Модуль 3. Машинное обучение и нейронные сети для оптимизации – 16 часов
4. Модуль 4. Прикладные кейсы и отраслевые решения – 16 часов
5. Модуль 5. Проектная работа и современные тенденции – 12 часов
Итого: 72 часа
Преимущества данной программы
· Свежесть и актуальность: Рассматриваются последние достижения в области генеративных моделей, AutoML и больших языковых моделей.
· Практическая направленность: Большое количество кейсов и лабораторных, позволяющих отработать навыки на практике.
· Комплексный подход: От классических основ (математика и базовые алгоритмы) до современных нейронных сетей и гибридных методов оптимизации.
Гибкость: Материал легко адаптируется под конкретную отрасль и нужды заказчика, будь то производство, логистика, финансы или IT.
Нейронные сети, компьютерное зрение и библиотека PyTorch
Продолжительность
5 дней/40 академических часов
Модуль 1: Введение в глубокое обучение и PyTorch для компьютерного зрения (8 часов)
• Обзор современных трендов в компьютерном зрении: от классических CNN до Vision Transformers и генеративных моделей (по состоянию на 2025 год).
• Экосистема PyTorch: установка, настройка, работа с новыми инструментами (например, PyTorch 2.0+ и его ускорение компиляции).
• Тензоры и работа с данными: манипуляция, аугментация изображений, использование GPU/TPU.
• Создание базовой модели: реализация классификатора изображений на основе простой CNN.
• Практическое занятие: Построение и обучение модели для классификации изображений (например, на датасете CIFAR-10).
Модуль 2: Классические и современные архитектуры для компьютерного зрения (10 часов)
• Сверточные нейронные сети (CNN): основы, свёрточные слои, pooling, архитектуры (ResNet, EfficientNet).
• Vision Transformers (ViT): принципы работы, преимущества и применение в задачах классификации и сегментации.
• Генеративные модели: основы GAN и Diffusion Models для генерации изображений.
• Практическое занятие: Реализация модели на основе ResNet для классификации и сравнение с Vision Transformer на одном и том же датасете.
Модуль 3: Продвинутые методы в компьютерном зрении (8 часов)
• Трансферное обучение: использование предобученных моделей (например, из torchvision или Hugging Face).
• Сегментация и детекция объектов: архитектуры U-Net, YOLOv8, Mask R-CNN.
• Оптимизация моделей: регуляризация (Dropout, Weight Decay), подбор гиперпараметров с помощью Optuna.
• Практическое занятие: Реализация модели для сегментации изображений (например, на датасете COCO) с использованием трансферного обучения.
Модуль 4: Генеративные модели и мультимодальные задачи (6 часов)
• Генерация изображений: обучение небольшой Diffusion Model для создания изображений.
• Мультимодальные задачи: объединение изображений и текста (например, с использованием CLIP для zero-shot классификации).
• Работа с большими датасетами: эффективная загрузка данных с помощью torch.utils.data и DataLoader.
• Практическое занятие: Создание модели для генерации изображений и решение задачи zero-shot классификации с CLIP.
Модуль 5: Интерпретация, развёртывание и итоговый проект (8 часов)
• Интерпретация моделей: визуализация с помощью Grad-CAM, объяснение решений с SHAP.
• MLOps для компьютерного зрения: автоматизация обучения, мониторинг моделей, использование MLflow.
• Развёртывание моделей: создание REST API с FastAPI для интеграции модели в приложение.
• Практическое занятие: Итоговый проект — разработка и развёртывание модели компьютерного зрения (например, классификатор или сегментатор) с последующим созданием API.
Нейронные сети в компьютерной обработке текста и звука. Библиотека PyTorch
Продолжительность
5 дней/40 академических часов
Модуль 1: Введение в глубокое обучение и PyTorch для обработки текста и звука (8 часов)
• Обзор современных трендов в NLP и аудиоанализе: от RNN до Transformer и моделей для аудио (по состоянию на 2025 год).
• Экосистема PyTorch: установка, настройка, работа с новыми инструментами (например, PyTorch 2.0+ и его ускорение).
• Подготовка данных: токенизация текста (с использованием Hugging Face tokenizers), обработка аудио (librosa, torchaudio).
• Создание базовой модели: реализация классификатора текста (например, анализ тональности) и классификатора звука.
• Практическое занятие: Построение и обучение модели для классификации текста (на датасете IMDb) и классификации звуков (на датасете UrbanSound8K).
Модуль 2: Архитектуры для обработки текста (10 часов)
• Рекуррентные нейронные сети (RNN): основы, LSTM, GRU для работы с последовательностями.
• Transformer: архитектура, self-attention, применение в задачах NLP (BERT, RoBERTa).
• Большие языковые модели (LLM): дообучение предобученных моделей (например, из Hugging Face) для анализа текста.
• Практическое занятие: Реализация модели на основе Transformer для задачи классификации текста или машинного перевода (например, с использованием датасета WMT).
Модуль 3: Архитектуры для обработки звука (8 часов)
• Основы обработки аудио: спектрограммы, MFCC, работа с torchaudio.
• Модели для аудио: Wav2Vec 2.0 для распознавания речи, Tacotron 2 для синтеза речи.
• Классификация и сегментация звука: использование CNN и Transformer для анализа аудиоданных.
• Практическое занятие: Реализация модели для автоматического распознавания речи (ASR) на датасете LibriSpeech или синтеза речи с Tacotron.
Модуль 4: Мультимодальные задачи и продвинутые методы (6 часов)
• Мультимодальные модели: объединение текста и звука (например, с использованием CLIP или SpeechBERT).
• Генеративные модели для текста и звука: основы GPT для генерации текста, WaveNet для генерации аудио.
• Оптимизация моделей: регуляризация (Dropout, LayerNorm), подбор гиперпараметров с Optuna.
• Практическое занятие: Создание мультимодальной модели для задачи, например, генерации описания аудиофайла (аудио → текст).
Модуль 5: Интерпретация, развёртывание и итоговый проект (8 часов)
• Интерпретация моделей: визуализация attention в Transformer, объяснение решений с SHAP.
• MLOps для NLP и аудио: автоматизация обучения, мониторинг моделей, использование MLflow.
• Развёртывание моделей: создание REST API с FastAPI для интеграции модели в приложение (например, голосовой ассистент).
• Практическое занятие: Итоговый проект — разработка и развёртывание модели для обработки текста или звука (например, чат-бот с голосовым интерфейсом) с последующим созданием API.
Глубокое обучение и нейросети в действии на PyTorch и Python
Продолжительность
5 дней/40 академических часов
Модуль 1: Основы глубокого обучения и введение в PyTorch (8 часов)
· Введение в глубокое обучение: обзор современных трендов, бизнес-кейсов и перспектив применения ИИ
· Экосистема PyTorch: обзор возможностей библиотеки, установка и настройка среды разработки
· Работа с тензорами в PyTorch: основные операции, манипуляция данными и работа с GPU
· Создание базовых моделей: реализация простой модели (линейная регрессия, перцептрон)
· Практическое занятие: написание первой модели в PyTorch и анализ ее работы
Модуль 2: Архитектуры нейронных сетей (10 часов)
· Полносвязные нейронные сети: принципы работы, слои, функции активации и оптимизация
· Сверточные нейронные сети (CNN): структура CNN, свёрточные и pooling-слои, классические архитектуры (LeNet, AlexNet)
· Рекуррентные нейронные сети (RNN): основы RNN, LSTM, GRU для обработки последовательных данных
· Практическое занятие: разработка и обучение модели для классификации изображений с использованием CNN
Модуль 3: Продвинутые методы и оптимизация нейросетей (8 часов)
· Трансферное обучение: использование предобученных моделей для ускорения разработки
· Методы регуляризации: Dropout, Batch Normalization и техники предотвращения переобучения
· Оптимизация гиперпараметров: подбор параметров, работа с оптимизаторами и функциями потерь
· Практическое занятие: доработка модели с применением трансферного обучения и регуляризации
Модуль 4: Обработка естественного языка и мультимодальные сети (6 часов)
· Обработка текста: токенизация, эмбеддинги (Word2Vec, GloVe) и работа с последовательностями
· Архитектуры для NLP: RNN, Transformer и их применение в задачах анализа текста
· Мультимодальные нейронные сети: объединение данных изображений и текста для комплексных задач
· Практическое занятие: разработка модели для анализа текстовых данных или мультимодального решения
Модуль 5: Развертывание, интерпретация и практические проекты (8 часов)
· Интерпретация нейросетевых моделей: методы визуализации и объяснения решений моделей (Grad-CAM, SHAP)
· Введение в MLOps: основы автоматизации процессов обучения, мониторинга и обновления моделей
· Интеграция моделей в приложения: создание REST API для модели с использованием Flask/FastAPI
Практическое занятие: разработка итогового проекта: от прототипирования до развертывания модели
Нейронные сети
Продолжительность
48 академических часов
1. Введение в машинное обучение. Методы обработки и подготовки данных (4 ак. часа)
· Пример задачи машинного обучения
· Ключевые компоненты задачи:
· Типы задач машинного обучения;
· История и развитие машинного обучения
· Тензоры и их использования для обработки данных:
· Взаимодействие с данными:
· Линейная алгебра;
· Дифференцирование тензоров:
· Автоматическое дифференцирование
· Вероятность и статистика
· Специальные классы для загрузки данных.
2. Линейная нейронная сеть для регрессии и классификации (4 ак. часа)
· Линейная регрессия теория и реализация;
· Объектно ориентированный подход в реализации;
· Модельный набор данных для регрессии;
· Применение линейного регрессора;
· Обобщение;
· Регуляризации модели;
· Логистическая регрессия
· Набор данных для классификации изображений
· Основная модель для классификации
· Применение логистического регрессора
· Обобщение;
· Окружение и сдвиг распределения.
3. Многослойный персептрон и конструкторы моделей (4 ак. час).
· Многослоевой персептрон;
· Реализация многослоевого персептрона;
· Прямое и обратное распространения, вычислительные графы;
· Сходимость модели и инициализация весов;
· Обобщение модели;
· Регуляризация Dropout;
· Пример предсказания по стоимости недвижимости.
· Слои и класс Моделей;
· Управление параметрами модели;
· Инициализация параметров;
· Пользовательские слои;
· Чтение и запись в файл;
· Работа с GPU.
4. Сверточные нейронные сети и их современные реализации (4 ак. час)
· Свертка для анализа изображений;
· Дополнение и шаг;
· Многоканальные вход и выход;
· Вытягивающие слои;
· Пример сверточной нейронной сети;
· Сеть AlexNet;
· Сеть с блоками VGG;
· Встроенные нейронные сети;
· Нейронная сеть с разделами (GoogLeNet);
· Слои пакетной нормализации;
· Остаточные нейронные сети (ResNet и ResNeXt);
· Плотно-связанные нейронные сети (DenseNet);
· Разработка архитектур сверточных нейронных сетей;
5. Реккурентные нейронные сети и их реализации (4.ак. час).
· Работа с последовательными данными;
· Превращение текста в последовательные вектора;
· Языковые модели;
· Реккурсия в нейронных сетях;
· Реализация реккурентных нейронных сетей;
· Обратное распространение во времени;
· Реккурентная сеть с ограничением памяти (LSTM);
· Реккурентная сеть с затвором (GRU);
· Глубокая реккурентная сеть;
· Двунаправленная рекурентная нейронная сеть;
· Машинный перевод и набор данных;
· Автокодировщики;
· Применение автокодировщика Seq2Seq в машинном переводе;
· Поиск по пучкам.
6. Механизм внимания и преобразователи ( 4 ак. час)
· Сигналы внимания;
· Вытягивание внимания;
· Скоринг-функции внимания;
· Внимание Bahdanau;
· Внимание многих;
· Само-внимание и позиционное кодирование;
· Архитектура преобразователей;
· Преобразователи для зрения;
· Полномаштабное предобучение с преобразователями.
7. Оптимизационные алгоритмы и вычислительные затраты (4 ак. час)
· Оптимизация в глубоком обучении;
· Выпуклость функции ошибки;
· Градиентный спуск;
· Стохастический градиентный спуск;
· Пакетный градиентный спуск;
· Момент в спуске;
· Adagrad;
· RMSProp;
· AdaDelta;
· Adam;
· Управление скоростью обучения;
· Компиляторы и интерпретаторы;
· Асинхронное программирование;
· Автоматическое распаралелливание;
· Вычислительные устройства;
· Обучение на кластере из GPU;
· Параметрические серверы.
8. Нейронные сети в компьютерном зрении (4 ак. часа)
· Расширения набора данных;
· Тонкая настройка модели;
· Детектирование объектов и их аннотирование;
· Якоря;
· Полномасштабная детектирование объектов;
· Набор данных для детектирования объектов;
· Детектирование на одном кадре;
· Сверточная нейронная сеть по областям (R-CNN);
· Семантическая сегментация и набор данных;
· Транспонирование свертки;
· Полные сверточные сети;
· Перенос нейронных моделей;
· Классификация изображений (CIFAR-10) на Kaggle.com;
· Индентификация собак (ImageNet Dogs) на Kaggle.com.
9. Обработка естественного языка. Предобучение. (4 ак. часа)
· Встраивание слов в векторное пространство (word2vec);
· Обучение по близости;
· Набор данных для предобученной вставки;
· Предобученный word2vec;
· Вставка по глобальным векторам (GloVe);
· Вставка подслов;
· Подобие слов и аналогия;
· Двунаправленный кодировщик представлений из преобразователя (BERT);
· Набор данных для предобучения на BERT;
· Предобученный BERT;
10. Обработка естественного языка. Применение нейронных сетей (4 ак. часа.)
· Анализ настроений и наборы данных;
· Анализ настроений с использование реккурентных нейронных сетей;
· Анализ настроений с использованием сверточных нейронных сетей;
· Набор данных для сопоставления текстов естественного языка;
· Сопоставление текстов естественного языка с использованием внимания;
· Настройка BERT для уровней последовательности и токенов;
· Сопоставление текстов с использованием BERT.
11. Использование нейронных сетей в рекомендательных системах (4 ак.часа)
· Обзор рекомендательных систем
· Набор данных MovieLens;
· Факторизация матриц;
· Предсказание рейтинга при помощи автокодировщиков;
· Персонализированный рейтинг для рекомендательных систем;
· Нейронная фильтрация персонализированного рейтинга;
· Рекомендательные системы с исключением последовательностей;
· Рекомендательные системы с большим количеством признаков;
· Машины факторизации;
· Машины глубокой факторизации.
12. Генеративные состязательные нейронные сети (4 ак. часов)
· Обзор состязательных сетей;
i. Генерирование реальных данных;
ii. Генератор;
iii. Дискриминатор;
iv. Обучение;
· Генеративные состязательные нейронные сети с глубокой сверткой;
i. Набор данных Pokemon;
ii. Генератор;
iii. Дискриминатор;
iv. Обучение.
Интенсив по Data science
Продолжительность
68 академических часов
Введение в Python
· История языка, его применение и особенности.
· Установка Python и основные инструменты разработки: Anaconda, Jupyter Notebook, PyCharm.
· Синтаксис языка: переменные, типы данных, операторы, функции.
· Условные конструкции и циклы: if-else, for, while.
· Структуры данных: списки, кортежи, множества, словари.
· Работа с файлами и директориями: чтение, запись, перемещение и удаление.
· Обработка исключений: try-except.
· Модули и пакеты: создание, импорт и использование.
· ООП в Python: классы, объекты, наследование.
· Каждая тема будет сопровождаться практическими заданиями для закрепления полученных знаний и умений.
Линейная алгебра, numpy и pandas
· Введение в линейную алгебру
· Определения и основные понятия
· Системы линейных уравнений
· Матрицы и операции с матрицами
· Работа с библиотекой NumPy:
· Создание массивов NumPy
· Операции над массивами
· Индексирование и срезы массивов
· Функции для работы с массивами
· Работа с библиотекой Pandas
· Введение в Pandas и структуры данных
· Создание DataFrame и Series
· Обработка и очистка данных
· Сводные таблицы и агрегирование данных
· Применение линейной алгебры в машинном обучении:
· Работа с данными с помощью NumPy и Pandas
Введение в статистику и теорию вероятностей
· Определение понятий статистики и вероятности
· Общие принципы статистической обработки данных
· Основные принципы теории вероятностей
· Описательная статистика
· Расчет основных характеристик данных: среднее, медиана, мода, дисперсия, стандартное отклонение
· Вероятность
· Определение понятия вероятности
· Расчет вероятности событий
· Условная вероятность и формула Байеса
· Распределения вероятностей: дискретные и непрерывные
· Гипотезы и их проверка
· Уровень значимости и p-value
· Корреляционный анализ
· Корреляция и коэффициент корреляции
· Построение корреляционной матрицы
Математический анализ
· Введение в математический анализ
· Основные понятия математического анализа: функции, пределы, производные, интегралы.
· Пределы и непрерывность: определение предела функции, свойства пределов функций, непрерывность функции и ее свойства.
· Производные и дифференцирование: определение производной функции, правила дифференцирования, геометрический смысл производной.
· Практические задания: решение простых задач по математическому анализу и линейной алгебре с помощью Python и библиотеки NumPy
Градиентная оптимизация
· Введение в градиентную оптимизацию
· Что такое оптимизация и зачем она нужна
· Основы градиентной оптимизации:
· Что такое градиент и как он используется в оптимизации: простейший пример градиентного спуска
· Основные методы градиентной оптимизации: градиентный спуск и стохастический градиентный спуск
· Регуляризация в градиентной оптимизации: L1-регуляризация, L2-регуляризация
· Применение градиентной оптимизации в машинном обучении
· Примеры использования градиентной оптимизации в реальных задачах
Разведочный анализ данных
· Введение в разведочный анализ данных: определение, цели и примеры.
· Подготовка данных: импорт, очистка, заполнение пропусков и обработка выбросов.
· Визуализация данных: гистограммы, диаграммы рассеяния, ящики с усами, тепловые карты.
· Описательные статистики: среднее значение, медиана, мода, стандартное отклонение.
· Корреляционный анализ: коэффициент корреляции, матрица корреляции.
· Предварительный анализ данных: анализ распределения признаков, обнаружение выбросов, проверка гипотез.
· Интерактивный разведочный анализ данных: использование библиотек Python, таких как Pandas, Matplotlib и Seaborn.
· Примеры применения разведочного анализа данных в реальных проектах.
Введение в машинное обучение и k-Nearest Neighbors (k-NN)
· Введение в машинное обучение: определение, цели и примеры.
· Типы задач машинного обучения: классификация, регрессия и кластеризация.
· Основные понятия машинного обучения: признаки, метки, обучение с учителем и без учителя.
· Метод k-NN: определение, основные шаги и примеры.
· Примеры использования метода k-NN в реальных проектах.
· Разбиение выборки на обучающую и тестовую части: определение, стратегии и примеры.
· Оценка качества модели: метрики точности, полноты, F1-меры и ROC-кривой.
Линейная регрессия
· Введение в линейную регрессию: определение, цели и примеры.
· Основные понятия линейной регрессии: зависимая и независимые переменные, коэффициенты регрессии, смещение и дисперсия.
· Простая линейная регрессия: определение, формула и примеры.
· Множественная линейная регрессия: определение, формула и примеры.
· Метод наименьших квадратов: определение, формула и примеры.
· Обучение модели линейной регрессии: определение, процесс обучения, подбор параметров модели.
· Оценка качества модели: метрики MAE, MSE, RMSE, R2.
· Регуляризация модели: L1, L2 регуляризация.
· Примеры использования линейной регрессии в реальных проектах.
Метод опорных векторов (SVM)
· Введение в SVM: определение, цели и примеры.
· Основные понятия SVM: гиперплоскость, опорные векторы, мягкий и жесткий отступы.
· Линейная SVM: определение, формула и примеры.
· Ядерная SVM: определение, формула и примеры.
· Разбиение выборки на обучающую и тестовую: определение, стратегии и примеры.
· Обучение модели SVM: определение, процесс обучения, подбор параметров модели.
· Оценка качества модели: метрики точности, полноты, F-мера, ROC-кривая, AUC.
· Примеры использования SVM в реальных проектах.
· Регуляризация модели SVM: L1, L2 регуляризация.
· Практические примеры и упражнения.
Решающие деревья
· Введение в решающие деревья: определение, цели и примеры.
· Основные понятия решающих деревьев: узел, лист, корень, глубина дерева, информационный критерий.
· Классификационные деревья: определение, формула и примеры.
· Регрессионные деревья: определение, формула и примеры.
· Процесс обучения решающего дерева: алгоритм построения дерева, критерии информативности, отбор признаков.
· Практические примеры и упражнения.
· Ограничения и проблемы решающих деревьев: переобучение, низкая устойчивость к шуму и выбросам.
· Решение проблем решающих деревьев: отсечение дерева, стрижка дерева, ансамблирование.
Ансамбли: Random Forest, XGBoost, CatBoost, LGBM
· Введение в ансамбли: определение, цели и примеры.
· Определение, принцип работы, алгоритм построения.
· Преимущества и недостатки Random Forest, XGBoost, CatBoost, LightGBM.
· Сравнение алгоритмов: какой выбрать для конкретной задачи.
· Bagging, boosting и stacking.
· Практические примеры и упражнения.
· Ограничения и проблемы ансамблей.
· Решение проблем ансамблей: калибровка вероятностей, настройка параметров.
· Заключение и дискуссия: обсуждение наиболее интересных и важных аспектов ансамблей в машинном обучении.
Обучение без учителя: t-SNE, PCA, K-Means
· Введение в обучение без учителя: определение, цели и примеры.
· Кластеризация: определение, принцип работы, алгоритмы кластеризации.
· Примеры задач кластеризации: сегментация покупателей, группировка новостей, идентификация образцов.
· Размерностьностьность: определение, проблемы, методы сокращения размерности.
· Метод главных компонент (PCA): определение, принцип работы, алгоритм, примеры применения.
· t-SNE: определение, принцип работы, алгоритм, примеры применения.
· K-Means: определение, принцип работы, алгоритм, примеры применения.
· Оценка качества в обучении без учителя.
· Недостатки и ограничения методов обучения без учителя.
· Практические примеры решения задач с помощью обучения без учителя.
· Обзор инструментов для работы с данными и реализации методов обучения без учителя.
Введение в нейросети и PyTorch
· Введение в нейросети: определение, история, принцип работы.
· Примеры задач, решаемых с помощью нейросетей: классификация изображений, распознавание речи, машинный перевод и другие.
· Основные компоненты нейросети: слои, функции активации, оптимизаторы и функции потерь.
· Введение в PyTorch: история, основные концепции, инструменты и преимущества.
· Тензоры в PyTorch: определение, типы, создание и преобразование тензоров.
· Операции в PyTorch: математические операции, операции с тензорами, генерация случайных чисел и другие.
· Создание и обучение нейросетей с помощью PyTorch: создание модели, определение функции потерь, выбор оптимизатора, обучение модели, оценка результатов.
· Обзор других фреймворков для работы с нейросетями: TensorFlow, Keras, Theano, Caffe и другие.
· Написание собственной реализации нейронной сети на PyTorch.
· Тенденции развития нейросетевых технологий и перспективы их применения в будущем.
Сверточные нейронные сети
· Введение в сверточные нейронные сети (CNN): определение, принцип работы и примеры применения.
· Архитектуры CNN: простые и глубокие модели, архитектура AlexNet, VGG, GoogLeNet, ResNet.
· Концепция свертки и пулинга: определение, виды свертки и пулинга, их роль в улучшении качества модели.
· Примеры задач, решаемых с помощью CNN: классификация изображений, распознавание лиц, обнаружение объектов и другие.
· Регуляризация в нейронных сетях: определение, принцип работы, L1 и L2 регуляризация.
· Dropout и Batch Normalization: определение, роль в регуляризации, примеры использования.
· Аугментация данных: определение, методы аугментации, их роль в улучшении качества модели.
· Обучение CNN с помощью PyTorch: создание модели, определение функции потерь, выбор оптимизатора, обучение модели, оценка результатов.
· Примеры решения задач с помощью CNN и PyTorch: классификация изображений с помощью CNN, распознавание лиц с помощью глубоких сверточных нейронных сетей.
· Тонкости использования PyTorch для обучения CNN: работа с GPU, сохранение и загрузка моделей, визуализация результатов и отладка.
· Обзор других фреймворков для работы с CNN: TensorFlow, Keras, Theano, Caffe и другие.
· Реализация своей собственной модели CNN на PyTorch.
· Тенденции развития CNN и перспективы их применения в будущем.
Transfer Learning
· Введение и понятие Transfer Learning
· Применение Transfer Learning в различных задачах
· Преимущества и недостатки Transfer Learning
· Предобученные модели для Computer Vision
· Предобученные модели для Natural Language Processing
· Fine-tuning предобученных моделей
· Реализация Transfer Learning на PyTorch на практике
· Практические примеры Transfer Learning в различных областях (Computer Vision, NLP)
· Ограничения и риски Transfer Learning в реальных проектах
· Best practices для использования Transfer Learning
Классическое NLP, эмбеддинги и BERT
· Введение в NLP, определение NLP и его применение
· Ключевые понятия: токенизация, лемматизация, стемминг, стоп-слова.
· Предобработка текста: очистка данных от шума и мусора; токенизация и обработка текста, извлечение признаков из текста.
· Векторные представления слов: one-hot encoding, embedding (Word2Vec, fastText, GloVe), Bag-of-Words (BoW), TF-IDF
· Рекуррентные нейронные сети (RNN)
· Что такое BERT и для чего его используют
· Архитектура BERT
· Обучение BERT на больших корпусах данных
· Примеры применения BERT в NLP.
· Использование BERT для классификации текстовых данных и задачи NER
Возможные направления дальнейшего изучения NLP.
Курс по хардкорному Machine Learning
Продолжительность
5 дней/40 академических часов
Модуль 1: Теоретические основы и подготовка данных (8 часов)
· Современные тренды и постановка сложных задач в ML. Обзор хардкорных методов, кейсы нестандартного применения
· Математическая база для продвинутого ML. Линейная алгебра, статистика, оптимизационные методы
· Продвинутая предобработка данных. Очистка, нормализация, обработка выбросов, трансформация признаков
· Методы визуализации и анализа данных. Использование matplotlib, seaborn, Plotly для глубокого анализа
· Практическое занятие: применение методов предобработки на реальных наборах данных
Модуль 2: Супервизированное обучение и алгоритмы оптимизации (10 часов)
· Продвинутые модели регрессии и классификации. Глубокий анализ алгоритмов: SVM, ансамбли (Bagging, Boosting)
· Алгоритмы оптимизации и методы регуляризации. Градиентный спуск, стохастический градиент, Adam, RMSprop; техники предотвращения переобучения
· Работа с дисбалансированными данными. Методы синтеза выборок и техники балансировки
· Кросс-валидация и оценка качества моделей. Подбор гиперпараметров, Grid Search, Random Search
· Практическое занятие: разработка и оптимизация модели для решения сложной бизнес-задачи
Модуль 3: Глубокое обучение и нейронные сети (10 часов)
· Архитектуры глубоких нейронных сетей. CNN, RNN, LSTM, Transformer – обзор и сравнительный анализ
· Трансферное обучение и дообучение предобученных моделей. Применение предобученных моделей в новых задачах
· Техники регуляризации в глубоких сетях. Dropout, Batch Normalization, Data Augmentation
· Работа с большими данными и распределённое обучение. Использование GPU и кластеров для ускорения обучения
· Практическое занятие: создание и обучение нейросетевой модели на реальных данных
Модуль 4: Нелинейные задачи: несупервизированное обучение и Reinforcement Learning (6 часов)
· Методы кластеризации и понижения размерности. K-means, иерархическая кластеризация, PCA, t-SNE, UMAP
· Обучение с подкреплением. Основы Q-Learning, Deep Q-Networks (DQN)
· Интеграция методов несупервизированного и RL. Комбинированные подходы для сложных задач
· Практическое занятие: применение алгоритмов несупервизированного обучения и RL на реальном кейсе
Модуль 5: Интеграция, интерпретация и применение моделей (6 часов)
· Интерпретация и объяснение решений моделей. Методы Explainable AI: LIME, SHAP, визуализация Grad-CAM
Интеграция ML-решений в производственные системы. Создание REST API для моделей, базовые принципы MLOps
Мониторинг и обновление моделей. отслеживание качества, реагирование на дрифт данных
Практическое занятие: разработка комплексного проекта с интеграцией и демонстрацией результатов
Машинное обучение на Python в реальных проектах
Продолжительность
5 дней/40 академических часов
Модуль 1: Введение в машинное обучение и подготовка данных (8 часов)
· Обзор машинного обучения в реальных проектах. Тренды, кейсы из индустрии и примеры успешных решений
· Python для ML: инструменты и библиотеки. Обзор экосистемы: scikit-learn, pandas, NumPy, matplotlib
· Сбор данных и источники информации. API, базы данных, веб-скрейпинг Предобработка и очистка данных. Трансформация, нормализация, обработка пропусков
· Визуализация данных для аналитики. Построение графиков с использованием matplotlib, seaborn, Plotly
· Практическое занятие: подготовка реального набора данных для последующего анализа
Модуль 2: Классические алгоритмы машинного обучения (10 часов)
· Супервизированное обучение: регрессия и классификация. Линейная регрессия, логистическая регрессия, SVM
· Деревья решений и ансамблевые методы. Random Forest, Gradient Boosting, XGBoost
· Несупервизированное обучение. Кластеризация (K-means, иерархическая кластеризация), понижение размерности (PCA)
· Оценка качества моделей. Кросс-валидация, метрики (точность, recall, F1-мера и др.) Практическое занятие: разработка модели для задачи предсказания оттока клиентов или другого бизнес-кейса
Модуль 3: Применение глубокого обучения в реальных проектах (10 часов)
· Основы нейронных сетей и глубокого обучения. Архитектура, функции активации, концепция обучения
· Создание нейронных сетей с TensorFlow и Keras. Построение, обучение и оптимизация моделей
· Обработка изображений и текста. Сверточные нейронные сети (CNN) и рекуррентные сети (RNN, LSTM)
· Интеграция OpenCV для задач компьютерного зрения. Предобработка изображений, детекция объектов, применение в проектах
· Практическое занятие: реализация проекта: разработка модели для распознавания образов или анализа текстовых данных
Модуль 4: Разработка end-to-end ML-решений (6 часов)
· Проектирование прототипа ML-проекта. Постановка задачи, определение KPI и бизнес-логики
· Интеграция модели в приложение. Создание REST API с использованием Flask или FastAPI
· Интеграция с бизнес-процессами. Автоматизация, обработка потоковых данных и A/B тестирование
· Практическое занятие: разработка прототипа решения с интеграцией ML-модели в веб-сервис
Модуль 5: MLOps и развёртывание моделей в продакшн (6 часов)
· Введение в MLOps. Принципы CI/CD, автоматизация и мониторинг ML-моделей
· Контейнеризация и облачные решения. Docker, Kubernetes и развёртывание на AWS, GCP или Azure
Мониторинг и обновление моделей. Методы отслеживания качества модели и реагирование на дрифт данных
Разработка систем искусственного интеллекта на Python
Продолжительность
5 дней/40 академических часов
Модуль 1: Основы Python для ИИ и введение в машинное обучение (8 часов)
· Введение в Python для искусственного интеллекта: особенности языка, экосистема и роль Python в разработке ИИ-систем.
· Установка и настройка среды разработки: PyCharm, Jupyter Notebook, VS Code – выбор и настройка инструментария.
· Основы синтаксиса Python: переменные, типы данных, операторы, функции и модули.
· Работа с библиотеками для обработки данных: NumPy и pandas: основы работы с массивами и табличными данными.
· Практическое занятие: разработка простых скриптов для анализа и визуализации данных.
Модуль 2: Методы машинного обучения и классические алгоритмы (10 часов)
· Основы машинного обучения: супервизорное и несупервизорное обучение, ключевые понятия и задачи.
· Алгоритмы классификации и регрессии: линейная регрессия, логистическая регрессия, SVM и их применение.
· Алгоритмы кластеризации и понижения размерности: K-средних, иерархическая кластеризация, применение PCA.
· Предобработка и подготовка данных: очистка, масштабирование, нормализация и разделение выборок.
· Практическое занятие: реализация моделей машинного обучения с использованием библиотеки scikit-learn.
Модуль 3: Глубокое обучение и нейронные сети (10 часов)
· Введение в глубокое обучение: ключевые концепции, отличие глубокого обучения от классических методов.
· Построение нейронных сетей: перцептроны, многослойные нейронные сети, функции активации.
· Работа с TensorFlow и Keras: создание, обучение и оценка моделей нейронных сетей.
· Современные архитектуры нейронных сетей: сверточные нейронные сети (CNN), рекуррентные нейронные сети (RNN), LSTM.
· Интеграция OpenCV для компьютерного зрения. Основы работы с OpenCV, предобработка изображений, детекция объектов.
· Практическое занятие: разработка модели глубокого обучения для задач компьютерного зрения или обработки последовательностей. Разработка модели глубокого обучения для задач компьютерного зрения с использованием OpenCV.
Модуль 4: Разработка специализированных систем ИИ: NLP и Reinforcement Learning (6 часов)
· Обработка естественного языка (NLP): основы NLP, токенизация, векторизация текста, использование NLTK и spaCy.
· Модели трансформеров и современные подходы в NLP: обзор моделей BERT, GPT и их применение в реальных задачах.
· Введение в обучение с подкреплением (Reinforcement Learning): основные принципы, алгоритмы Q-Learning и Deep Q-Networks.
· Практическое занятие: реализация модели для анализа текстов и/или создание базовой RL-системы.
Модуль 5: Интеграция и развёртывание систем ИИ (6 часов)
· Проектирование комплексного ИИ-решения: постановка задачи, сбор и подготовка данных, выбор алгоритмов.
· Интеграция моделей в приложения: разработка REST API с использованием Flask/Django, контейнеризация моделей.
· Введение в MLOps: CI/CD для моделей, мониторинг, обновление и оптимизация ИИ-систем.
· Тестирование и оптимизация: оценка производительности, профилирование и устранение узких мест.
Практическое занятие: разработка и презентация итогового проекта с развертыванием модели в реальном приложении.
Искусственный интеллект и Машинное обучение + Основы Python
Продолжительность
5 дней/40 академических часов
Модуль 1: Введение в Python для ИИ (8 часов)
· Установка среды разработки Python установка, Jupyter Notebook, Anaconda
· Базовые конструкции языка Python Переменные, типы данных, условные операторы, циклы
· Работа с функциями. Объявление функций, параметры, возвращаемые значения
· Коллекции данных. Списки, кортежи, множества, словари
· Обработка ошибок Try/except конструкции, создание собственных исключений
· Работа с файлами Чтение и запись данных, работа с CSV файлами
Модуль 2: Введение в Машинное обучение (10 часов)
· Что такое машинное обучение. Типы задач, основные термины и концепции
· Библиотеки для машинного обучения NumPy, Pandas, Matplotlib, Scikit-learn
· Алгоритмы классификации KNN, Логистическая регрессия, Naive Bayes
· Алгоритмы регрессии Линейная регрессия, Полиномиальная регрессия
· Кластеризация K-means, Hierarchical Clustering
· Оценка качества моделей. Метрики качества, кросс-валидация, confusion matrix
Модуль 3: Нейронные сети и глубокое обучение (10 часов)
· Введение в нейронные сети структура перцептрона, прямое распространение, обратное распространение
· TensorFlow и Keras. Установка, базовые концепции, создание простых моделей
· Архитектуры нейронных сетей. Полносвязные сети, свёртки, рекуррентные сети
· Обучение нейронных сетей Loss функции, оптимизаторы, batch size, epochs
· Обработка изображений CNN архитектуры, transfer learning
· Генеративные модели GAN, VAE, Style Transfer
Модуль 4: Реальный мир ИИ (8 часов)
· Анализ текстов NLP основы, токенизация, embedding'и
· Компьютерное зрение Object detection, segmentation, pose estimation
· Рекомендательные системы Collaborative filtering, content-based filtering
· Разработка чат-ботов Dialogflow, Rasa, Seq2Seq модели
· Этика ИИ проблемы Bias, Fairness, Privacy
· Деплоинг моделей Flask, FastAPI, Docker
Модуль 5: Проектная работа (4 часа)
· Выбор темы проекта. Формулировка проблемы, постановка задачи
· Подготовка данных. Сбор, очистка, предобработка данных
· Разработка модели. Выбор алгоритмов, обучение, оценка
· Оптимизация результатов Fine-tuning, hyperparameter tuning
Размещение кода проекта на GitHub, создание документации, формирование профессионального портфолио для дальнейшего использования
Введение в машинное обучение и анализ данных
Продолжительность 45 академических часов
Курс состоит из 15 занятий , каждое занятие по 3 ак. часа.
Анализ данных и машинное обучение (10 занятий):
· Основы питона (списки, словари, множества, строки и т. д.)
· Основы ООП (наследование, инкапсуляция, полиморфизм), best practice при написании кода
· Pandas, работа с DataFrame, срезы данных по условию, объединение таблиц (.join, merge(), concat())
· Типы задач машинного обучения (обучение с учителем, обучение без учителя). Решаемые с помощью машинного обучения задачи (классификация — бинарная и многоклассовая, кластеризация, регрессия, прогнозирование). Линейная регрессия. Метрики для оценки качества регрессии.
· Логистическая регрессия, метод опорных векторов, метод knn. Метрки для оценки качества решения задачи классификации.
· Модели используемые для решения задачи кластеризации: kmeans, DBSCAN, иерархическая кластеризация. Метрики для оценки качества кластеризации.
· Деревья решений и их ансамбли. Случайный лес и бустинги (Catboost, XGBoost, LightGBM)
· Временные ряды, свойства временных рядов. Авторегрессионные модели (AR, MA, ARMA, ARIMA, SARIMA и т. д.), модель GARCH, бустинги для прогнозирования временных рядов.
· Понятие искусственного нейрона. Полносвязные нейронные сети. Свёрточные нейронные сети (LeNet, VGG, ResNet, GoogleNet и некоторые другие).
· Работа с текстом. “Мешок слов” (Bag of Words). Токенизация, лемматизация и стемминг. BERT. Здадачи решаемые с помощью NLP.
Визуализация данных (библиотеки matplotlib, seaborn, plotly и дашборды) (3 занятия)
· Обзор библиотек matplotlib, seaborn
· Рассмотрение возможностей библиотеки plotly
· Построение дашбордов (plotly + Dash)
Инструменты вывода моделей в прод.(2 занятия)
· Обзор ML-flow
· Streamlit для разработки web-приложений для ML-моделей.
Статистическая обработка данных
Продолжительность
5 дней/40 академических часов
Тема 1. Введение в анализ данных. Случайные выборки и их представления.
Виды данных – количественные, порядковые и номинальные. Задачи анализа данных: классификация, группировка, прогнозирование, нахождение ассоциаций и зависимостей, визуализация. Основные разделы, на которых базируется анализ данных: статистика, базы данных и знаний, распознавание образов, искусственный интеллект. Сферы применения анализа данных: финансы и банковское дело, маркетинг, медицина, генетика, биоинформатика, интернет. Генеральная совокупность и случайная выборка. Понятие репрезентативной выборки. Выборочный метод. Дискретные и непрерывные признаки. Вариационные ряды. Таблицы частот. Группировка данных (формула Старжессона). Графическое представление выборки. Диаграммы частот. Полигоны, гистограммы и огивы.
Тема 2. Числовые характеристики и выборки.
Характеристики положения: среднее арифметическое (по выборке, по частотной таблице для дискретного распределения, по сгруппированным данным для непрерывного распределения), мода (по выборке, по частотной таблице для дискретного распределения, по сгруппированным данным для непрерывного распределения), медиана (по выборке, по частотной таблице для дискретного распределения, по сгруппированным данным для непрерывного распределения). Характеристики разброса: дисперсия (по выборке, по частотной таблице для дискретного распределения, по сгруппированным данным для непрерывного распределения), стандартное отклонение, дисперсия несмещенная (по выборке, по частотной таблице для дискретного распределения, по сгруппированным данным для непрерывного распределения), стандартное отклонение несмещенное, размах, квартили и интерквартильный размах. Характеристики формы: коэффициенты асимметрии (Спирмэна, Пирсона), эксцесс.
Тема 3. Статистическое оценивание.
Точечные оценки. Несмещенность, состоятельность и эффективность точечных оценок. Определение точечных оценок математических ожиданий случайных величин в условиях применения равноточных и неравноточных измерений. Определение точечных оценок дисперсии (среднего квадратического отклонения), момента связи, коэффициента корреляции и вероятности наступления случайного события. Наиболее важные законы распределения, их свойства. Законы распределения: равномерное, нормальное (гауссово), Стьюдента, «хи-квадрат», Фишера. Интервальные оценки. Доверительный интервал для оценки генеральной доли признака и генерального среднего. Определение интервальной оценки математического ожидания случайной величины в условиях известной и неизвестной дисперсии результатов наблюдений. Определение интервальных оценок для среднего квадратического отклонения случайной величины и вероятности наступления случайного события.
Тема 4. Проверка статистических гипотез.
Понятие статистической гипотезы. Простые и сложные гипотезы. Нулевая гипотеза и альтернативы. Понятие статистического критерия. Ошибки первого и второго рода. Уровень значимости и мощность критерия. Описание гипотез и критерии их проверки. Классический подход к проверке гипотез. Гипотезы о параметрах распределений. Критерий согласия Пирсона. Гипотеза о среднем нормальной выборки с известной дисперсией. Гипотеза о верности успеха в испытаниях Бернулли. Гипотеза о среднем нормальной выборки с неизвестной дисперсией. Гипотеза о равенстве средних двух нормальных выборок. Гипотеза о равенстве вероятностей успеха в двух сериях Бернулли. Гипотеза о дисперсии нормальной выборки. Р-подход к проверке гипотез. Классическая α-методика. Современная р-методика.
Тема 5. Элементы корреляционного анализа.
Коварация и корреляция случайных величин. Свойства коварации. Свойства корреляции. Выборочная коварация и корреляция. Проверка гипотезы об отсутствии корреляции. Основные задачи теории корреляции: определение формы и оценка тесноты связи. Виды корреляционной связи (парная и множественная, линейная и нелинейная). Ранговая корреляция, коэффициенты Спирмена и Кендалла.
Тема 6. Анализ временных рядов.
Понятие временного ряда. Виды временных рядов. Основные показатели изменения уровней временных рядов (уровень ряда, абсолютный прирост, темп роста, темп прироста). Компоненты временных рядов (тренд, сезонная компонента, циклическая компонента, случайная составляющая). Основные этапы анализа временных рядов. Анализ тренда. Анализ сезонности. Вычисление случайной компоненты.
Компьютерное моделирование
Продолжительность
5 дней/40 академических часов
1. Этапы построения, цели математического моделирования. Классификация моделей. Общая схема процесса принятия решений. Предмодельный анализ системы. Выбор плана исследований.Классификация задач принятия решений. Домашнее задание.
2. Понятие статистического эксперимента. Математические предпосылки создания имитационной модели. Метод Монте-Карло. Программные средства имитационного моделирования. Управление модельным временем. Оценка качества, адекватности и устойчивости, чувствительности имитационной модели. Подбор параметров распределений. Домашнее задание.
3. Планирование компьютерного эксперимента. Масштаб времени. Датчики случайных величин. Потоки, задержки, обслуживание. Риски и прогнозы. Стратегическое планирование имитационного эксперимента. Численный эксперимент. Домашнее задание.
4. Математические модели динамических систем. Основные этапы активной идентификации динамических систем. Общие требования, предъявляемые к оценкам параметров моделей динамических систем. Способы управления экспериментом при идентификации динамических систем. Домашнее задание.
5. Моделирование последовательностей независимых и зависимых случайных испытаний. Общий алгоритм моделирования ДСВ. Случайная функция (СФ), случайный процесс (СП). Конечномерные законы распределения СП. Понятие стохастической модели состояния. Эргодические процессы. Домашнее задание.
6. Марковские процессы с дискретными состояниями. Классификация состояний, периодичность состояний, возвратность. Времена перехода из состояний. Свойства матрицы переходных состояний. Графы состояний. Уравнения Колмогорова. Процесс гибели-размножения. Домашнее задание.
7. Марковские процессы с дискретными состояниями. Классификация состояний, периодичность состояний, возвратность. Времена перехода из состояний. Свойства матрицы переходных состояний. Графы состояний. Уравнения Колмогорова. Процесс гибели-размножения. Домашнее задание.
На домашние задания отводится 2-4 часа в зависимости от сложности реализуемой задачи.
Математика для Data Science. Методы оптимизации и алгоритмы анализа данных
Продолжительность
5 дней/40 академических часов
Модуль 1: Введение в методы оптимизации для Data Science (8 часов)
• Обзор современных задач Data Science, решаемых с помощью оптимизации (по состоянию на 2025 год).
• Основы оптимизации: выпуклые и невыпуклые функции, ограничения, целевые функции.
• Градиентный спуск и его вариации: стохастический градиентный спуск (SGD), Adam, RMSprop.
• Инструменты для оптимизации в Python: SciPy, NumPy, scikit-optimize.
• Практическое занятие: Реализация градиентного спуска для задачи минимизации функции (например, линейной регрессии) на синтетическом датасете.
Модуль 2: Продвинутые методы оптимизации (10 часов)
• Методы второго порядка: метод Ньютона, квази-ньютоновские методы (BFGS, L-BFGS).
• Стохастические и байесовские методы оптимизации: Bayesian Optimization для подбора гиперпараметров.
• Оптимизация с ограничениями: метод множителей Лагранжа, линейное программирование.
• Практическое занятие: Применение Bayesian Optimization для подбора гиперпараметров модели (например, для SVM) на датасете (например, Iris или синтетическом).
Модуль 3: Алгоритмы анализа данных: кластеризация и снижение размерности (8 часов)
• Кластеризация: k-means, DBSCAN, иерархическая кластеризация.
• Снижение размерности: PCA, t-SNE, UMAP для визуализации и анализа данных.
• Оценка качества кластеризации: метрики (Silhouette Score, Davies-Bouldin Index).
• Практическое занятие: Реализация кластеризации и снижения размерности на реальном датасете (например, датасет клиентов для сегментации).
Модуль 4: Алгоритмы классификации и прогнозирования (6 часов)
• Классификация: логистическая регрессия, SVM, деревья решений (без ансамблей).
• Прогнозирование: временные ряды, ARIMA, экспоненциальное сглаживание.
• Работа с большими данными: использование Dask для параллельных вычислений.
• Практическое занятие: Построение модели классификации (например, на датасете Titanic) и прогнозирование временного ряда (например, продажи).
Модуль 5: Интерпретация, внедрение и итоговый проект (8 часов)
• Интерпретация результатов: анализ важности признаков, визуализация (SHAP без нейросетей, коэффициенты регрессии).
• Автоматизация анализа данных: создание пайплайнов с scikit-learn и MLflow.
• Внедрение решений: создание REST API с FastAPI для аналитической модели.
• Практическое занятие: Итоговый проект — разработка и внедрение аналитического решения (например, сегментация клиентов или прогнозирование спроса) с последующим созданием API.
Теория вероятностей
Продолжительность
5 дней/40 академических часов
1. Комбинаторика, события, алгебра событий. Элементарные комбинаторные соотношения. Пространство элементарных событий, случайные события, алгебра событий. – 10 ч.
2. Вероятность. Классическое, статистическое (частотное) и геометрическое определение вероятности. Несовместные и независимые события. Условная вероятность. Законы сложения и умножения вероятностей. Формула полной вероятности, формула Байеса (теорема гипотез). – 8 ч.
3. Повторение испытаний. Схема Бернулли, наивероятнейшее число успехов. Полиномиальное распределение. Локальная и интегральная теоремы Муавра – Лапласа. Закон редких событий (Пуассона). – 8 ч.
4. Случайные величины (СВ). Типы СВ. Законы распределения СВ. Интегральная функция распределения СВ и ее свойства. Непрерывные СВ, плотность распределения и ее свойства. Характеристики положения СВ: мода, медиана, квантили и процентные точки. Числовые характеристики одномерных СВ. Начальные и центральные моменты СВ. Математическое ожидание и его свойства. Дисперсия и ее свойства. Коэффициенты асимметрии и островершинности распределения. – 6 ч.
5. Законы распределения случайных величин. Равномерный, показательный и нормальный законы распределения. Вероятность попадания на интервал, математическое ожидание, дисперсия, скос и эксцесс. Стандартное нормальное распределение. Функция надежности. – 4 ч.
6. Закон больших чисел. Неравенство Чебышева. Теоремы Чебышева, Маркова и Бернулли. Центральная предельная теорема. – 4 ч.
Математический анализ
Продолжительность
5 дней/40 академических часов
Тема 1. Множества
Основные черты математического мышления, аксиоматический подход, математические доказательства, прямая, обратная и противоположная теоремы. Индукция и дедукция, бином Ньютона. Элементы и множества, конечные и бесконечные множества, отношения и отображения. Операции над множествами. Понятие размерности, множества дробной размерности.
Тема 2. Числовая последовательность
Определение числовой последовательности. Монотонные последовательности, возрастающие и убывающие, невозрастающие и неубывающие, ограниченные и неограниченные числовые последовательности. Понятие верхней и нижней граней. Бесконечно большие и бесконечно малые последовательности, связь между ними.
Тема 3. Функция
Определение функции, область ее определения и область значений. Характеристики поведения функций: четность и нечетность, возрастание и убывание, наибольшее и наименьшее значения, ограниченность, периодичность. Основные элементарные функции, их свойства и графики. Замечательные кривые. Неявные функции. Сложные и обратные функции, их графики.
Тема 4. Предел функции
Предел функции в точке. Предел функции на бесконечности. Предел слева и справа. Свойства пределов: арифметические действия над функциями, имеющими пределы, предельные переходы в неравенствах функций, имеющих пределы.
Тема 5. Непрерывность функции
Непрерывность функции, непрерывность слева и справа. Выколотая точка, точки разрыва первого и второго рода. Арифметические действия над непрерывными функциями, непрерывность сложной функции. Свойства непрерывных функций.
Тема 6. Производная и дифференциал
Приращение функции, производная, дифференцируемость функции. Непрерывность дифференцируемой функции. Геометрический смысл производной, уравнения касательной и нормали. Дифференциал функции, его геометрический смысл. Правила дифференцирования. Формулы дифференцирования основных элементарных функций. Производные сложной и обратной функции. Логарифмическое дифференцирование. Производная от неявной функции. Дифференцирование функций, заданных параметрически. Производные и дифференциалы высших порядков. Правило Лопиталя.
Тема 7. Возрастание и убывание функции. Локальные экстремумы
Достаточный признак возрастания (убывания) функции одной переменной. Экстремумы функции (максимум и минимум). Необходимое условие экстремума, достаточные признаки экстремума. Наибольшее и наименьшее значения функции на отрезке.
Тема 8. Вогнутость и выпуклость функции. Точки перегиба
Определение выпуклой (вогнутой) функции, и точки перегиба графика функции. Необходимое условие точки перегиба. Достаточные признаки вогнутости (выпуклости) и наличия точек перегиба. Касательная к графику функции в точке перегиба.
Тема 9. Применение дифференциального исчисления для исследования функций и построения их графиков
Асимптоты графика функции (вертикальная, горизонтальная, наклонная). Понятие об асимптотическом разложении. Общая схема исследования функции и построения ее графика.
Тема 10. Неопределённые интегралы
Первообразная, неопределенный интеграл, его свойства. Замена переменной в неопределенном интеграле. Формула интегрирования «по частям». Интегрирование простейших рациональных дробей. Разложение правильной рациональной дроби на простейшие: случаи неповторяющихся линейных действительных множителей знаменателя и неповторяющихся квадратичных его множителей. Интегрирование тригонометрических и простейших иррациональных функций.
Тема 11. Определенные интегралы
Интегральные суммы Римана и Дарбу. Определенный интеграл, его геометрический смысл, свойства. Необходимое и достаточное условие интегрируемости. Геометрический смысл определенного интеграла. Теорема о среднем. Формула Ньютона-Лейбница. Формулы замены переменной и интегрирования «по частям» для определенного интеграла. Применение определенного интеграла к вычислению площадей плоских фигур, длин дуг кривых, объёмов тел вращений. Методы приближенных вычислений определенных интегралов по формулам прямоугольников, трапеций и Симпсона.
Тема 12. Несобственные интегралы
Несобственные интегралы с бесконечными пределами и от неограниченных функций, их основные свойства. Признаки сходимости несобственных интегралов.
Тема 13. Числовые ряды
Понятие числового ряда, частичные суммы, определение сходимости и расходимости числового ряда. Сумма числового ряда как предел последовательности частичных сумм. Сумма членов бесконечной убывающей геометрической прогрессии. Свойства сходящихся рядов. Критерий Коши. Необходимое условие сходимости ряда. Гармонический ряд.
- Учитель: Ольга Горохова
- Учитель: Максим Лапшев
Генеративные нейросети в маркетинге
Нейросети в маркетинге: как использовать ИИ для контента, аналитики и дизайна
"Научитесь работать с ИИ без ошибок и лишних затрат — от генерации текстов до анализа данных"
Для кого этот курс:
✔️ Маркетологи, которые хотят внедрить ИИ в создание контента и аналитику.
✔️ Предприниматели, стремящиеся автоматизировать рутину и сократить расходы.
✔️ Дизайнеры и копирайтеры, желающие ускорить работу с помощью нейросетей.
✔️ Новички в ИИ, которые хотят разобраться в инструментах без сложных терминов.
Почему стоит начать?
Вы узнаете:
→ Как правильно формулировать запросы, чтобы ИИ понимал вас с первого раза.
→ Какие бесплатные инструменты экономят время и дают профессиональный результат.
→ Как комбинировать сервисы для сложных задач: от генерации идей до готовых креативов.
Чему вы научитесь:
✅ Работать с нейросетями — даже если никогда не пробовали.
✅ Решать реальные задачи — создавать тексты, изображения, анализировать данные.
✅ Встраивать ИИ в процессы — от маркетинга до дизайна.
Формат:
• Практические видеоуроки на основе реальных кейсов.
• Доступ к курсу навсегда + обновления материалов.
• Закрытое комьюнити для обмена опытом.
Результат:
Вы сможете создавать контент и креативы намного быстрее. ИИ станет вашим надежным помощником, а не сложной технологией, которая работает против вас.
Начните сейчас — превратите ИИ из загадки в мощный инструмент для работы!