News
Latest news and updates from DSML Kazakhstan community
Stay up to date with the latest events
Свежая новость
20 май 2025

Уже послезавтра Асель Ермекова расскажет про статью где она является одним из авторов — Improved Sampling Algorithms for Lévy-Itô Diffusion Models
Недавно было показано, что модели диффузии Леви-Ито с изотропным α-устойчивым шумом улучшают генерацию изображений на несбалансированных данных. Однако используемые алгоритмы выборки решают лишь приближённые обратные уравнения, что снижает качество. В этой статье мы предлагаем семейство стохастических дифференциальных уравнений с идентичными маргинальными распределениями и показываем, что выбор параметров улучшает качество при небольшом числе шагов обратной диффузии. Также мы демонстрируем применимость моделей Леви-Ито в разных областях и преимущества тексто-речевых моделей на сильно несбалансированных данных.
На встрече мы обсудим:
- Что такое диффузионная модель?
- Основные постановки диффузионных моделей
- Недостатки классической диффузии на гауссовских процессах и зачем нужны леви диффузии
- Методы сэмплирования леви-диффузий
• Thu, May 22, 11:00 KZ Time
• Добавить в календарь
• Google Meet
• Host: Yelaman Abdullin
Свежая новость
17 май 2025

Ануар Таскынов рассказал про Visual Geometry Grounded Transformer
VGGT — это foundation-модель нового поколения для задач 3D компьютерного зрения. Она способна по одному, нескольким или даже сотням изображений сцены сразу предсказывать ключевые 3D характеристики: параметры камеры, карты глубины, плотные облака точек и трекинг в 3D.
В отличие от традиционных подходов, VGGT работает как единая универсальная модель без необходимости в сложной постобработке, оставаясь при этом быстрой (менее 1 секунды на реконструкцию) и точной — она показывает SOTA-результаты по нескольким 3D задачам.
Хост семинара: Еламан Абдуллин
Скачать презентацию
Смотреть видео: youtube.com/watch?v=TVZoU1m5WKI
Свежая новость
16 май 2025

Еламан Абдуллин рассказал про Byte Latent Transformer
Современные LLM опираются на токенизацию, что ограничивает их гибкость, снижает эффективность и делает их уязвимыми к редким и неформатным входам. Статья предлагает Byte Latent Transformer (BLT) — новую архитектуру, работающую напрямую с байтами. BLT использует динамические патчи, адаптирующиеся к сложности данных, и впервые достигает сравнимого с токенизированными моделями качества при лучшей эффективности и масштабируемости.
Смотреть видео: youtu.be/JN-adAvbAcs