Создание масштабируемой инфраструктуры для AI/ML на базе GPU Cloud
В последние годы графические ускорители (GPU) стали незаменимыми инструментами для выполнения ресурсоемких задач, связанных с машинным обучением (ML), искусственным интеллектом (AI), рендерингом графики. С переходом на облачные решения использование GPU становится более гибким и масштабируемым. Однако выбор правильного GPU и подхода к его использованию требует глубокого понимания различных архитектур.
На совместном вебинаре ITGLOBAL.COM и Ainergy эксперты компаний помогут разобраться в особенностях GPU и выбрать оптимальную конфигурацию под конкретные задачи проекта. Теоретический блок мы дополним кейсом компании Ainergy по запуску AI-платформы на базе GPU Cloud.
На вебинаре вы узнаете:
- Какие задачи лучше всего решаются с помощью GPU: от ML и AI до рендеринга и 3D VDI.
- Почему облачные решения становятся предпочтительными для работы с GPU: особенности и преимущества облачной инфраструктуры.
- Какие графические ускорители доступны в облаке и чем они отличаются: A16, A800, L40S, HGX H100 — их архитектурные особенности и сценарии применения.
- Как компания Ainergy реализовала AI-экосистему на базе GPU Cloud: критерии при выборе инфраструктуры, изменение потребностей в ресурсах по мере роста проекта, инсайты и результаты использования.
Для кого
- ИТ-директорам
- Специалистам по облачным технологиям
- Разработчикам и инженерам по ML/AI
- Специалистам по графике и рендерингу
Спикеры
- Андрей Волкодав, архитектор решений ITGLOBAL.COM
- Константин Кудряшов, директор по ИИ инфраструктуре Ainergy