Data Fabric
Data Fabric (фабрика данных) – архитектура построения работы с информацией, которая предоставляет конечному потребителю множество возможностей по настройке и администрированию.
Главная особенность новых DF заключается в интенсивном использовании алгоритмов и инструментария нейронных сетей, которые предоставляют функции Big Data и AI (искусственного интеллекта), а также Machine Learning (машинного обучения) для организации наиболее оптимальных схем менеджмента данными.
Под архитектурой обычно понимают замкнутую (автономную) экосистему, которая обеспечивает сотрудникам организации доступ к корпоративной информации, а не определенную площадку от конкретного производителя программного обеспечения.
[text_with_btn btn=”Узнать больше” link=”/ru-ru/solutions/tech-partners/netapp/” btn_size=”small”]Оборудование NetApp[/text_with_btn]Data Fabric в современных компаниях: особенности и преимущества
Архитектура фабрики данных возникла на фоне активного применения взаимодействия крупными предприятиями с большими объемами информации в условиях стандартных ограничений, касающихся управленческих процессов.
Современные Data Fabric позволяют эффективно справляться с основными задачами в плане хранения и обработки разрозненной информации. При помощи Data Fabric такую информацию стало легче искать, обрабатывать, структурировать и интегрировать с другими системами ИТ-инфраструктуры.
Крайне остро в любых корпоративных средах стоят вопросы, связанные с ИБ. В этом плане DF также выгодно выделяется на фоне альтернативных вариантов, так как позволяет:
- обеспечить надежную защиту информации;
- реализовать управление информацией стандартными открытыми интерфейсами API;
- максимально гибко и тонко настраивать доступ к информации для отдельных категорий пользователей сети.
Архитектура DF нацелена на максимальную прозрачность в процессах анализа, модернизации, интеграции, а также изменению потока данных под конкретными требованиями текущих бизнес-сервисов.
Data Fabric — цифровизация DataOps-процессов
Под фабрикой данных подразумевается следующий обязательный набор характеристик и процессов:
- Поэтапная обработка входящих потоков данных включает в себя обязательное участие искусственного интеллекта. Он помогает оптимизировать алгоритмы обработки, быстрее анализирует информацию, выделяя наиболее важные аспекты.
- Источники данных, используя возможности современных графических интерфейсов (API), получают сквозную интеграцию (в том числе и базы/хранилища данных Data Lake).
- В качестве замены единого блока программных платформ используются микросервисные архитектуры.
- В корпоративной ИТ-среде используется наибольшее число возможных облачных решений.
- Информационные потоки оркестрируются.
- Качество информации повышается после унификации и виртуализации.
- Независимо от типа и объема источника данных к нему предоставляется быстрый доступ (из баз данных, хранилищ данных, корпоративных озер данных и т. д.).
- Обеспечение безопасного и разграниченного доступа внутри компании (разным группам пользователей) для обработки информации. Параллельно присутствует гибкая настройка прав каждого сотрудника организации к информационным ресурсам для каждой группы клиентов на корпоративном уровне.
Архитектура DF специально разработана под технологию DataOps, при помощи которой фиксируются любые изменения в хранилище данных. В итоге компания получает эффективный уровень прогнозирования для дальнейшего развития бизнес-планов.
Использование искусственного интеллекта помогает оптимизировать сервисы хранения и обработки данных, а также повысить качество обслуживания информационных ресурсов и аппаратных средств.