На предыдущую страницу
#Виртуализация

Data Fabric

Data Fabric (фабрика данных) – архитектура построения работы с информацией, которая предоставляет конечному потребителю множество возможностей по настройке и администрированию.

Главная особенность новых DF заключается в интенсивном использовании алгоритмов и инструментария нейронных сетей, которые предоставляют функции Big Data и AI (искусственного интеллекта), а также Machine Learning (машинного обучения) для организации наиболее оптимальных схем менеджмента данными.

Под архитектурой обычно понимают замкнутую (автономную) экосистему, которая обеспечивает сотрудникам организации доступ к корпоративной информации, а не определенную площадку от конкретного производителя программного обеспечения.

Оборудование NetApp

Data Fabric в современных компаниях: особенности и преимущества

Архитектура фабрики данных возникла на фоне активного применения взаимодействия крупными предприятиями с большими объемами информации в условиях стандартных ограничений, касающихся управленческих процессов.

Современные Data Fabric позволяют эффективно справляться с основными задачами в плане хранения и обработки разрозненной информации. При помощи Data Fabric такую информацию стало легче искать, обрабатывать, структурировать и интегрировать с другими системами ИТ-инфраструктуры.

Крайне остро в любых корпоративных средах стоят вопросы, связанные с ИБ. В этом плане DF также выгодно выделяется на фоне альтернативных вариантов, так как позволяет:

  • обеспечить надежную защиту информации;
  • реализовать управление информацией стандартными открытыми интерфейсами API;
  • максимально гибко и тонко настраивать доступ к информации для отдельных категорий пользователей сети.

Архитектура DF нацелена на максимальную прозрачность в процессах анализа, модернизации, интеграции, а также изменению потока данных под конкретными требованиями текущих бизнес-сервисов.

Data Fabric — цифровизация DataOps-процессов

Под фабрикой данных подразумевается следующий обязательный набор характеристик и процессов:

  • Поэтапная обработка входящих потоков данных включает в себя обязательное участие искусственного интеллекта. Он помогает оптимизировать алгоритмы обработки, быстрее анализирует информацию, выделяя наиболее важные аспекты.
  • Источники данных, используя возможности современных графических интерфейсов (API), получают сквозную интеграцию (в том числе и базы/хранилища данных Data Lake).
  • В качестве замены единого блока программных платформ используются микросервисные архитектуры.
  • В корпоративной ИТ-среде используется наибольшее число возможных облачных решений.
  • Информационные потоки оркестрируются.
  • Качество информации повышается после унификации и виртуализации.
  • Независимо от типа и объема источника данных к нему предоставляется быстрый доступ (из баз данных, хранилищ данных, корпоративных озер данных и т. д.).
  • Обеспечение безопасного и разграниченного доступа внутри компании (разным группам пользователей) для обработки информации. Параллельно присутствует гибкая настройка прав каждого сотрудника организации к информационным ресурсам для каждой группы клиентов на корпоративном уровне.

Архитектура DF специально разработана под технологию DataOps, при помощи которой фиксируются любые изменения в хранилище данных. В итоге компания получает эффективный уровень прогнозирования для дальнейшего развития бизнес-планов. 

Использование искусственного интеллекта помогает оптимизировать сервисы хранения и обработки данных, а также повысить качество обслуживания информационных ресурсов и аппаратных средств.

Оцените данную статью
Пользуясь нашим сайтом, вы соглашаетесь с тем, что мы используем cookies