Перейти к содержимому

Gpfs что это такое

  • автор:

General Parallel File System

General Parallel File System (GPFS, Общая параллельная файловая система) — высокопроизводительная кластерная файловая система, разработанная IBM. GPFS отличается от других кластерных файловых систем возможностью одновременного высокоскоростного доступа к файлам для приложений, выполняющихся на нескольких узлах кластера под управлением операционных систем AIX 5L, Linux или гетерогенного кластера из узлов на AIX, Linux и Windows. Помимо возможностей хранения данных, GPFS предоставляет инструменты для управления и администрирования GPFS-кластера и позволяет осуществлять совместный доступ к файловым системам с удалённых GPFS-кластеров.

GPFS предоставляет высокопроизводительный доступ к данным как для одного узла, так и для множества. Самая большая существующая на данный момент конфигурация состоит из 2000 узлов. [источник не указан 869 дней] GPFS доступна для AIX с 1998 года, на Linux с 2001 года и на Windows с 2009 года.

История

GPFS изначально разрабатывалась как Tiger Shark file system в 1993 году в исследовательском центре IBM Almaden Research Center. Первый коммерческий релиз GPFS состоялся в 1998 году.

GPFS изначально проектировалась для поддержки мультимедиа-приложений, требовательных к полосе пропускания. Такой дизайн хорошо подходит для научных вычислений. Сегодня GPFS используется на многих суперкомпьютерах из списка 500 самых мощных. С самого начала GPFS была успешно использована для множества коммерческих приложений.

Ссылки

  • Официальная страница (англ.)
  • GPFS на SourceForge
Оптические диски ISO 9660 • UDF
Флеш-память/SSD FAT • exFAT (FAT64) • TFAT • FFS2 • JFFS • JFFS2 • LogFS • NVFS • UDF • YAFFS
Кластерные Files-11 • GFS • OCFS • QFS • Xsan • Больше.

GPFS — GPFS

IBM Spectrum Scale, ранее Общая параллельная файловая система (GPFS ) — это высокопроизводительное программное обеспечение кластерной файловой системы, разработанное IBM. Его можно развернуть в распределенных параллельных режимах shared-disk или shared-nothing или в их комбинации. Он используется многими крупнейшими коммерческими компаниями мира, а также некоторыми из суперкомпьютеров из Top 500 List. Например, это файловая система Summit в Национальной лаборатории Ок-Ридж, которая была самым быстрым суперкомпьютером в мире в списке суперкомпьютеров Top500 за ноябрь 2019 года. Summit — это система на 200 петафлопс, состоящая из более чем 9000 микропроцессоров IBM POWER и 27000 графических процессоров NVIDIA Volta. Файловая система хранения под названием Alpine имеет 250 ПБ хранилища с использованием Spectrum Scale на оборудовании хранения IBM ESS, способное примерно на 2,5 ТБ / с для последовательного ввода-вывода и 2,2 ТБ / с для случайного ввода-вывода.

Как и типичные файловые системы кластера, IBM Spectrum Scale обеспечивает одновременный высокоскоростной доступ к файлам для приложений, выполняющихся на нескольких узлах кластера. Его можно использовать с кластерами AIX, Linux кластерами, на Microsoft Windows Server или с гетерогенным кластером узлов AIX, Linux и Windows, работающим на Архитектуры процессоров x86, POWER или IBM Z. Помимо предоставления возможностей хранения файловой системы, он предоставляет инструменты для управления и администрирования кластера IBM Spectrum Scale и обеспечивает совместный доступ к файловым системам с удаленных кластеров.

  • 1 История
  • 2 Архитектура
    • 2.1 Сравнение с распределенной файловой системой Hadoop (HDFS)

    История

    IBM Spectrum Scale началась как файловая система Tiger Shark, исследовательский проект IBM Almaden Research Center еще в 1993 году. Tiger Shark изначально был разработан для поддержки высокой пропускной способности мультимедийные приложения. Оказалось, что эта конструкция хорошо подходит для научных вычислений.

    Еще одним предком является файловая система IBM Vesta, разработанная в качестве исследовательского проекта в Исследовательском центре Томаса Дж. Уотсона IBM в период с 1992 по 1995 год. Vesta представила концепцию разделения файлов для удовлетворения потребностей параллельных приложений, работающих на высокопроизводительных мультикомпьютерах с подсистемами параллельного ввода-вывода. При разделении файл представляет собой не последовательность байтов, а несколько непересекающихся последовательностей, к которым можно обращаться параллельно. Разделение таково, что оно абстрагирует количество и тип узлов ввода-вывода, на которых размещена файловая система, и позволяет создавать различные логически разделенные представления файлов, независимо от физического распределения данных в узлах ввода-вывода. Непересекающиеся последовательности организованы таким образом, чтобы соответствовать отдельным процессам параллельного приложения, что позволяет улучшить масштабируемость.

    Vesta была коммерциализирована как файловая система PIOFS примерно в 1994 году, а примерно в 1998 году на смену ей пришла GPFS. и более новые файловые системы заключались в том, что GPFS заменила специализированный интерфейс, предлагаемый Vesta / PIOFS, на стандартный Unix API : все функции для поддержки высокопроизводительного параллельного ввода-вывода были скрыты от пользователей и реализованы

    Spectrum Scale доступен на IBM AIX с 1998 года, в Linux с 2001 года и на Windows Server с 2008 года.

    Сегодня он используется многие из 500 лучших суперкомпьютеров вошли в список 500 лучших суперкомпьютеров. С момента своего создания он был успешно развернут для многих коммерческих приложений, включая цифровые мультимедиа, сеточную аналитику и масштабируемые файловые службы.

    В 2010 году IBM анонсировала версию GPFS, которая включала возможность, известную как GPFS-SNC, где SNC означает кластер без общего доступа. Он был официально выпущен с GPFS 3.5 в декабре 2012 года и теперь известен как FPO (оптимизатор размещения файлов). Это позволяет ему использовать локально подключенные диски в кластере серверов, подключенных к сети, вместо того, чтобы требовать выделенных серверов с общими дисками (например, с использованием SAN). FPO подходит для рабочих нагрузок с высокой локальностью данных, таких как кластеры баз данных без совместного использования, такие как SAP HANA и DB2 DPF, и может использоваться в качестве файловой системы, совместимой с HDFS.

    Архитектура

    Это кластерная файловая система. Он разбивает файл на блоки заданного размера, менее 1 мегабайта каждый, которые распределяются по нескольким узлам кластера.

    Система хранит данные на стандартных томах блочного хранилища, но включает в себя внутренний уровень RAID, который может виртуализировать эти тома для избыточности и параллельного доступа, подобно системе блочного хранилища RAID. Он также имеет возможность репликации между томами на более высоком файловом уровне.

    Особенности архитектуры включают

    • Распределенные метаданные, включая дерево каталогов. Не существует единого «контроллера каталогов» или «сервера индекса», отвечающего за файловую систему.
    • Эффективное индексирование записей каталогов для очень больших каталогов.
    • Распределенная блокировка. Это позволяет использовать полную семантику файловой системы POSIX, включая блокировку эксклюзивного доступа к файлам.
    • Partition Aware. Сбой сети может разделить файловую систему на две или более групп узлов, которые могут видеть только узлы своей группы. Это может быть обнаружено с помощью протокола пульса, и когда возникает раздел, файловая система остается активной для самого большого сформированного раздела. Это обеспечивает постепенную деградацию файловой системы — некоторые машины будут продолжать работать.
    • Обслуживание файловой системы может выполняться онлайн. Большинство рутинных операций по обслуживанию файловой системы (добавление новых дисков, перебалансировка данных на дисках) можно выполнять, пока файловая система работает. Это обеспечивает более частую доступность файловой системы, поэтому сам кластер суперкомпьютера остается доступным дольше.

    Другие функции включают высокую доступность, возможность использования в гетерогенном кластере, аварийное восстановление, безопасность, DMAPI, HSM и ILM.

    по сравнению с Hadoop Distributed File System (HDFS)

    файловой системой HDFS Hadoop, предназначен для хранения аналогичных или больших объемов данных на стандартном оборудовании — то есть центры обработки данных без дисков RAID и сети хранения данных (SAN).

    • HDFS также разбивает файлы на блоки и сохраняет их на разных узлах файловой системы.
    • IBM Spectrum Scale имеет полную семантику файловой системы Posix.
    • IBM Spectrum Scale распределяет индексы своих каталогов и другие метаданные через файловую систему. Hadoop, напротив, сохраняет это на первичном и вторичном узлах имен, больших серверах, которые должны хранить всю индексную информацию в оперативной памяти.
    • IBM Spectrum Scale разбивает файлы на небольшие блоки. Hadoop HDFS любит блоки размером 64 МБ и более, так как это снижает требования к хранилищу Namenode. Небольшие блоки или множество небольших файлов быстро заполняют индексы файловой системы, поэтому ограничьте размер файловой системы.

    Управление жизненным циклом информации

    Пулы хранения позволяют группировать диски в файловой системе. Администратор может создавать уровни хранения, группируя диски по характеристикам производительности, местоположения или надежности. Например, один пул может состоять из высокопроизводительных дисков Fibre Channel, а другой — более экономичного хранилища SATA.

    Набор файлов — это поддерево пространства имен файловой системы, которое позволяет разделить пространство имен на более мелкие и более управляемые единицы. Наборы файлов обеспечивают административную границу, которую можно использовать для установки квот и указать в политике для управления начальным размещением данных или переносом данных. Данные в одном наборе файлов могут находиться в одном или нескольких пулах хранения. Расположение файловых данных и способ их переноса зависит от набора правил в определяемой пользователем политике.

    Существует два типа определяемых пользователем политик: размещение файлов и управление файлами. Политики размещения файлов направляют данные файлов по мере их создания в соответствующий пул хранения. Правила размещения файлов выбираются по таким атрибутам, как имя файла, имя пользователя или набор файлов. Политики управления файлами позволяют перемещать или реплицировать данные файла или удалять файлы. Политики управления файлами можно использовать для перемещения данных из одного пула в другой без изменения расположения файла в структуре каталогов. Политики управления файлами определяются атрибутами файла, такими как время последнего доступа, имя пути или размер файла.

    Механизм обработки политик является масштабируемым и может запускаться на многих узлах одновременно. Это позволяет применять политики управления к одной файловой системе с миллиардами файлов и завершать ее за несколько часов.

    См. Также

    • Alluxio
    • Кластерная файловая система ASM (ACFS)
    • BeeGFS
    • GFS2
    • Gluster
    • Google File System
    • Список файловых систем
    • Lustre (файловая система)
    • MapR FS
    • MooseFS
    • OCFS2
    • QFS
    • IBM Scale-out File Services — NAS-grid
    • Файловая система с общим диском
    • Veritas Cluster Server
    • ZFS

    Ссылки

    Внешние ссылки

    • IBM Spectrum Scale at Almaden
    • Группа пользователей Spectrum Scale
    • Документация по продукту IBM Spectrum Scale

    Gpfs что это такое

    Продолжение. Начало здесь.

    IBM Spectrum Scale

    IBM Spectrum Scale – это решение, созданное на основе файловой системы IBM General Parallel File System (GPFS), способно масштабировать ёмкость и производительность для аналитических систем, репозиториев контента и других задач.

    Когнитивные механизмы IBM Spectrum Scale умеют распределять данные среди различных устройств хранения, тем самым оптимизируя использование доступной емкости, упрощая администрирование и обеспечивая высокую производительность. IBM Spectrum Scale поддерживает глобального пространства имен с универсальным доступом, которое объединяет современные средства для работы с файлами, размещенных в сетевых файловых системах (NFS), блочные хранилища и серверы со встроенными хранилищами данных большого объема. Файловая система IBM Spectrum Scale может использоваться для работы с файлами (POSIX, NFS, CIFS), объектами (S3, SWIFT) и распределенной файловой системой Hadoop (HDFS) при решении задач анализа больших данных на месте хранения.

    Задачи и возможности IBM Spectrum Scale.

    Свойства IBM Spectrum Scale

    Хорошая масштабируемость, которая позволяет обеспечивать максимальную пропускную способность и минимальные задержки при доступе.

    Аналитика с учетом данных, которая позволяет автоматически переносить данные на оптимальный уровень хранения (флеш, диск, кластер, лента), что позволяет до 90% снизить расходы на архивирование данных.

    Автоматическое размещение данных по уровням в файловой системе IBM Spectrum Scale.

    Распределённость, то есть, возможность доступа к данным из любого места, ускоряет работу приложений по всему миру, за счёт технологии распределённого кэширования и активного управления файлами.

    Безопасность данных, технологии идентификация, шифрования, защиты Erasure Coding и репликации позволяют достичь соответствия регулятивным требованиям.

    Универсальность, единое решение для управления масштабируемым хранилищем данных, обеспечивающее унификацию виртуализации, поддержки аналитических сред, обработки файлов и объектов.

    Прозрачные политики хранения делают возможным сжатие и многоуровневое хранение данных на ленточных накопителях или в облаке, с целью сокращения расходов. Размещение данных с учетом места их использования уменьшает задержки и увеличивает производительность работы с данными.

    Интеллектуальное кэширование данных, технология Active File Management (AFM) распространяет глобальное пространство имен Spectrum Scale за пределы географических границ, обеспечивая высокую производительность при чтении и записи данных и автоматическое управление пространством имен. Данные записываются или изменяются локально и в других местах эти данные получают с минимальной задержкой.

    Графический интерфейс IBM Spectrum Scale GUI обеспечивает простое администрирование объёмов данных уровня петабайт различных типов: файловых, объектных или блочных.

    IBM Spectrum Scale – это хорошо зарекомендовавшее себя масштабируемое решение по администрированию данных, которое ранее называлось GPFS (General Parallel File System). Начиная с версии 4.1, это решение называется Spectrum Scale. Однако, версии до 4.1 будут поддерживаться под старым названием GPFS.

    Основные характеристики

    • Практически неограниченный объём хранения данных до нескольких йоттабайт и до девяти квинтиллионов файлов.
    • Высокая производительность более 400 ГБ/с, и одновременный доступ к общим наборам данных из нескольких доменов пользователей.
    • Программно-конфигурируемая СХД, которая позволяет:
      • масштабирование на относительно недорогом коммерчески доступном оборудовании COTS (Commercial Of The Shelf), при обеспечении возможностей управления хранением данных с их высокой доступностью;
      • использование любых комбинаций носителей: флеш-накопителей, дисков и лент;
      • использование различных моделей кластеров, которые включает SAN (storage area networks), Network Shared Disk, и кластеры Shared Nothing;
      • добавление ёмкости без влияния на работу запущенных приложений.

      Применения

      Spectrum Scale используется уже более 15 лет во многих отраслях экономики во всём мире, и в таких областях, требовательных к объёму и производительности обработки данных, как:

      • Инженерный дизайн;
      • Медиа и СМИ(радио и ТВ, контент провайдеры);
      • Нефтегаз: обработка и аналитика данных сейсморазведки;
      • Умные города: видеонаблюдение и видеоаналитика;
      • Автомобили: краштесты, системы помощи водителю и беспилотные автомобили;
      • Оборона и авиация (запись полётных данных);
      • Архивация спутниковых изображений;
      • Телеком: хранение данных вызовов CDR (Call detail records);
      • Банкинг и финансовый сектор: отчётность, обработка чековых данных;
      • Бизнес-аналитика (Business intelligence);
      • Поиск и сопоставление нужной информации в массивах данных (Data mining);
      • Научные исследования;
      • Когнитивные приложения Интернета Вещей, такие как IBM Watson™.

      Функциональные возможности

      • Увеличение эффективности использования ресурсов за счёт объединения в пулы изолированных ранее ресурсов.
      • Интеллектуальное использование ресурсов и автоматизация администрирования СХД снижает стоимость хранения и повышает операционную эффективность, возможности автоматизации политик уровневого хранения.
      • Разнообразные возможности конфигурации для оптимизации производительности, гибкости и надёжности, устранения отказов типа «single point-of-failure», а также автоматизации операций для быстрой замены отказавшего диска или устранения сбоя сервера.
      • Катастрофоустойчивость за счет возможности работы на множестве распределённых сайтов, подключенных к локальному кластеру Spectrum Scale (Disaster Recovery).
      • Кросс-платформенное решение, которое может работать на многих операционных системах. Кластеры Spectrum Scale можно создавать на узлах AIX, Linux и Windows server, причем в одной системе могут работать все три ОС (а также на IBM System Z®).
      • Оперативность реакции на события и появление новых требований, быстрое развёртывание необходимых ресурсов.

      Основные компоненты системы

      • Кластер (Cluster). Кластер состоит из нескольких узлов, а также общих сетевых дисков NSD (network shared disks). Он может быть сконфигурирован в серверном репозитории (конфигурационной базе данных), где хранятся файлы конфигурации кластера. При конфигурации кластеру должен быть назначен первичный и вторичный сервер. Начиная с версии 4.1, используется новый тип репозитория, который называется «конфигурационный репозиторий кластера» CCR (Cluster Configuration Repository). Здесь автоматически поддерживаются конфигурационные файлы для всех узлов.
      • Узел (Node). Узел – это любой сервер, на котором установлено ПО Spectrum Scale, с прямым или сетевым доступом к другому узлу. В зависимости от типа доступа, каждый узел может иметь различную роль внутри кластера.
      • Менеджер кластера (Cluster manager). Узел менеджера кластера отвечает за правильность операций на всех узлах и всего узла в целом. Он выполняет следующие задачи:
        • Мониторинг выделения дисков
        • Обнаружение ошибок и восстановление при отказе узла внутри кластера
        • Определение кворума узлов и разрешение на старт домену Spectrum Scale и продолжение использования файловой системы
        • Обработка информации о конфигурации и информирование узлов в удалённых кластерах об изменениях конфигурации
        • Выбор узла для менеджера файловой системы.
      • Менеджерфайловойсистемы(File system manager). Этот менеджер поддерживает информацию о доступности дисков в файловой системе. В большом кластере для менеджера файловой системы может понадобиться отдельный узел. Менеджер файловой системы выполняет следующие функции:
        • Управляет конфигурацией файловой системы;
        • Управляет выделением дискового пространства;
        • Управляет конфигурациями квот;
        • Поддерживает сервисы безопасности.
      • Общийсетевойдиск(NSD, Network shared disk). Используется для глобального пространства имён и доступа к данным кластера. Если все узлы не имеют прямого подключения к дискам (например, в среде SAN), то NSD должен быть определён как первичный сервер, причём рекомендуется, чтобы вторичный сервер тоже был определён. Затем ввод-вывод производится через сетевое подключение сервера NSD, который выполняет ввод-вывод от имени запрашивающего узла. Даже если все NSD подключены к дискам, рекомендуется определять серверы NSD, чтобы, в случае потери доступа первичного сервера к физическим дискам, существовал запасной маршрут.
      • Пул накопителей (Storage pool). Это комплект NSD, использующихся для партиции пространства хранения, по принципу общих параметров, таких как производительность, доступность в местной сети и надёжности. Использование пулов накопителей в Spectrum Scale позволяет группировать устройства хранения по параметрам производительности, локальности или надёжности внутри файловой системы.
      • Блок (Block). Блок – это наибольший элемент для операций ввода-вывода и выделения дискового пространства в файловой системе Spectrum Scale. Размер блока указывается при создании файловой системы и определяет полосу пропускания при распределении данных по дискам. Spectrum Scale поддерживает размер блока от 16 кбайт до 16 Мбайт. По умолчанию размер блока составляет 256 кбайт в предыдущей версии GPFS и 64 кбайт при использовании Spectrum Scale в версии 4.1.0.4. Spectrum Scale допускает различные размеры блоков для метаданных и самих данных, если диски для данных и метаданных разделены.
      • Чанк (Chunk). Термин «чанк» относится к функции оптимизации размещения файла File Placement Optimizer (FPO) файловой системы Spectrum Scale. Чанк – это логическая группа блоков, которая ведет себя как один большой блок. Множитель блоков в группе (block group factor) используется FPO при определении числа блоков, образующих чанки на дисках, присоединённых к узлу. Затем чанк предписывается всем доступным дискам внутри узла. Размер чанка определяется умножением размера блока на множитель блоков группы. Этот множитель может лежать в пределах от 1 до 1024. Значение множителя по умолчанию равно 1, с целью совместимости со стандартными файловыми системами Spectrum Scale. Установка размера блока в 1 МБ и множителя блоков группы в 128 даёт в результате размер чанка 128 МБ.
      • Группа отказа (Failure group). Группа отказа – это набор дисков, образующих общую точку отказа (common point of failure). То есть любой отказ в такой группе дисков может вызвать одновременную недоступность их всех. При создании многочисленных реплик определённого блока, Spectrum Scale использует информацию о группах отказов, чтобы обеспечить то, что никакие две парные реплики блоков данных не будут размещаться в одной и той же группе отказа. Группа отказа может быть определена как набор до трёх чисел, разделённых запятыми, которая даёт возможность определить топологию группы.
      • Мета-узел (Metanode). Узел, обрабатывающий метаданные, которые также называются «модификациями блока директории» (“directory block updates”).
      • Метаданные (Metadata). Содержит информацию о конфигурации определённого кластера и данные, не относящиеся к пользователю (non-user data).
      • Узел приложений (Applicationnode). Монтирует файловую систему Spectrum Scale и запускает пользовательские приложения, получающие доступ к файловой системе.
      • Кворумный узел (Quorum nodes). Это узлы, поддерживающие активность кластера Spectrum Scale. Есть два типа узлов кворума кластера:
        • Nodequorum, где кластер поддерживается рабочим, когда доступны большинство узлов кворума.
        • Node quorum with tiebreaker disks, где кластеры активны при хотя бы одном кворумном узле и он имеет доступ к дискам, которые определены как tiebreaker disks.

      Три NSD, определённые как диски tiebreaker disk для кворумных узлов (источник: IBM).

      • Топология кластера. Топологию IBM Spectrum Scale можно гибко конфигурировать под различные решения для пользователя. Четыре основных типовых конфигурации Spectrum Scale, используемых в зависимости от местоположения приложений на узлах кластера:
        • Приложения, работающие только на NSD клиентов Spectrum Scale
        • Приложения, работающие на узлах с СХД с прямым подключением
        • Приложения, работающие на серверах с подключёнными NSD
        • Приложения, работающие на кластере FPO (File Placement Optimizer)

        Три редакции Spectrum Scale

        Есть три разных редакции (Edition) Spectrum Scale:

        • Express Edition: базовая функциональность Spectrum Scale.
        • Standard Edition: технический эквивалент GPFS 3.5, включает базовые функции, а также Information Lifecycle Management, Active File Management и Clustered NFS.
        • Advanced Edition: к функциям Standard Edition добавлена функция шифрования.
        Функционал Express Edition Standard Edition Advanced Edition
        Многопротокольная масштабируемая файловая система с одновременным доступом к общим данным. Встроенный драйвер клиента ES (Enterprise Server) Коннектор Hadoop Встроенный драйвер клиента ES (Enterprise Server) Коннектор Hadoop NFS 3.0 или NFS4.0 Встроенный драйвер клиента ES (Enterprise Server) Коннектор Hadoop NFS 3.0 или NFS4.0
        Предоставляет доступ к общим данным с глобальным пространством имён, простое управлением с масштабированием Есть Есть Есть
        Создание оптимизированных уровневых пулов хранения методом группирования дисков по параметрам производительности, локальности или стоимостным характеристикам. Нет Есть Есть
        Средства упрощенного управления данными при масштабировании системы и управления жизненным циклом информации ILM (information lifecycle management), которые включают наборы файлов, размещение и миграция данных на базе политик, резервирование и восстановление, архивирование в недорогие пулы хранения. Нет Есть Есть
        Глобальный доступ к данным и глобальная коллективная работа с использованием асинхронной репликации AFM Нет Есть Есть
        Защита данных с шифрованием и безопасное стирание, соответствующие стандартам NIST и сертифицированная FIPS Нет Нет Есть

        Продолжение следует

        Российский системный интегратор
        Серверы и сетевое оборудование
        Суперкомпьютеры и HPC-кластеры
        Импортозамещение в сфере ИТ

        Несмотря на сложившуюся ситуацию, мы заботимся о наших клиентах и осуществляем обслуживание заявок и контрактов. Звоните и пишите нам, мы на связи!

        Сервер хранения данных Lenovo General Parallel File System (GPFS) – идеальное решение для СХД большой емкости и высокой производительности

        Новогодняя Акция! Серверы Karma Neuro 1U 8SFF с нашего склада в Москве на базе 2х Intel Xeon Gold 5218R 20 ядер за 400 000р вместо 590 000р! Спешите! Количество ограничено.

        Спецпредложения

        side

        Сервер хранения данных Lenovo General Parallel File System (GPFS) – это многолетний опыт передовых разработчиков ИТ-оборудования, который воплощен в высокотехнологичном комплексе для поддержки современных ЦОД. Новое оборудование позволит поддерживать облачные и высокопроизводительные вычисления HPC, работать с инструментами аналитики и развертывать многофункциональные системы инженерных расчетов.

        Цена: 0 руб.* (по запросу)
        Вы можете заказать это оборудование в лизинг Подробнее
        Описание Характеристики

        Описание Lenovo General Parallel File System (GPFS)

        Сервер хранения данных Lenovo General Parallel File System (GPFS) относится к высокопроизводительным системам, созданным для работы с мощными системами хранения данных, которые используются для кластеров Intelligent Cluster. Новая интегрированная система поддерживает модульный подход формирования масштабируемых хранилищ. Это позволит легко адаптировать оборудование к тому, чтобы решать разноплановые задачи, к которым относятся следующие:

        • поддержка средств бизнес аналитики;
        • работа с ресурсоемкими системами дистанционного образования;
        • поддержка ресурсоемких инженерных расчетов;
        • использование в процессе научных исследований.

        Новые возможности

        Lenovo General Parallel File System (GPFS) отличаются от аналогичного оборудования следующими нюансами:

        • упрощенная интегрированная система хранения информации;
        • поддержка файловой системы General Parallel File System;
        • использование модельного подхода к масштабированию;
        • использование RAID-массивов на базе GPFS;
        • высокая скорость работы и уникальный уровень безопасности обрабатываемых данных;
        • оптимальное соотношение цены и качества.

        Эффективность и практичность

        Серверы хранения данных Lenovo General Parallel File System воплотили в своей конфигурации мощность и функциональность лучших серверных систем System x, многогранность современного специализированного программного обеспечения и модульный подход к масштабированию рабочего потенциала. Используя серверные системы хранения данных GPFS, компании могут начинать с небольших сетей, впоследствии расширяя их емкость и потенциал посредством добавления нужного количества модулей GSS. Благодаря этому можно достичь высоких показателей производительности с оптимальным распределением своих финансовых средств.

        Технические характеристики сервера хранения данных Lenovo General Parallel File System (GPFS)

        • Model 21s: 1
        • Model 22s: 2
        • Model 24: 4
        • Model 26: 6
        • Model 21s: 1.2TB
        • Model 22s: 1.2TB
        • Model 24: 3, 4, 6TB
        • Model 26: 3, 4, 6TB
        • Model 21s: 24
        • Model 22s: 48
        • Model 24: 232
        • Model 26: 348

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *