Обновить
51
Дмитрий Лоханский@lohansky

Пользователь

46
Подписчики
Отправить сообщение
Тут еще стоит добавить, что есть также ноды с SSD. Там никаких узких горлышек нет. А GPFS обеспечивает распределение горячих данных с учетом SSD.
40Gb/s — это сырая шина. Полезная полоса 32Gb/s, 8Bb/s уходят на контроль ошибок и управление. Из этих 32Gb/s 10 на IP, оставшееся на хранилище, дополнительные сервисы, которые мы будем запускать в будущем и overhead.

Про архитектуру поподробнее написал пониже.
Ниже в комментах написла поподробнее об архитектуре.
Я ниже в комментах написал архитектуру. По ней узкое горлышко сведено к минимуму.
Выбор infiniband 40Gb/s обусловлен тем, что это дешевле и масштабируемей чем ethernet 10Gb/s + fibrechannel 4Gb/s. Ну а 10Gb/s общей шины это аккурат для виртуальных серверов.

MSA согласен выглядят не сбалансированно, но у MSA есть разные модели с разным количеством SAS портов. Ахитектура следующая: сервер в котором 12 дисков + MSA в которой еще 12 дисков, и GPFS который умеет балансировать данные по дискам в зависимости от нагрузки. А в сервере уже все диски подключены к контроллерам и уходят в два порта IB 40Gb/s.
Требования — бездисковые сервера, отдельное надежное хранилище, быстрая IP сеть. Для того, что бы выполнять миграции онлайн с минимальной задержкой и высоким уровнем отказоустойчивости.
А что серьезно?
Вообще он под ним и развернут. Ноды GPFS-хранилища с дисками коммутируются к серверам напрямую по IB через этот коммутатор.
50Tb/s это backplane. Он всегда с запасом делается, потому что сейчас уже выпускаются порты IB EDR 120Gb/s.
В статье косвенно указано и я лично неодократно говорил, в том числе и на конференциях, что фабрика IB стоит дешевле фабрик Ethernet + FibreChannel вместе взятых и по цене примерно равна фабрике Ethernet. Поэтому с экономикой тут никаких проблем нет.
Для видео, фото и прочей мультимедии вообще создано специальное хранилище, оптимизированное под эти задачи с кэшами в городах миллионниках.

Я ответил вроде про атаку из облака — она физически невозможна, потому что клиенты между собой напрямую не общаются. Весь трафик между ними все равно пройдет через оборудование обеспечивающее сетевую безопасность.
Мы будем рады развеять абсолютно весь туман.

Про аудит. Да конечно все строится на доверии, которое мы будем зарабатывать. Пока же вы можете поставить своего агента мониторинга и проверить, если недоверяете.

ДоС. У нас работает оборудование (F5 ASM + Juniper SRX + для тех кому надо Cisco ADG/AGM от ДЦ), которое строит полезный профиль для каждого проекта. Любые левые атаки уровней L2-L7 отсекаются, в том числе и распределенные. Проекты различных клиентов между собой общаются через пиринговый узел, а не напрямую, то есть опять же весь трафик проходит через цепочку антиддос оборудования.

Цены. Мы еще не запустились, поэтому сейчас наша цель — объяснить что это такое и зачем вообще нужно, а не продать.

Шина. Вообще в архитектуре хранилища учтена емкость всех задействованных шин. Начиная от Intel QuickPath — 64Gb/s, шины PCIe 2.0 — 40Gb/s к RAID-контроллеру, гарантированно 3Gb/s от контроллера к каждому диску, заканчивая 40Gb/s в сеть по Infiniband (используется в современных суперкомпьютерах). Кроме того данные клиента лежат не на одном диске, а на десятках на разных узлах хранилища, сами узлы тоже исчисляются десятками. Я думаю это быстрее дисков в собственных серверах =)

Ждем еще вопросов.
Кластер с ресурсами on-demand != облако, в моем представлении. Как думаете почему сама SUN облаками назвала свой проект SUN Cloud, основанный именно на виртуализации?
OpenSolaris лучшая платформа для облачных вычислений? Да, но только не в 2009 году =)

Мы внимательно изучали OpenSolaris и держим руку на пульсе, но там все еще сыро для широкого продакшн.
Btw, все сановские гипервизоры берут корни от Xen.
Я бы сказал, что вы цепляетесь к словам.

SUN в тройке рынка по производству серверов, а то что они Соляру делает никого уже не волнует (как и Яву, название у них на бирже — JAVA).

VMM — Монитор виртуальных машин, другими словами гипервизор. Под мониторингом скрыт гораздо более глубокий смысл нежели вы себе представляете.

Про Azure — да опечатка, речь шла про сервисы MS типа Live.
Да речь об объединении в пул CPU и Memory, для задач типа «О боже, что же делать! Наш MySQL тормозит и нет программистов, времени и возможностей для оптимизации структуры БД»

На самом деле пока не понятно стоит ли свеча выделки. В Америке уже есть опытный запуск подобного подхода.
Конечно, для ручек — полноценный REST API, все через него можно сделать. В том числе и поднимать/останавливать новые инстансы, создавать/удалять диски, рулить балансировщиком нагрузки и фаерволом, даже регить домены и модифицировать зоны =)

Информация

В рейтинге
Не участвует
Откуда
Москва, Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность