40Gb/s — это сырая шина. Полезная полоса 32Gb/s, 8Bb/s уходят на контроль ошибок и управление. Из этих 32Gb/s 10 на IP, оставшееся на хранилище, дополнительные сервисы, которые мы будем запускать в будущем и overhead.
Выбор infiniband 40Gb/s обусловлен тем, что это дешевле и масштабируемей чем ethernet 10Gb/s + fibrechannel 4Gb/s. Ну а 10Gb/s общей шины это аккурат для виртуальных серверов.
MSA согласен выглядят не сбалансированно, но у MSA есть разные модели с разным количеством SAS портов. Ахитектура следующая: сервер в котором 12 дисков + MSA в которой еще 12 дисков, и GPFS который умеет балансировать данные по дискам в зависимости от нагрузки. А в сервере уже все диски подключены к контроллерам и уходят в два порта IB 40Gb/s.
Требования — бездисковые сервера, отдельное надежное хранилище, быстрая IP сеть. Для того, что бы выполнять миграции онлайн с минимальной задержкой и высоким уровнем отказоустойчивости.
В статье косвенно указано и я лично неодократно говорил, в том числе и на конференциях, что фабрика IB стоит дешевле фабрик Ethernet + FibreChannel вместе взятых и по цене примерно равна фабрике Ethernet. Поэтому с экономикой тут никаких проблем нет.
Для видео, фото и прочей мультимедии вообще создано специальное хранилище, оптимизированное под эти задачи с кэшами в городах миллионниках.
Я ответил вроде про атаку из облака — она физически невозможна, потому что клиенты между собой напрямую не общаются. Весь трафик между ними все равно пройдет через оборудование обеспечивающее сетевую безопасность.
Про аудит. Да конечно все строится на доверии, которое мы будем зарабатывать. Пока же вы можете поставить своего агента мониторинга и проверить, если недоверяете.
ДоС. У нас работает оборудование (F5 ASM + Juniper SRX + для тех кому надо Cisco ADG/AGM от ДЦ), которое строит полезный профиль для каждого проекта. Любые левые атаки уровней L2-L7 отсекаются, в том числе и распределенные. Проекты различных клиентов между собой общаются через пиринговый узел, а не напрямую, то есть опять же весь трафик проходит через цепочку антиддос оборудования.
Цены. Мы еще не запустились, поэтому сейчас наша цель — объяснить что это такое и зачем вообще нужно, а не продать.
Шина. Вообще в архитектуре хранилища учтена емкость всех задействованных шин. Начиная от Intel QuickPath — 64Gb/s, шины PCIe 2.0 — 40Gb/s к RAID-контроллеру, гарантированно 3Gb/s от контроллера к каждому диску, заканчивая 40Gb/s в сеть по Infiniband (используется в современных суперкомпьютерах). Кроме того данные клиента лежат не на одном диске, а на десятках на разных узлах хранилища, сами узлы тоже исчисляются десятками. Я думаю это быстрее дисков в собственных серверах =)
Кластер с ресурсами on-demand != облако, в моем представлении. Как думаете почему сама SUN облаками назвала свой проект SUN Cloud, основанный именно на виртуализации?
Да речь об объединении в пул CPU и Memory, для задач типа «О боже, что же делать! Наш MySQL тормозит и нет программистов, времени и возможностей для оптимизации структуры БД»
На самом деле пока не понятно стоит ли свеча выделки. В Америке уже есть опытный запуск подобного подхода.
Конечно, для ручек — полноценный REST API, все через него можно сделать. В том числе и поднимать/останавливать новые инстансы, создавать/удалять диски, рулить балансировщиком нагрузки и фаерволом, даже регить домены и модифицировать зоны =)
Про архитектуру поподробнее написал пониже.
MSA согласен выглядят не сбалансированно, но у MSA есть разные модели с разным количеством SAS портов. Ахитектура следующая: сервер в котором 12 дисков + MSA в которой еще 12 дисков, и GPFS который умеет балансировать данные по дискам в зависимости от нагрузки. А в сервере уже все диски подключены к контроллерам и уходят в два порта IB 40Gb/s.
Я ответил вроде про атаку из облака — она физически невозможна, потому что клиенты между собой напрямую не общаются. Весь трафик между ними все равно пройдет через оборудование обеспечивающее сетевую безопасность.
Про аудит. Да конечно все строится на доверии, которое мы будем зарабатывать. Пока же вы можете поставить своего агента мониторинга и проверить, если недоверяете.
ДоС. У нас работает оборудование (F5 ASM + Juniper SRX + для тех кому надо Cisco ADG/AGM от ДЦ), которое строит полезный профиль для каждого проекта. Любые левые атаки уровней L2-L7 отсекаются, в том числе и распределенные. Проекты различных клиентов между собой общаются через пиринговый узел, а не напрямую, то есть опять же весь трафик проходит через цепочку антиддос оборудования.
Цены. Мы еще не запустились, поэтому сейчас наша цель — объяснить что это такое и зачем вообще нужно, а не продать.
Шина. Вообще в архитектуре хранилища учтена емкость всех задействованных шин. Начиная от Intel QuickPath — 64Gb/s, шины PCIe 2.0 — 40Gb/s к RAID-контроллеру, гарантированно 3Gb/s от контроллера к каждому диску, заканчивая 40Gb/s в сеть по Infiniband (используется в современных суперкомпьютерах). Кроме того данные клиента лежат не на одном диске, а на десятках на разных узлах хранилища, сами узлы тоже исчисляются десятками. Я думаю это быстрее дисков в собственных серверах =)
Ждем еще вопросов.
Мы внимательно изучали OpenSolaris и держим руку на пульсе, но там все еще сыро для широкого продакшн.
SUN в тройке рынка по производству серверов, а то что они Соляру делает никого уже не волнует (как и Яву, название у них на бирже — JAVA).
VMM — Монитор виртуальных машин, другими словами гипервизор. Под мониторингом скрыт гораздо более глубокий смысл нежели вы себе представляете.
Про Azure — да опечатка, речь шла про сервисы MS типа Live.
На самом деле пока не понятно стоит ли свеча выделки. В Америке уже есть опытный запуск подобного подхода.