kurgus (kurgus) wrote,
kurgus
kurgus

Рабоче-ассоциативное

В конце ноября в Москве проходит мероприятие, именуемое "Форум All-over-IP".
В программе заявлены, среди прочего, Cloud Computing и виртуализация.

Конференции - дело, конечно, благородное, но подход "всё over IP" несколько достал - ибо, несмотря на простоту его реализации, в области High Performance Computing и больших высоконагруженных систем - это зло. И вот почему:

Ниже - слайд из моего доклада пятилетней давности и вводно-популяризаторский фрагмент текста к нему о виртуализации ввода-вывода (дискового и Inter-Process Communications), минуя IP-стек:
Проблема All-over-IP: процессорная тяжесть TCP-стека

Одной из проблем является стандартный подход «что попало over IP»
Не следует забывать, что TCP/IP – набор протоколов ядерной войны, разработанный для передачи данных о её последствиях на остатках коммуникационной инфраструктуры – и в силу этого в достаточной степени избыточный, что обуславливает его универсальность и удобство. Однако при всём его удобстве зачастую забывается цена транспорта информации – как в ресурсах процессора, так и памяти. В сетевом Windows-стеке для передачи фрагмента данных на физический интерфейс требуется выполнение ~7000 инструкций – не считая забавных пересылок процессор-RAM.
Эта ситуация породила совершенно отдельный рынок – TOE-Ethernet адаптеров, на которых аппаратно реализована часть обработки TCP-стека. Что вполне закономерно: серверы характеризуются одновременно высокой CPU-нагрузкой и высоким трафиком, который, в свою очередь, грузит CPU.
Ещё одна проблема – пересылка данных из буфера памяти приложения в буфер сетевого стека: это ведёт как к нагрузке на процессор, так и перегружает и без того загруженную шину процессор-память.
В случае же виртуализации ввода-вывода становится возможным также RDMA (Remote Direct Memory Access) – т.е. существуют механизмы дешёвого обхода любого коммуникационного протокола (кроме физики, конечно). Результат – «бесплатный процессор» - в т.ч. и по рассеиваемой мощности.

P.S. Тогда это делалось (и делается сейчас, например - в Oracle Exadata Database Machine) с использованием InfiniBand и SDP (Sockets Direct Protocol), в Solaris, начиная с версии 10, есть NFS over RDMA (over InfiniBand).
Вообще, InfiniBand - замечательная и красивая технология. С единственным недостатком - это не Ethernet.

Но ныне, благодаря усилиям IEEE 802.1 Data Center Bridging (DCB) Task Group мы имеем* Converged Enhanced Ethernet, претендующий на реализацию всех прелестей InfiniBand.

И, что особо обнадеживает:
1. InfiniBand Trade Association выпустила стандарт RDMA over Converged Ethernet (RoCE);
2. Open Fabrics Alliance - www.openfabrics.org (их OFED-стек используется в Orcle Exadana) с прошлого года поддерживает RoCE (pdf).

---
* Имеем в буквальном смысле: сейчас в лаборатории с перемещением в блжайшем бубущем production.

Tags: dcb, it, Работа
Subscribe

  • И где эвакуация граждан РФ?

    Загрянул на выходных в ру-ТВ. Вовсю уверяют, что над свежеиспеченными владельцами ру-паспортов гражданами РФ в ЛДНР нависла страшная…

  • 26 февраля 2014. Симферополь. Доктрина Герасимова.

    Современный опыт доказывает, что основной формой военной агрессии стала организация вооруженных конфликтов с задействованием демографических…

  • Ну, с самым Новым годом.

    Китайским. Который Чуньцзе. Поэтому несколько прошлогодних малайских пред(китайско)новогодних фото. Храм Кек Лок Си, Айер Итам (Ayer Itam), Пенанг.…

  • Post a new comment

    Error

    default userpic

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 0 comments