Mellanox

Mellanox (Mellanox Technologies) — израильская компания, производитель телекоммуникационного оборудования, ключевой разработчик технологии InfiniBand. Основана в 1999 году, в 2019—2020 годы стала принадлежать корпорации Nvidia.

Mellanox
Тип Публичная компания)
Листинг на бирже NASDAQ: MLNX
TASE: MLNX
Основание 1999
Упразднена 2020
Причина упразднения Поглощена Nvidia
Основатели Эяль Вальдман
Рони Ашури
Расположение  Израиль: Йокнеам-Илит[1]
Ключевые фигуры Эяль Вальдман (CEO)
Отрасль телекоммуникационное оборудование (МСОК: 2630)
Продукция Коммутаторы InfiniBand и Ethernet, сетевые адаптеры InfiniBand и Ethernet
Оборот $658 млн (2015)[2]; $463 млн (2014)[3]
Операционная прибыль $118,3 млн (2012)
Чистая прибыль $111,3 млн (2012)
Капитализация около $4 млрд (2018)
Число сотрудников 2,9 тыс. (март 2017)
Материнская компания NVidia
Дочерние компании Mellanox Technologies (United States)[d]
Сайт mellanox.com
 Медиафайлы на Викискладе
Здание Mellanox Technologies в Йокнеам-Илите.

С 2011 года являлась единственным производителем оборудования для сетей InfiniBand, также выпускала высокоскоростное Ethernet-оборудование, в том числе с поддержкой технологии RoCE (RDMA в сетях Ethernet) с фокусом на суперкомпьютерные лаборатории и крупные коммерческие центры обработки данных[4]. Линейка продукции включала сетевые адаптеры, коммутаторы, кабели, программное обеспечение, интегральные микросхемы.

Акции торговались на NASDAQ (тикер MLNX). Штаб-квартиры располагались в Саннивейле (Калифорния) и Йокнеаме (Израиль).

История

Основана бывшими руководителями Galileo Technology (приобретённой Marvell Technology Group в октябре 2000 года за эквивалент $2,7 млрд[5]) Eyal Waldman и Roni Ashuri. Изначально планировалось, что компания будет лишь производителем интегральных микросхем, но к 2009 году она стала поставлять полный ассортимент продуктов для организации сетей[6]. Компания собрала более $89 млн в трёх раундах венчурного финансирования, среди инвесторов: Raza Venture Management, Sequoia Capital, US Venture Partners, Bessemer Venture Partners, Bank of America Securities, China Development Investment Bank, Gemini Israel Funds, Jerusalem Global Ventures и Walden Israel Venture Capital. Среди стратегических инвесторов: Dell, IBM, JNI, Quanta Computer, Vitesse Semiconductor и Sun Microsystems.[7][8]

Акции компании были размещены на NASDAQ в 2007 году, по итогам размещения компания получила $102 млн и оценена в $0,5 млрд[9]. С 2010 года крупным инвестором компании стала корпорация Oracle, увеличившая свою долю до примерно 10 %[7], Oracle заявляла, что не планирует приобретать Mellanox и лишь использует технологии InfiniBand в своих линейках Exadata и Exalogic[10].

В 2010 году компания приобрела своего конкурента Voltaire за $218 млн[11][12]. 15 августа 2013 года Mellanox завершила поглощение изготовителя интегральных фотонных чипов Kotura за $82 млн; здания Kotura в Monterey Park (Калифорния) стали первым исследовательским центром Mellanox в США[13][14]. 4 июня 2013 года поглощена компания IPtronics — производитель лазеров VCSEL, драйверов для оптических модуляторов, массивов трансимпедансных усилителей за $47,5 млн[15][14].

11 марта 2019 года было объявлено о покупке 100 % акций Mellanox компанией NVidia. Акции выкупаются по $125 за штуку, общая сумма сделки $6.9 млрд. Наряду с NVidia на поглощение Mellanox претендовали компании Microsoft, Intel и Xilinx, однако предложение Nvidia показалось акционерам Mellanox предпочтительным[16]. Сделка завершена 27 апреля 2020 года[17][18].

Продукция

Mellanox не обладала собственными мощностями по изготовлению микросхем, работая по бесфабричной схеме[19], заказывая производство на сторонних фабриках, в частности, на TSMC[20].

В 2010 Reuters назвала Mellanox одним из основных производителей коммутаторов для дата-центров и высокопроизводительных вычислений, а технологию InfiniBand более быстрой и масштабируемой, чем альтернативные коммуникационные технологии[21]. Сходное мнение высказывал директор Oracle Ларри Эллисон[6].

Некоторые интегральные микросхемы[22]:

  • InfiniScale IV — чип коммутатора Infiniband на 36 портов QDR 4x (40 Гбит/с) или 12 портов QDR 12x (120 Гбит/с). Четвёртое поколение коммутаторов. Размер корпуса чипа 45 на 45 мм.
  • SwitchX (2011) — чип многопротокольного коммутатора с 36 портами FDR 4x Infiniband (56 Гбит/с) либо 64 портами 10G/20G Ethernet (144 трансивера, каждый со скоростью до 14 Гбит/с), обрабатывающий пакеты InfiniBand, Ethernet и Fibre Channel.[20] SwitchX — пятое поколение коммутационных чипов, изготовлен по 40 нм техпроцессу с 1.4 млрд транзисторов, размер корпуса чипа 45 на 45 мм.[20] Он развивает двухпротокольную архитектуру, ранее разработанную для чипов ConnectX (90 нм).[9]
  • SwitchX-2 (2012) — шестое поколение коммутаторов, до 36 портов FDR 4x Infiniband (56 Гбит/с) или 40G/56G Ethernet[23]
  • SwitchIB (2014) — седьмое поколение коммутаторов, до 36 портов QDR/FDR10/FDR/EDR 4x Infiniband (40, 41, 56 и 100 Гбит/с). Размер корпуса 53×53 мм.
  • SwitchIB-2 (конец 2015) — коммутатор Infiniband, 36 портов до 100 Гбит/с[24]
  • Quantum — 40 портовый коммутатор 200 Гбит/с HDR InfiniBand.[25]
  • Spectrum — коммутатор Ethernet, 50 и 100Gbit Ethernet, 28 нм TSMC. 32 порта 100 Гбит[26].
  • Spectrum-2 (2018) — коммутатор Ethernet, 32 порта 200Gbit Ethernet, либо 64 порта 100 Гбит[27][14]

Интегральные микросхемы компании для сетевых адаптеров (HBA)[28]:

  • ConnectX-2 (2009) — чип адаптера с одним или двумя портами Infiniband 4x SDR/DDR/QDR (10, 20 или 40 Гбит/с) или 10G Ethernet. Подключается по шине PCI Express 2.0 8x.[29]
  • ConnectX-3 (2011) — чип сетевого адаптера на один или два порта 10G/40Gbit Ethernet или Infiniband до FDR 4x (56 Гбит/с), с поддержкой виртуализации для VMware ESXi 5.0.[30][4][31]
  • ConnectX-4 (2014—2015) — чип сетевого адаптера на один или два порта 100Gbit Ethernet или Infiniband EDR 4x (100 Гбит/с)[32]. Также поддерживает все более медленные режимы Infiniband 4x. Подключается к шине PCI Express 3.0 16x.
    • ConnectX-4 Lx — чип сетевого адаптера Ethernet со скоростями 10, 25, 40, 50 Гбит. (два порта только для скоростей до 25)[26]
  • ConnectX-5 (2016) — чип сетевого адаптера на один или два порта 100Gbit Ethernet или Infiniband EDR 4x (100 Гбит/с). Дополнительно имеет встроенный коммутатор PCI-express с поддержкой поколения PCI express 4.0. Также позволяет строить сети размером до 4 узлов при использовании двухпортовых карт без внешних Infiniband коммутаторов[33][34]
  • ConnectX-6 (2017) — 200 Гбит/с HDR InfiniBand[35][36]
  • Bluefield (2017) — интегрированный контроллер, сочетающий 2 порта 100 Гбит/с, коммутатор PCI express (суммарно x32 gen 4.0) и до 16 ядер ARM Cortex-A72, реализует NVMe-oF[37][38].

Заказчики

Продукты Mellanox линейки InfiniBand широко применялись при создании вычислительных кластеров максимальной производительности. Значительная доля (более 40 %) суперкомпьютеров из рейтинга TOP500 использует Infiniband в качестве основной высокопроизводительной сети[39][40].

На 2011 год более четверти доходов Mellanox получала от двух крупных покупателей: Hewlett-Packard и IBM.[41] Ещё 2 процента доходов обеспечивали заказы от Intel.[42]

На июнь 2011 года, Oracle (владевшая 10 % Mellanox) также являлась крупным покупателем продукции[43].

Примечания

  1. Mellanox office locations (недоступная ссылка). Mellanox Technologies. Дата обращения: 17 января 2015. Архивировано 11 декабря 2012 года.
  2. Mellanox Achieves Record Quarterly and Annual Revenue. Mellanox Technologies (2016). Дата обращения: 27 января 2016.
  3. Corporate Overview. Mellanox Technologies (2015). Дата обращения: 29 октября 2011.
  4. Amodio, Michelle On the Road with Mellanox Technologies. TMCnet (6 октября 2011). Дата обращения: 29 октября 2011.
  5. Marvell to acquire LAN-chip supplier Galileo for $2.7 billion in stock (недоступная ссылка). eetimes (17 октября 2000). Дата обращения: 12 июня 2011. Архивировано 13 июля 2012 года.
  6. Ackerman, Gwen. Mellanox CEO Sees Sales Rising 10-Fold With Voltaire, Bloomberg (5 января 2011). Дата обращения 29 октября 2011.
  7. Tsipori, Tali Oracle acquires $11m more Mellanox shares. Globes (25 сентября 2011). Дата обращения: 29 октября 2011.
  8. Kovar, Joseph F. VC Money Continues To Drain Into InfiniBand: Mellanox Secures $56M (недоступная ссылка). CRN (11 февраля 2002). Дата обращения: 29 октября 2011. Архивировано 4 марта 2016 года.
  9. Walko, John. Mellanox raises $102 million with IPO on Nasdaq, EE Times (8 февраля 2007). Дата обращения 29 октября 2011.
  10. Bagh, Carl Oracle buys 10 pct stake in Mellanox, will Dell, HP, IBM follow suit?. International Business Times (29 октября 2010). Дата обращения: 29 октября 2011. Архивировано 12 ноября 2010 года.
  11. Morgan, Timothy Prickett. Mellanox gobbles up Voltaire for $218m, The Register (29 ноября 2010). Дата обращения 29 октября 2011.
  12. Stynes, Tess. Mellanox Agrees to Acquire Voltaire, The Wall Street Journal (30 ноября 2010). Дата обращения 29 октября 2011.
  13. Mellanox Technologies, Ltd. Completes Acquisition of Kotura, Inc., Mellanox.com (15 августа 2013). Дата обращения 10 января 2014.
  14. Mellanox Trims Down To Reach For A Profitable $1 Billion (англ.), NextPlatform (21 January 2018). Дата обращения 6 октября 2018.
  15. Mellanox Technologies Ltd. Announces Definitive Agreement to Acquire IPtronics A/S, NASDAQ. Дата обращения 4 июня 2013.
  16. Fitch, Asa. Nvidia to Acquire Mellanox, Its Biggest Deal Ever at Roughly $7 Billion (англ.), Wall Street Journal (11 March 2019). Дата обращения 11 марта 2019.
  17. Nvidia завершила $7 млрд сделку по приобретению Mellanox (рус.), CNews (27 апреля 2020). Дата обращения 19 мая 2020.
  18. Tyler Clifford. Nvidia completes ‘homerun deal’ after closing $7 billion acquisition of Mellanox. CNBC (27 апреля 2020).
  19. Web-chip fabless Mellanox poised to raise $50m at company value of $250m (недоступная ссылка). TheMarker (30 октября 2001). Дата обращения: 29 октября 2011. Архивировано 4 февраля 2013 года.
  20. Morgan, Timothy Prickett. Mellanox uncloaks SwitchX network switch-hitter, The Register (26 апреля 2011). Дата обращения 29 октября 2011.
  21. Oracle Corporation Makes Strategic Investment In Mellanox Technologies, Ltd., Reuters (27 октября 2010). Дата обращения 29 октября 2011.
  22. http://www.hpcadvisorycouncil.com/events/switzerland_workshop/pdf/Presentations/Day%201/13_Mellanox%20InfiniBand%20Training.pdf#page=57 2009
  23. Mellanox etches software-defined networking onto SwitchX-2 chips. Working on OpenFlow controller for fabric manager // The Register, 2012-10-15
  24. Mellanox Turns InfiniBand Switches Into MPI Accelerators
  25. Mellanox Poised For HDR InfiniBand Quantum Leap
  26. Mellanox Comes Out Swinging With 100G Spectrum Ethernet
  27. Ethernet Getting Back On The Moore’s Law Track
  28. http://www.hpcadvisorycouncil.com/events/switzerland_workshop/pdf/Presentations/Day%201/13_Mellanox%20InfiniBand%20Training.pdf#page=44 2009
  29. Mellanox pushes InfiniBand to 120Gb/s. Offloading IB processing from CPUs to ConnectX-2s, 2009 «Mellanox also said at the SC09 show that the ConnectX-2 host channel adapters it has been shipping had another golden screwdriver upgrade.»
  30. Mellanox forges switch-hitting ConnectX-3 adapters. The server companion to SwitchX switch chips // The Register, 2011-06-16
  31. Sur, Sayantan; Koop, Matthew J.; Lei; Panda, Dhabaleswar K. Performance Analysis and Evaluation of Mellanox ConnectX InfiniBand Architecture with Multi-Core Platforms (англ.) // hoti : journal. — 15th Annual IEEE Symposium on High-Performance Interconnects (HOTI 2007), 2007. P. 125—134.
  32. Сетевой адаптер Mellanox ConnectX-4 поддерживает скорости до 100 Гбит/с Архивировано 4 марта 2016 года. // IXBT, 13 Ноября, 2014
  33. Next-Gen Network Adapters: More Oomph, Switchless Clusters
  34. Mellanox Adds Network Computing Smarts into New 100G Adapters | TOP500 Supercomputer Sites
  35. What 200G HDR InfiniBand Solutions Mean for Today’s Data Centers
  36. Mellanox Unveils 200Gb/s HDR InfiniBand Solutions | StorageReview.com — Storage Reviews (недоступная ссылка). Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
  37. Mellanox BlueField Accelerates NVMe over Fabrics - insideHPC
  38. https://www.theregister.co.uk/2018/08/07/mellanox_bluefield_200gbs_pcie/
  39. Mellanox Accelerates Half of the World’s Petaflop Systems; Delivers Scalable Networking for Next Generation Supercomputers (27 июня 2011).
  40. Teasing Out The Top 500 Truth Through Networking
  41. Harif, Tal Barak. Mellanox Buffered by Orders as Economy Flags: Israel Overnight, Bloomberg (30 августа 2011). Дата обращения 29 октября 2011.
  42. Mellanox Falls on Downgrade, Bloomberg (10 сентября 2012). Дата обращения 29 октября 2011.
  43. Is Mellanox Oracle’s Networking B*tch?, SiliconAngle (20 июня 2011). Дата обращения 29 октября 2011.

Ссылки

This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.