Mellanox (Mellanox)
Mellanox | |
---|---|
Тип | Дочерняя компания |
Листинг на бирже |
NASDAQ: MLNX |
Основание | 1999 |
Упразднена | 2020 |
Причина упразднения | Поглощена Nvidia |
Основатели |
Эяль Вальдман Рони Ашури |
Расположение | Израиль: Йокнеам-Илит[1] |
Ключевые фигуры | Эяль Вальдман (CEO) |
Отрасль |
телекоммуникационное оборудование (МСОК: 2630 ) |
Продукция | Коммутаторы InfiniBand и Ethernet, сетевые адаптеры InfiniBand и Ethernet |
Оборот | ▲ $658 млн (2015)[2]; $463 млн (2014)[3] |
Операционная прибыль | ▲ $118,3 млн (2012) |
Чистая прибыль | ▲ $111,3 млн (2012) |
Капитализация | около $4 млрд (2018) |
Число сотрудников | 2,9 тыс. (март 2017) |
Материнская компания | NVidia |
Сайт | mellanox.com |
Медиафайлы на Викискладе |
Mellanox (Mellanox Technologies) — израильская компания, производитель телекоммуникационного оборудования, ключевой разработчик технологии InfiniBand. Основана в 1999 году, в 2019—2020 годы стала принадлежать корпорации Nvidia.
С 2011 года являлась единственным производителем оборудования для сетей InfiniBand, также выпускала высокоскоростное Ethernet-оборудование, в том числе с поддержкой технологии RoCE[англ.] (RDMA в сетях Ethernet) с фокусом на суперкомпьютерные лаборатории и крупные коммерческие центры обработки данных[4]. Линейка продукции включала сетевые адаптеры, коммутаторы, кабели, программное обеспечение, интегральные микросхемы.
Акции торговались на NASDAQ (тикер MLNX
). Штаб-квартиры располагались в Саннивейле (Калифорния) и Йокнеаме (Израиль).
История
[править | править код]Основана бывшими руководителями Galileo Technology (приобретённой Marvell Technology Group в октябре 2000 года за эквивалент $2,7 млрд[5]) Eyal Waldman и Roni Ashuri. Изначально планировалось, что компания будет лишь производителем интегральных микросхем, но к 2009 году она стала поставлять полный ассортимент продуктов для организации сетей[6]. Компания собрала более $89 млн в трёх раундах венчурного финансирования, среди инвесторов: Raza Venture Management, Sequoia Capital, US Venture Partners, Bessemer Venture Partners, Bank of America Securities, China Development Investment Bank, Gemini Israel Funds, Jerusalem Global Ventures и Walden Israel Venture Capital. Среди стратегических инвесторов: Dell, IBM, JNI, Quanta Computer, Vitesse Semiconductor и Sun Microsystems.[7][8]
Акции компании были размещены на NASDAQ в 2007 году, по итогам размещения компания получила $102 млн и оценена в $0,5 млрд[9]. С 2010 года крупным инвестором компании стала корпорация Oracle, увеличившая свою долю до примерно 10 %[7], Oracle заявляла, что не планирует приобретать Mellanox и лишь использует технологии InfiniBand в своих линейках Exadata и Exalogic[10].
В 2010 году компания приобрела своего конкурента Voltaire за $218 млн[11][12]. 15 августа 2013 года Mellanox завершила поглощение изготовителя интегральных фотонных чипов Kotura за $82 млн; здания Kotura в Monterey Park (Калифорния) стали первым исследовательским центром Mellanox в США[13][14]. 4 июня 2013 года поглощена компания IPtronics — производитель лазеров VCSEL, драйверов для оптических модуляторов, массивов трансимпедансных усилителей[укр.] за $47,5 млн[14][15].
11 марта 2019 года было объявлено о покупке 100 % акций Mellanox компанией NVidia. Акции выкупаются по $125 за штуку, общая сумма сделки $6.9 млрд. Наряду с NVidia на поглощение Mellanox претендовали компании Microsoft, Intel и Xilinx, однако предложение Nvidia показалось акционерам Mellanox предпочтительным[16]. Сделка завершена 27 апреля 2020 года[17][18].
Продукция
[править | править код]Mellanox не обладала собственными мощностями по изготовлению микросхем, работая по бесфабричной схеме[19], заказывая производство на сторонних фабриках, в частности, на TSMC[20].
В 2010 Reuters назвала Mellanox одним из основных производителей коммутаторов для дата-центров и высокопроизводительных вычислений, а технологию InfiniBand более быстрой и масштабируемой, чем альтернативные коммуникационные технологии[21]. Сходное мнение высказывал директор Oracle Ларри Эллисон[6].
Некоторые интегральные микросхемы[22]:
- InfiniScale IV — чип коммутатора Infiniband на 36 портов QDR 4x (40 Гбит/с) или 12 портов QDR 12x (120 Гбит/с). Четвёртое поколение коммутаторов. Размер корпуса чипа 45 на 45 мм.
- SwitchX (2011) — чип многопротокольного коммутатора с 36 портами FDR 4x Infiniband (56 Гбит/с) либо 64 портами 10G/20G Ethernet (144 трансивера, каждый со скоростью до 14 Гбит/с), обрабатывающий пакеты InfiniBand, Ethernet и Fibre Channel.[20] SwitchX — пятое поколение коммутационных чипов, изготовлен по 40 нм техпроцессу с 1.4 млрд транзисторов, размер корпуса чипа 45 на 45 мм.[20] Он развивает двухпротокольную архитектуру, ранее разработанную для чипов ConnectX (90 нм).[9]
- SwitchX-2 (2012) — шестое поколение коммутаторов, до 36 портов FDR 4x Infiniband (56 Гбит/с) или 40G/56G Ethernet[23]
- SwitchIB (2014) — седьмое поколение коммутаторов, до 36 портов QDR/FDR10/FDR/EDR 4x Infiniband (40, 41, 56 и 100 Гбит/с). Размер корпуса 53×53 мм.
- SwitchIB-2 (конец 2015) — коммутатор Infiniband, 36 портов до 100 Гбит/с[24]
- Quantum — 40 портовый коммутатор 200 Гбит/с HDR InfiniBand.[25]
- Spectrum — коммутатор Ethernet, 50 и 100Gbit Ethernet, 28 нм TSMC. 32 порта 100 Гбит[26].
- Spectrum-2 (2018) — коммутатор Ethernet, 32 порта 200Gbit Ethernet, либо 64 порта 100 Гбит[14][27]
Интегральные микросхемы компании для сетевых адаптеров (HBA)[28]:
- ConnectX-2 (2009) — чип адаптера с одним или двумя портами Infiniband 4x SDR/DDR/QDR (10, 20 или 40 Гбит/с) или 10G Ethernet. Подключается по шине PCI Express 2.0 8x.[29]
- ConnectX-3 (2011) — чип сетевого адаптера на один или два порта 10G/40Gbit Ethernet или Infiniband до FDR 4x (56 Гбит/с), с поддержкой виртуализации для VMware ESXi 5.0.[4][30][31]
- ConnectX-4 (2014—2015) — чип сетевого адаптера на один или два порта 100Gbit Ethernet или Infiniband EDR 4x (100 Гбит/с)[32]. Также поддерживает все более медленные режимы Infiniband 4x. Подключается к шине PCI Express 3.0 16x.
- ConnectX-4 Lx — чип сетевого адаптера Ethernet со скоростями 10, 25, 40, 50 Гбит. (два порта только для скоростей до 25)[26]
- ConnectX-5 (2016) — чип сетевого адаптера на один или два порта 100Gbit Ethernet или Infiniband EDR 4x (100 Гбит/с). Дополнительно имеет встроенный коммутатор PCI-express с поддержкой поколения PCI express 4.0. Также позволяет строить сети размером до 4 узлов при использовании двухпортовых карт без внешних Infiniband коммутаторов[33][34]
- ConnectX-6 (2017) — 200 Гбит/с HDR InfiniBand[35][36]
- Bluefield (2017) — интегрированный контроллер, сочетающий 2 порта 100 Гбит/с, коммутатор PCI express (суммарно x32 gen 4.0) и до 16 ядер ARM Cortex-A72, реализует NVMe-oF[37][38].
Заказчики
[править | править код]Продукты Mellanox линейки InfiniBand широко применялись при создании вычислительных кластеров максимальной производительности. Значительная доля (более 40 %) суперкомпьютеров из рейтинга TOP500 использует Infiniband в качестве основной высокопроизводительной сети[39][40].
На 2011 год более четверти доходов Mellanox получала от двух крупных покупателей: Hewlett-Packard и IBM[41], ещё 2 % доходов обеспечивали заказы от Intel[42], также крупным покупателем продукции являлась корпорация Oracle (владевшая 10 % Mellanox)[43], применявшая Infiniband-коммутаторы и сетевые адаптеры Mellanox в том числе в программно-аппаратных комплексах Exadata, Exalogic, Exalytics, Big Data Appliance (с 2019 года перешли на коммутаторы Cisco с поддержкой RoCE, продолжив использовать адаптеры Mellanox).
Примечания
[править | править код]- ↑ Mellanox office locations . Mellanox Technologies. Дата обращения: 17 января 2015. Архивировано из оригинала 11 декабря 2012 года.
- ↑ Mellanox Achieves Record Quarterly and Annual Revenue . Mellanox Technologies (2016). Дата обращения: 27 января 2016. Архивировано 29 января 2016 года.
- ↑ Corporate Overview . Mellanox Technologies (2015). Дата обращения: 29 октября 2011. Архивировано 5 августа 2013 года.
- ↑ 1 2 Amodio, Michelle On the Road with Mellanox Technologies . TMCnet (6 октября 2011). Дата обращения: 29 октября 2011. Архивировано 16 октября 2011 года.
- ↑ Marvell to acquire LAN-chip supplier Galileo for $2.7 billion in stock . eetimes (17 октября 2000). Дата обращения: 12 июня 2011. Архивировано из оригинала 13 июля 2012 года.
- ↑ 1 2 Ackerman, Gwen (2011-01-05). "Mellanox CEO Sees Sales Rising 10-Fold With Voltaire". Bloomberg. Архивировано 30 декабря 2011. Дата обращения: 29 октября 2011.
- ↑ 1 2 Tsipori, Tali Oracle acquires $11m more Mellanox shares . Globes (25 сентября 2011). Дата обращения: 29 октября 2011. Архивировано 11 октября 2011 года.
- ↑ Kovar, Joseph F. VC Money Continues To Drain Into InfiniBand: Mellanox Secures $56M . CRN (11 февраля 2002). Дата обращения: 29 октября 2011. Архивировано из оригинала 4 марта 2016 года.
- ↑ 1 2 Walko, John (2007-02-08). "Mellanox raises $102 million with IPO on Nasdaq". EE Times. Архивировано 16 марта 2012. Дата обращения: 29 октября 2011.
- ↑ Bagh, Carl Oracle buys 10 pct stake in Mellanox, will Dell, HP, IBM follow suit? International Business Times (29 октября 2010). Дата обращения: 29 октября 2011. Архивировано 12 ноября 2010 года.
- ↑ Morgan, Timothy Prickett (2010-11-29). "Mellanox gobbles up Voltaire for $218m". The Register. Архивировано 8 октября 2011. Дата обращения: 29 октября 2011.
- ↑ Stynes, Tess (2010-11-30). "Mellanox Agrees to Acquire Voltaire". The Wall Street Journal. Архивировано 24 мая 2012. Дата обращения: 29 октября 2011.
- ↑ "Mellanox Technologies, Ltd. Completes Acquisition of Kotura, Inc". Mellanox.com. 2013-08-15. Архивировано 2 февраля 2014. Дата обращения: 10 января 2014.
- ↑ 1 2 3 "Mellanox Trims Down To Reach For A Profitable $1 Billion" (англ.). NextPlatform. 2018-01-21. Архивировано 6 октября 2018. Дата обращения: 6 октября 2018.
- ↑ "Mellanox Technologies Ltd. Announces Definitive Agreement to Acquire IPtronics A/S". NASDAQ. Дата обращения: 4 июня 2013.
- ↑ Fitch, Asa (2019-03-11). "Nvidia to Acquire Mellanox, Its Biggest Deal Ever at Roughly $7 Billion". Wall Street Journal (англ.). Архивировано 11 марта 2019. Дата обращения: 11 марта 2019.
- ↑ "Nvidia завершила $7 млрд сделку по приобретению Mellanox" (неопр.). CNews. 2020-04-27. Архивировано 2 мая 2020. Дата обращения: 19 мая 2020.
{{cite news}}
: Википедия:Обслуживание CS1 (неизвестный язык) (ссылка) - ↑ Tyler Clifford. Nvidia completes ‘homerun deal’ after closing $7 billion acquisition of Mellanox . CNBC (27 апреля 2020). Дата обращения: 1 мая 2020. Архивировано 1 мая 2020 года.
- ↑ Web-chip fabless Mellanox poised to raise $50m at company value of $250m . TheMarker (30 октября 2001). Дата обращения: 29 октября 2011. Архивировано из оригинала 4 февраля 2013 года.
- ↑ 1 2 3 Morgan, Timothy Prickett (2011-04-26). "Mellanox uncloaks SwitchX network switch-hitter". The Register. Архивировано 26 октября 2011. Дата обращения: 29 октября 2011.
- ↑ "Oracle Corporation Makes Strategic Investment In Mellanox Technologies, Ltd". Reuters. 2010-10-27. Дата обращения: 29 октября 2011.
- ↑ 2009 .
- ↑ Mellanox etches software-defined networking onto SwitchX-2 chips. Working on OpenFlow controller for fabric manager Архивная копия от 11 марта 2017 на Wayback Machine // The Register, 2012-10-15
- ↑ Mellanox Turns InfiniBand Switches Into MPI Accelerators . Дата обращения: 28 октября 2018. Архивировано 8 июня 2017 года.
- ↑ Mellanox Poised For HDR InfiniBand Quantum Leap . Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
- ↑ 1 2 Mellanox Comes Out Swinging With 100G Spectrum Ethernet . Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
- ↑ Ethernet Getting Back On The Moore’s Law Track . Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
- ↑ 2009 .
- ↑ Mellanox pushes InfiniBand to 120Gb/s. Offloading IB processing from CPUs to ConnectX-2s Архивная копия от 19 августа 2016 на Wayback Machine, 2009 «Mellanox also said at the SC09 show that the ConnectX-2 host channel adapters it has been shipping had another golden screwdriver upgrade.»
- ↑ Mellanox forges switch-hitting ConnectX-3 adapters. The server companion to SwitchX switch chips Архивная копия от 11 марта 2017 на Wayback Machine // The Register, 2011-06-16
- ↑ Sur, Sayantan; Koop, Matthew J.; Lei; Panda, Dhabaleswar K. Performance Analysis and Evaluation of Mellanox ConnectX InfiniBand Architecture with Multi-Core Platforms (англ.) // hoti : journal. — 15th Annual IEEE Symposium on High-Performance Interconnects (HOTI 2007), 2007. — P. 125—134.
- ↑ Сетевой адаптер Mellanox ConnectX-4 поддерживает скорости до 100 Гбит/с Архивировано 4 марта 2016 года. // IXBT, 13 Ноября, 2014
- ↑ Next-Gen Network Adapters: More Oomph, Switchless Clusters . Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
- ↑ Mellanox Adds Network Computing Smarts into New 100G Adapters | TOP500 Supercomputer Sites . Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
- ↑ What 200G HDR InfiniBand Solutions Mean for Today’s Data Centers . Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
- ↑ Mellanox Unveils 200Gb/s HDR InfiniBand Solutions | StorageReview.com — Storage Reviews . Дата обращения: 6 октября 2018. Архивировано из оригинала 6 октября 2018 года.
- ↑ Mellanox BlueField Accelerates NVMe over Fabrics - insideHPC . Дата обращения: 6 октября 2018. Архивировано 7 октября 2018 года.
- ↑ Архивированная копия . Дата обращения: 6 октября 2018. Архивировано 7 октября 2018 года.
- ↑ "Mellanox Accelerates Half of the World's Petaflop Systems; Delivers Scalable Networking for Next Generation Supercomputers". Bloomberg. 2011-06-27.
- ↑ Teasing Out The Top 500 Truth Through Networking . Дата обращения: 6 октября 2018. Архивировано 6 октября 2018 года.
- ↑ Harif, Tal Barak (2011-08-30). "Mellanox Buffered by Orders as Economy Flags: Israel Overnight". Bloomberg. Архивировано 30 декабря 2011. Дата обращения: 29 октября 2011.
- ↑ "Mellanox Falls on Downgrade". Bloomberg. 2012-09-10. Архивировано 5 декабря 2020. Дата обращения: 29 октября 2011.
- ↑ "Is Mellanox Oracle's Networking B*tch?". SiliconAngle. 2011-06-20. Архивировано 4 марта 2016. Дата обращения: 29 октября 2011.
Ссылки
[править | править код]- mellanox.com — официальный сайт Mellanox