NVIDIA Отчёт

01.09.2022

Компания: NVIDIA Corp.

Ticker: NVDA

Индустрия: Semiconductors (полупроводники)

Расположение Главного офиса: Санта-Клара, Калифорния, США

Со-основатель и CEO: Дженсен Хуанг (с основания компании в 1993 году), 59 лет

Рыночная капитализация (на 1 сентября 2022 г.): $347 млрд

Выручка (за последние 4 квартала): $29.7 млрд

Как рейтинг, так и сам анализ не являются инвестиционными рекомендациями, а отражают только мое мнение о потенциале компании. Во-первых, я не знаю и не могу знать ваших финансовых целей, инвестиционных предпочтений и отношения к риску, соответственно, рекомендаций никаких дать не могу. Во-вторых, информация в анализе может быть полезна исключительно долгосрочным инвесторам. А для того, чтобы им быть, необходимо иметь терпение и сильные нервы. Не каждый может выдержать давление, испытываемое при сильных падениях котировок. А они будут – это единственное, что я могу вам гарантировать.

 

INVESTMENT SUMMARY

Инвестиционный рейтинг (5-летний горизонт инвестирования) 

Подробно о том, как я выставляю рейтинги, смотрите на странице  «Метод»

Рейтинг в отчёте указан на дату составления отчёта. Рейтинг на странице «Отчёты» обновлен с учётом актуальной цены, даты и изменениях в оценке риска.

Общий рейтинг при разных ценах на акцию

1990 руб.

3 месяца

Доступ к анализам компаний. См. стр. Отчёты

Основные ожидания в сценарии «потенциал» приведены в таблице ниже.

* финансовый год NVIDIA заканчивается в конце января (например, FY27 – это финансовый год, который закончится 31 января 2027 г.).

**Net operating income after taxes (чистый операционный доход за вычетом налога на прибыль).

  • Основной потенциал NVIDIA заключается в сегментах datacenter и automotive, также часть прироста она может получить от увеличения продаж потребительских и профессиональных графических карт. Более подробно читайте в разделах «Ключевая зона роста: datacenter computing and networking hardware”, “Ключевая зона роста: автомобильный сегмент” и “Ключевая зона роста: дискретные видеокарты и GeForce Now”.
  • В настоящее время операционная маржа NVIDIA (26.9% за последние 4 квартала) снижается из-за падения спроса на игровые видеокарты (в основном со стороны криптомайнеров), что привело как снижению цен, а соответственно и маржи, а также начислению дополнительных резервов на запасы. В дополнение к этому NVIDIA отразила расход в размере $1.4 млрд, т.е. суммы, который компания заплатила Arm Ltd. за срыв сделки по ее приобретению.

За последние 3 года средняя операционная маржа компании была 29,5%, а пик ее пришелся на 2021 г. (>37%). Даже при оптимистичном сценарии я не ожидаю, что маржинальность NVIDIA превысит 40%. Продукция NVIDIA – очень дорогая и высокомаржинальная. Если компания продолжит поддерживать имеющийся темп инноваций и обеспечит также значительно превосходить конкурентов, то сможет, как и сегодня, запрашивать высокие цены, и даже в некоторой степени улучшить свою операционную маржинальность. Однако учитывая, что этот показатель и так уже на очень высоких уровнях, не думаю, что там есть какой-либо существенный потенциал роста.

В настоящее время маржинальность бизнеса NVIDIA является лучшей среди всех конкурентов, и во многом вследствие ненасытного спроса от криптомайнеров и, как следствие, стремительного роста цен на видеокарты в 2021 г. Огня добавил также и мировой дефицит в полупроводниковой индустрии. Поэтому вполне возможно, что достигнутая в 2021 г. маржинальность является скорее исключением, чем правилом, и в будущем мы увидим ее снижение. Дополнительное давление на цены также могут оказать конкуренция с AMD, Intel, Qualcomm и прочими лидерами индустрии.

  • Будущий рост акций значительно ограничивает уже и так высокая оценка компании. Огромный потенциал NVIDIA, сверхуспешные результаты деятельности самой компании и ее знаменитого CEO, Дженсена Хуанга, а также хайп вокруг полупроводниковой индустрии уже очень сильно взвинтили капитализацию компании. Она значительно снизилась в последние месяцы, однако все равно остается высокой. Уровень P/E в размере 45 можно было бы оправдать, если бы компания все еще оставалась низкомаржинальной и имеющей потенциал за счет увеличения прибыльности. Однако, это не случай NVIDIA, поэтому единственным источником роста является расширение бизнеса и рост выручки.

Если компания сможет оправдать высокие ожидания инвесторов, ее акции будут расти в цене, однако ее оценка относительно показателей бизнеса будет снижаться по мере того, как компания будет расти (эффект высокой базы, чем крупнее предприятие, тем сложнее ему поддерживать быстрые темпы роста). При этом через 5 лет практически все бизнес-сегменты NVIDIA могут еще сохранить значительной потенциал роста, поэтому при оптимистичном сценарии ее оценка все еще может быть на достаточно высоком уровне.

История моих транзакций с акциями NVIDIA

На дату завершения данного отчета я не владел акциями NVIDIA.

ДЕТАЛЬНЫЙ АНАЛИЗ

Краткое описание компании

Описывая бизнес NVIDIA в одном предложении, можно сказать, что она занимается аппаратным ускорением. Компания была основана в 1993 г. Дженсеном Хуангом (который до сих пор является CEO компании), Крисом Малачовски и Кертисом Приемом. И первой проблемой, которые сооснователи выбрали для решения, стало аппаратное ускорение графических вычислений (графика в играх становилась все более сложной и вычислительно-емкой и CPU уже не могли справиться с ее обработкой).

Архитектура центральных процессоров (central processing units или CPUs) спроектирована быть универсальной, т.е. предназначенной выполнять любые поступающие задачи (этот рынок в основном занят Intel и AMD). Однако, для некоторых, специфических задач их архитектура не является наиболее производительной и эффективной. Для таких задач компьютеру требуется аппаратное ускорение, которое обеспечивают так называемые сопроцессоры. Они забирают специфические задачи у центрального процессора, выполняют их гораздо быстрее, при этом разгружая CPU и значительно ускоряя производительность всего компьютера. Видеокарта (GPU, graphic processing unit) – это один из типов таких сопроцессоров, их архитектура предназначена для параллельного выполнения большого количества сравнительно простых задач (а графика состоит из миллионов пикселей и полигонов, характеристики и местоположение которых требуется рассчитывать).

Сегодня, большинство менее производительных устройств, таких как смартфоны, планшеты или мультимедийные системы в автомобилях, используют так называемые системы на кристалле (system-on-a-chip, SOC), в которых CPU и GPU помещаются на один чип. В дополнение к этому, в большинстве современных CPU имеется встроенный графический процессор, поэтому многие ноутбуки и даже настольные ПК не имеют отдельных видеокарт. Такая интегрированная графика обладает достаточной мощностью для повседневных задач: работы в интернете, в офисных приложениях и многих игр. Однако, для более графически-нагруженных игр, редактирования видео или 3D моделирования требуются дискретные видеокарты (discrete GPUs или dGPUs).

NVIDIA была далеко не первой компанией, которая вышла с таким предложением, однако после успеха линейки видеокарт RIVA TNT, а следом и GeForce, компания захватила как рыночное, так и технологическое лидерство, которое удерживает уже более 20 лет. В графическом сегменте NVIDIA предлагает 2 продуктовые линейки: GeForce (для геймеров, дизайнеров-любителей, видеомонтажеров-любителей) и Quadro (для профессиональных и промышленных дизайнеров). В обоих рынках доля NVIDIA превышает 80% (а в профессиональных картах – 90%). В дополнение к этому NVIDIA поставляет SoC для приставки Nintendo Switch, а также предлагает сервис облачного гейминга (GeForce Now) и NVIDIA Omniverse (платформа для совместной работы дизайнеров, инженеров и исследователей для создания физически-корректных 3D-симуляций, вычисление которых проходит в реальном времени). Пока выручка от обоих сервисов незначительная.

После завоевания графического рынка NVIDIA двинулась покорять суперкомпьютеры. Эти огромные машины, состоящие из тысяч процессоров и стоящие десятки и даже сотни миллионов долларов, как правило, используются для прогнозирования погоды, исследования климата, молекулярного моделирования, симулирования физических процессов, криптографии и т.д. (так называемый high-performance computing, HPC). Традиционно, эти монстры работали на специальных серверных CPU, таких как Intel Xeon или IBM Power. Однако в середине 2000-х некоторые исследователи обнаружили, что множество ядер и параллельная архитектура графических процессоров отлично подходили для научных и технических вычислений, а перевод некоторых задач от CPU к GPU позволял значительно ускорить работу по сравнению с использованием только центрального процессора. Увидев в этом перспективу, NVIDIA добавила дополнительные математические функции в отдельную продуктовую линейку NVIDIA Tesla, убрала средства вывода изображения и разработала CUDA — платформу и API, которая позволяла использовать потоковые процессоры видеокарт NVIDIA для неграфических вычислений. Эти специализированные GPU быстро набирали популярность, и к ноябрю 2021 г. 143 из 500 самых быстрых суперкомпьютеров в мире имели аппаратные ускорители NVIDIA на борту.

Из-за успехов в применении GPU компании для HPC, разработчики в сфере AI решили использовать графические процессоры для ускорения алгоритмов машинного и глубокого обучения (machine and deep learning). Обучение модели DL включает в себя «скармливание» нейронной сети огромных объемов данных, и для этой цели GPU давали производительность в 10 и более раз выше, чем CPU. NVIDIA быстро распознала весь потенциал нового рынка, начала плотно работать с разработчиками, создавая библиотеки, фреймворки, софт, параллельно улучшая сами GPU от поколения к поколению, делая их все более применимыми для AI-вычислений.

Эта совместная работа привела к «Кембрийскому взрыву» в исследованиях AI и его использованию для распознавания аудио и изображений, в робототехнике, самоуправляемых автомобилях и прочих приложениях. Продажа аппаратных ускорителей для датацентров стала для NVDIA многомиллиардным бизнесом, и компания до сих пор имеет более чем 90% долю рынка, не встречая какой-либо достойной конкуренции. Сегодня продукция NVIDIA включает далеко не только GPU, также компания предлагает SoC и CPU на архитектуре Arm, коммутаторы, вычислительные системы (DGX AI), целые суперкомпьютерные кластеры на базе этих систем (DGX SuperPOD), а недавно представила новые data processing units (Bluefield DPUs). Дополнительно экосистема NVIDIA включает множество софта для AI и HPC приложений, поддерживающих аппаратное ускорение. Решения компании предлагаются основными поставщиками серверов, таких как Cisco, Dell, HP, IBM, используются всеми крупными провайдерами облачных сервисов (AWS, Microsoft Azure, Google Cloud platform and Alibaba Cloud) и тысячами стартапов, предприятий и научных лабораторий.

Ну и последним крупным рынком для NVIDIA является автомобильный. Компания поставляет свои чипы для мультимедийных систем в автомобилях, в основном для Mercedes Benz, а также аппаратные и софтверные решения для систем помощи водителю в управлении автомобилем (ADAS, advanced driver assistance systems) и автопилотируемых автомобилей (AVs, autonomous vehicles).

Многие годы чипы для ADAS производили традиционные поставщики автомобильной отрасли, такие как NXP Semiconductors и Renesas, однако запрос на более «умные мозги» для автопилотов создал привлекательную возможность для технологических лидеров полупроводниковой индустрии. Лидером рынка систем ADAS уровня 2 (согласно классификации Society of Automotive Engineers) является Mobileye, принадлежащая Intel с 2017 г. (доля рынка — более 70%). Системы 2 уровня (L2) могут взять контроль над автомобилем на определенных участках (на шоссе, автострадах или парковках), однако учитывая их ограниченные возможности, водитель всегда должен следить за трассой и быть готовым взять управление на себя. Сегодня многие автопроизводители уже активно предлагают L2 опции (примеры: Tesla AutoPilot, Cadillac Super Cruise, Audi Traffic Jam Assist, Nissan ProPILOT).

Несмотря на то, что сегодня Mobileye – абсолютный лидер в полупроводниках для систем уровня L2, NVIDIA может перехватить первенство в системах следующего поколения (L2+ и L3). Многие крупные автопроизводители, такие как Mercedes Benz, Toyota, Volkswagen, Volvo выбрали именно NVIDIA, как своего ключевого поставщика технологии. Более подробно об этом смотрите в разделе “Ключевая зона роста: автомобильный сегмент”.

Выручка NVIDIA в размере основных сегментов представлена на графике ниже.

Ключевые финансовые показатели за последние 5 лет

* финансовый год NVIDIA заканчивается в конце января (например, финансовый год, закончившийся 30 января 2022 г. – это FY22).

** Net operating income after taxes (чистый операционный доход за вычетом налога на прибыль и единоразовых доходов/расходов).

 

Ключевая зона роста: datacenter computing and networking hardware

За последние годы выручка NVIDIA от продажи решений для суперкомпьютеров и датацентров увеличилась в более чем в 5 раз, а компания превратилась из нишевого поставщика аппаратных ускорителей в одного из ключевых игроков на мировом рынке AI (artificial intelligence) и HPC (high-performance computing). Сегодня NVIDIA – это одна самых инновационных и обожаемых компаний в полупроводниковой индустрии, а ее конференции и анонсы продуктов являются одними из наиболее ожидаемых событий среди исследователей и разработчиков AI и HPC. И потенциал роста этого сегмента бизнеса компании все еще огромен:

1.Стремительное развитие электронной коммерции, бесконечных онлайн-сервисов, видео-платформ, приложений для смартфонов, автоматизации и цифровизации в крупных компаниях привело к тому, что общий размер расходов на высокопроизводительные серверные процессоры вырос на 84% по сравнению с 2016 г. Под общими расходами я подразумеваю затраты на серверные CPU на архитектурах x86, Arm и серверные GPU и FPGA.

И каких-либо признаков замедления данного тренда не ожидается. Обработка изображений, видео, аудио, дроны, индустриальные роботы, самоуправляемые транспортные средства, смартфоны, камеры, смартспикеры – все эти технологии требуют применения AI. Триллионы девайсов, подключенные к интернету, будут генерировать экзабайты информации, которая должна будет обрабатываться в дата-центрах предприятий и провайдеров облачных сервисов. И всем им нужны будут миллионы процессов, как традиционных CPU, так и сопроцессоров, таких как GPU, FPGA или ASIC.

В дополнение к этому, в мире активно развиваются так называемые периферийные вычисления (edge computing), т.е. когда вычислительные мощности размещаются как можно ближе к тому месту, где и создается информация (в локальных дата-центрах и непосредственно в девайсах).

Edge computing позволяет устройству самому обрабатывать полученную информацию, а не отправлять ее на удаленный облачный сервер. Легче всего это понять на примере камер. Все крупные облачные сервисы предлагают услуги по распознаванию объектов на видео. Камера посылает полученное изображение в облако, где дата-центр обрабатывает его, распознает необходимые объекты с помощью натренированной нейронной сети и отправляет полученные результаты обратно. Однако, этот дата-центр может находиться в сотнях километров от камеры, что увеличивает задержку и время отклика. А если нейронная сеть имплементирована прямо в камеру, она может обрабатывать все самостоятельно, без облака. Это снижает задержки, позволяет откликаться на полученную информацию в режиме реального времени и уменьшает общую нагрузку на сеть облака. Также, это позволяет обрабатывать всю конфиденциальную и персональную информацию на месте безе ее передачи на централизованный сервер.

Дополнительно, внедрять нейронную сеть можно не только в сам девайс, но и в локальный дата-центр, например находящийся непосредственно на заводе, складе, центре распределения, магазине и т.д. Это позволяет сократить расстояние между с пользователем (или сенсором) и сервером, который обрабатывает поступающие данные, и при этом все равно установить гораздо более высокие вычислительные мощности по сравнению с теми, которые можно внедрить в девайсе.

Рынки вычислительных процессоров как для периферийных устройств, так и для локальных датацентров являются важными для NVIDIA и представляют большую возможность для увеличения выручки. Если добавить к этому продолжающийся рост спроса на вычислительные мощности облачными дата-центрами, возможностей у NVIDIA для расширения бизнеса предостаточно.

2.В последние годы доля NVIDIA в расходах на серверные процессоры выросла кардинально. Благодаря тому, что компании первой зашла на рынок (first mover advantage), быстрому темпу инноваций, который она задала, плотной совместной работе с девелоперами, агрессивной, но умной маркетинговой стратегии, NVIDIA смогла обеспечить себе абсолютно доминирующее положение на рынке со-процессоров, оставив всех конкурентов далеко позади.

И со всем тем потенциалом, что NVIDIA накопила за эти годы, я думаю, что через 5–7  лет у нее есть шанс подвинуть Intel и занять ее трон, как самого крупного поставщика решений для дата-центров в мире:

a) Более 50 лет полупроводниковая индустрия «жила» по закону Мура, который в 1965 г. предсказал, что количество транзисторов на чипе будет удваиваться каждые 2 года, что со временем будет приводить к экспоненциальному росту мощности вычислительных устройств. И пока индустрия идеально приводила этот закон в исполнение, очень немногие задумывались об аппаратном ускорении, т.е. использовании различных чипов для различных задач. Зачем, если можно просто поставить больше CPU, а если этого не хватит, то просто подождать еще 2–3 года, пока закон Мура удвоит их производительность.

Но из-за физических ограничений и постоянного удорожания фабрик снижать техпроцесс становится все сложнее и сложнее, и сегодня среднегодовой рост производительности на один поток (single-threaded) уже не превышает 10%. При этом спрос на более высокую вычислительную мощность продолжает расти. И все это вместе приводят к увеличению популярности со-процессоров, в частности, решений от NVIDIA. Сам Дженсен Хуанг всегда повторяет, что в будущем каждая система будет использовать аппаратное ускорение, у нее просто не будет другого выхода.

b) Впечатляющий рост NVIDIA на рынке AI привлек много внимания, а также множество конкурентов. Intel адаптировала свои серверные Xeon CPUs для задач AI inference, купила несколько стартапов, разрабатывающих сопроцессоры (например, Nervana и Habana Labs) и сейчас пытается на их технологиях вывести на рынок продукцию, способную конкурировать с NVIDIA. AMD вышла со своими вариантами GPU для приложений HPC, Xilinx со специализированными FPGA, Google постоянно улучшает свои тензорные процессоры (TPU, Tensor Processing Units), Amazon представила AWS Inferentia для задач AI, многие другие также пытаются успеть на вечеринку: Qualcomm, Samsung и десятки стартапов, каждый из которых заявляет о разработке чипов, которые будут в разы быстрее продуктов NVIDIA.

Несмотря на растущую в последние годы конкуренцию, NVIDIA до сих пор остается неоспоримым лидером. Никакая компания по отдельности не представляет серьезной угрозы положению NVIDIA, и у ее есть все шансы остаться монополистом на этом стремительно развивающемся рынке:

      • Вопрос ускорения вычислений – это не только вопрос быстрого «железа». Софт для суперкомпьютеров и крупных серверов является крайне сложным. Как однажды сказал Дженсен Хуанг: «Это одна из причин, почему так много людей говорят о своих чипах, но после куда-то исчезают. Потому что разработка софта для него – это невероятно сложная задача» (оригинал: “that’s one of the reasons why so many people talk about chips, but they never show up; because building the software is just an enormous undertaking”). Количество разработчиков софта в NVIDIA исчисляется тысячами, и по словам Дженсена уже 2/3 компании работают именно над развитием софта.

И хотя NVIDIA продает железо, именно прилагающийся софт делает эти «железки» настолько привлекательными. На сегодняшний день NVIDIA имеет лучший набор программных инструментов для аппаратного ускорения на GPU. CUDA — платформу и API, которая позволяет использовать потоковые процессоры видеокарт NVIDIA для неграфических вычислений. Коллекцию CUDA-X, включающую в себя большое количество библиотек, программы для оптимизации и отладки, наборы средств разработки для машинного обучения, линейной алгебры, обработки сигналов, параллельных алгоритмов и т.п., специализированные программные стеки для таких индустрий, как энергетика, производство, фармацевтике, финансы, розничная торговля и т.п. NVIDIA поддерживает все основные открытые библиотеки для машинного обучения, такие как TensorFlow, Pytorch или Mxnet, и аппаратное ускорение для более чем 1 800 различных приложений. Кроме этого, NVIDIA постоянно обновляет драйверы. И это не только позволяет устранить ошибки и сделать работу более комфортной, но значительно повысить производительность, иногда в разы.

Построение всего этого заняло у NVIDIA более 10 лет и потребовало инвестиций в миллиарды долларов. За это время инноваций в софте было не меньше, чем в самом железе. Многие могут сделать быстрый чип с кучей терафлопс, но потребуются годы и сотни инженеров, чтобы перевести всю эту грубую мощь в полезную производительность. И это только для того, чтобы хотя бы приблизиться к NVIDIA, не говоря уже о том, что конкурентам надо каким-то образом создать магический чип, который будет гораздо быстрее, чем то, что могут придумать лучшие инженеры NVIDIA.

      • Развитая экосистема: большое количество установленных систем и разработчиков, использующих продукцию NVIDIA. NVIDIA начала развивать свою экосистему CUDA почти 15 лет назад, за добрых 10 лет до того, как это начал делать кто-либо другой. Как результат, сегодня ее популярность и распространенность на несколько порядков превосходит конкурирующие. Решения предлагаются всеми облачными провайдерами и поставщиками серверов, более 3 млн разработчиков по всему миру работают на CUDA по сравнению всего с 500 тыс. в 2017 г., а согласно данным от Jefferies и Liftr Insights по состоянию на январь 2022 г. 80% вычислительных инстансов с аппаратным ускорением пяти крупнейших облачных провайдеров предлагались на базе графических процессоров NVIDIA. Доля AWS Inferentia составляла всего 7%, Xilinx — 4%, Intel и AMD – 3% вместе взятые, Google TPU – 2%. Добавьте к этому десятки тысяч предприятий, которые ставят продукты NVIDIA в свои датацентры.

И, как и в любой другой развитой экосистеме, расширяющаяся база пользователей и девелоперов усиливает экосистему и делает ее еще более полезной для всех. Платформа используется многими девелоперами, она создают для нее приложения, затем эти приложения используются в облаках, либо на собственных серверах предприятий. Чем больше у тебя девелоперов, тем больше приложений, тем больше пользователей, которых привлекает наличие этих приложений, тем больше девелоперов, которых хотят делать для них новые приложения. И конкурирующей компании любого размера тяжело разорвать этот цикл и переманить пользователей в свою экосистему.

      • NVIDIA не стоит на месте и не ждет остальные компании догонят ее. Темп инноваций NVIDIA действительно впечатляет. В 2016 г. NVIDIA выпустила чип P100, которые был в 5 раз быстрее K80 предыдущего поколения и в 50 раз быстрее CPU в специализированных задачах. Уже через год NVIDIA выпустила V100, который был в 12 раз быстрее P100 в задачах AI training. И с даты релиза V100 NVIDIA еще удвоила его производительность только за счет обновлений драйверов и софта (а для некоторых приложений улучшение производительности было до 4 раз). Т.е. к 2020 г., менее чем за 4 года, компания увеличила производительность своей продукции в задачах AI в более чем 100 раз.

А в это время уже были компании, которые пытались разработать чипы, превосходящие продукцию NVIDIA. Например, Nervana, позднее купленная Intel, заявляла, что сделает чип, который будет в 10 раз быстрее P100. Пока он был в разработке, NVIDIA выпустила V100, разработала технологию NVSwitch, которая позволяла эффективнее соединять 16 GPU и работать им как один огромный процессор, удвоила производительность драйверов и библиотек CuDNN. Как результат, чип от Nervana устарел еще до выпуска.

К тому времени как NVIDIA анонсировала A100 в 2020 г., никто так и не смог «побить» V100, выпущенный тремя годами ранее. По сравнению с V100, новый чип от NVIDIA на архитектуре Ampere давал рост производительности 1,5–2  раза в задачах HPC и до 10 раз в задачах AI training и AI inference. Опять NVIDIA оказалась на годы впереди конкурентов. В 2022 г. компания анонсировала новое поколение – H100, который обещает быть в 7 раз быстрее A100 в задачах AI.

Важно помнить, что никто в индустрии не имеет экспертизы NVIDIA в железе и софте для AI и HPC. Если NVIDIA будет видеть угрозу со стороны AMD, Intel или какой другой компании, она может и сделает свои чипы лучше. Добавление тензорных ядер в чип V100, выпуск NVIDIA DLA и Xavier, ASIC и SOC, соответственно, собственной CPU на базе архитектуры Arm (NVIDIA Grace) продемонстрировали, что NVIDIA может создавать любые типы процессоров и сопроцессоров. Если архитектура GPU станет менее релевантной, компания адаптируется и будет использовать ту, что лучше.

      • Компания быстро расширяет линейку продуктов: она каждый квартал создает программные стеки для новых индустрий, плотно взаимодействует с девелоперами, компаниями и университетами для того, чтобы добавить поддержку аппаратного ускорения для еще больше количества приложений, ну и конечно, компания не забывает про классический способ расширения: приобретение других игроков рынка. В апреле 2020 г. NVIDIA купила Mellanox, одно из крупнейших мировых поставщиков высокоскоростного Ethernet и Infiniband-оборудования, коммутаторов, сетевых адаптеров, кабелей и программного обеспечения для суперкомпьютеров и дата-центров. И сразу же после объявления сделки NVIDIA начала более активно интегрировать Mellanox со своими продуктами. Сейчас оборудование Mellanox является частью DGX, HGX и EGX систем, дополнительно NVIDIA выпустила новый тип сопроцессоров — the data processing unit или DPU – который предназначены для обработки данных, шифрования, оптимизации маршрутизации между узлами дата-центра и прочих инфраструктурных задач.

Общий прогноз выручки (сценарий «потенциал») компании в сегменте Datacenter смотрите на графике ниже.

Ключевая зона роста: автомобильный сегмент

Да, пока данный сегмент не выглядит очень уж впечатляюще. Но за последние годы NVIDIA вложила в этот рынок миллиарды долларов и создала мощный фундамент: разработала экосистему NVIDIA Drive, которая состоит из специализированных SoC (поколения Xavier и Orin), инфраструктуры для тренировки нейронных сетей, платформы для виртуальной симуляции вождения, отдельной ОС и программного стека, подписала множество компаний на использование ее экосистемы, включая крупнейших автопроизводителей (Mercedes-Benz, Toyota, Volkswagen, Volvo, Audi и т.д.), главных поставщиков автоиндустрии (Bosch, Continental и ZF), а также сотни стартапов, провайдеров mobility services и разработчиков софта. Все эти вложения сделали NVIDIA одной из самых перспективных компаний в зарождающейся индустрии AV. Когда этот рынок наконец начнет «взлетать», NVIDIA будет готова занять значительную его долю.

Основные факторы роста в сегменте:

1.Расширение рынка систем ADAS L2+ и появление первых полностью самоуправляемых автомобилей (L4 и L5). Системы ADAS уровней 1 и 2 активно развивались в последние годы. По данным Intel, его подразделение Mobileye поставило 28.1 млн чипов EyeQ (L1-L2) в 2021 г. по сравнению с 8.7 млн в 2017 г. McKinsey оценивает, что около 24% всех автомобилей, проданных в 2020 г., были оборудованы ADAS уровня 2 и выше. По прогнозам компании к 2025 году этот показатель достигнет 63%. Добавим к этому развитие индустрии роботакси, масштабирование услуг которых по текущим ожиданиям, должно начаться в 2023–2025 гг. (сейчас их сервисы работают в тестовой фазе в нескольких городах мира).

Многие эксперты индустрии верят в то, что развитие полноценного автопилота (уровни 4–5) будет происходить в двух фазах: сначала в коммерческих сервисах роботакси, а затем в потребительских автомобилях, т.е. потребительские самоуправляемые автомобили появятся только тогда, когда индустрия роботакси уже достигнет достаточной зрелости. Основными причинами медленного, двухфазного внедрения являются стоимость технологии, невозможность масштабироваться с низкими затратами (из-за высокой стоимости оборудования), ограничениями регуляторов и в целом принятия технологии населением. Поэтому не стоит ожидать, что вскоре мы сможем купить себе полностью беспилотный автомобиль.

Несмотря на это, как системы уровне L2+, так и поставки технологий для роботакси, представляют хорошие возможности для участников рынка. И хотя большая часть объемов продаж ADAS придется на сравнительно простые платформы L2, более продвинутые системы, и соответственно, чипы для них, будут стоит существенно дороже (иметь выше ASP, average selling price), что в суммовом выражении приведет к гораздо более значительному росту рынка. К примеру, по заявлениям Intel ее чипы последнего поколения имеют ASP в 3–15 раз выше, чем EyeQ предыдущих поколений для L1-L2 систем.

Технология самоуправляемых автомобилей чрезвычайно сложна, как с точки зрения необходимого для ее работы оборудования, так и со стороны программного обеспечения. Машинное обучение, LIDAR’ы, радары, камеры, ультразвуковые датчики – все это помогает автомобилю ориентироваться на дороге. И естественно, требуется огромные вычислительные мощности для того, чтобы обрабатывать информацию со всех сенсоров. Система самоуправляемого автомобиля – это эквивалент суперкомпьютера, способного совершать десятки миллиардов операций в секунду. В связи с этим расходы на производство более продвинутых систем, а также затраты на их исследование и разработку, будут приводить к росту цены каждой платформы, а это в свою очередь – к увеличению размера рынка.

В дополнение к этому одной из основных проблем развития технологии AV является необходимость автомобилям проезжать миллиарды (и это не ошибка!) километров для того, чтобы в достаточной степени натренировать нейронные сети. Это невозможно сделать на настоящих дорогах. А ведь автомобилю еще надо уметь водить по бесконечной вариативности дорог, по дорогам разного качества, в любую погоду (дождь, снег, метель, туман и т.п.), при любом траффике, и правильно реагировать на все возможные препятствия и знаки (велосипеды, мотоциклы, пешеходы, стоп-сигналы, выбоины и т.д.) и еще на кучу непредвиденных и редких событий. Т.е. с некоторыми из них автомобиль вообще может не встретиться в реальности. Тем не менее, он должен уметь реагировать на них.

В общем, единственный выход – это дополнительно к тестированию на реальных дорогах прогонять автомобиль через все ситуации в виртуальной симуляции. По оценкам NVIDIA потенциал этого рынка может достичь нескольких миллиардов долларов в ближайшем будущем, что дает NVIDIA дополнительные возможности с ее предложением виртуальной симуляции Drive Constellation.

2) Рост доли NVIDIA. В настоящее время доля компании в общей выручке рынка ADAS и AV незначительна, однако она уже воспринимается индустрией как лидер в плане технологий и предлагаемых решений. Уже достаточно скоро мы должны увидеть это лидерство и в деньгах, когда компания начнет наконец монетизировать накопившийся потенциал.

Решения NVIDIA являются лучшими на рынке с точки зрения производительности и наличия развитой экосистемы и инфраструктуры. Текущая версия платформы DRIVE AGX имеется в 2 опциях: DRIVE AGX Xavier для вождения уровня 2 и 3, и DRIVE AGX Pegasus для уровней 4 и 5.

Xavier – это SoC, который объединяет Arm CPU, GPU, тензорные ядра, процессоры для обработки машинного зрения и может выполнять до 30 триллионов операций в секунду (TOPS) при потреблении в 30 ват (в 4,5 раза меньше, чем Play Station 4). Конкурирующий EyeQ5 от Intel менее мощный (24 TOPS), но более энергоэффективный (10 ват). Флагманская платформа компании для вождения L4 и L5, NVIDIA DRIVE AGX Pegasus, базируется на двух чипах Xavier, 2 GPU на архитектуре Volta и выдает 320 TOPS, в 10 раз больше, чем Xavier.

И это я говорил о текущем решении. Orin SoC нового поколения в 7 раз быстрее Xavier (200 TOPS) и только в 1,5 раза более жадный до потребления (45 ват). Флагманская платформа будет включать в себя 2 чипа Orin, 2 GPU на архитектуре Ampere и будет выдавать 2,000 TOPS. Да, «жрать» она будет тоже много – 800 ват, но это будет самая мощная система для автопилотирования на рынке. NVIDIA относится к этому примерно следующим образом: сначала надо решить проблему (т.е. изобрести по-настоящему самоуправляемый автомобиль), а потом уже думать о его потреблении и экономичности.

В дополнении к вычислительной мощности экосистема NVIDIA включает Drive Constellation, платформа для виртуальной симуляции вождения, DRIVE Mapping для создания карт, DRIVE IX для контроля поведения водителя и голосового взаимодействия с ним, много прочего софта, различные фреймворки, компиляторы, библиотеки, наборы инструментов для разработчиков, ну и конечно, системы DGX для тренировки нейронных сетей.

В общем, на этом рынке пока ожидается только 3 серьезных игрока: Intel, NVIDIA и Qualcomm. Первые раунды за Mobileye Intel’а, но NVIDIA сначала делала ставку на разработку полных автопилотов, а к серьезной гонке за L2+ и L3 подошла позже. Qualcomm только заходят и пока еще новый игрок. Платформы NVIDIA большинством разработчиков рассматриваются, как лучшие, и, если добавить к этому уже развитую экосистему и инфраструктуру, то можно прийти к выводу, что в следующем раунде (распространение L2+ и L3 систем) NVIDIA имеет шансы одержать уверенную победу и отобрать у Intel существенную долю рынка.

Экспертиза и темп инноваций. Как я уже упоминал в обзоре сегмента “datacenter”, никто не имеет настолько же сильной экспертизы в железе и софте для AI, как NVIDIA. И с учетом того прогресса, что компания уже сделала на рынке систем для самоуправляемых автомобилей (Xavier был в 15 раз более энергоэффективным, чем предшествующий PX2, Orin в 7 раз быстрее Xavier’a), кажется, что она готова задать в этой индустрии такой же темп инноваций, какой и на рынке дата-центров. И немногие смогут выдержать эту скорость.

Достигнутые к настоящему моменту соглашения и подписанные контракты уже должны обеспечить NVIDIA существенную долю рынка. Количество компаний, которые работают с NVIDIA над технологиями беспилотных автомобилей, выросло с пары десятков в 2017 до нескольких сотен в 2021 г. (автопроизводители, девелоперы, производители сенсоров, LIDAR’ов и т.п.) А некоторые крупные концерны выбрали NVIDIA, как ключевого партнера. Toyota выбрала NVIDIA для тренировки нейронных сетей, тестирования технологий self-driving и их непосредственного внедрения в машины компании. Mercedes-Benz не только является партнером NVIDIA по разработке AV, но и закупает ее процессоры Tegra для мультимедийных систем в автомобилях. Volvo будет ставить NVIDIA Drive Pegasus на свои самоуправляемые грузовые машины (trucks), автобусы и строительную технику, а Drive Xavier будет устанавливать в пассажирские авто. Audi использует чипы NVIDIA для своих in-house платформ. Главные поставщики в автоиндустрии, Bosch, Continental и ZF будут предлагать свои системы на базе платформы NVIDIA Drive. Volkswagen, Isuzu, Baidu, BMW, Daimler, Uber, GM/Lyft, Ford, and многие другие также использует те или иные продукты компании для разработки своих ADAS и AV платформ. Если просто допустить статус-кво, то когда по мере того, как все эти партнеры будут внедрять более совершенные ADAS в свои автомобили, NVDIA будет наращивать свою долю рынка.

Общий прогноз выручки (сценарий «потенциал») компании в автомобильном сегменте смотрите на графике ниже.

Ключевая зона роста: дискретные видеокарты и GeForce Now

Выручка NVIDIA от продаж дискретных видеокарт (discrete GPUs или dGPUs, серии GeForce и Quadro) более чем удвоилась за последние 5 лет, особенно впечатляющий рост наблюдался в последний год. В чем же была причина такого взлета? Давайте посмотрим более детально ниже.

Как вы можете увидеть из графика выше, стремительный рост выручки по большей части объясняется увеличением средней цены продажи видеокарт. Только за 2022 финансовый год цены взлетели на 56%. Основные причины две:

a) высокий спрос на видеокарты со стороны криптомайнеров, которые используют их для математических вычислений в блокчейне и сметают все карты с рынка, тем самым создавая острейший дефицит. Я думаю, любой геймер, дизайнер или видеоблогер, который пытался обновить железо в 2021 году, подтвердит, что их просто невозможно было найти, а те, что были — продавались по заоблачным ценам. Что-то похожее было в 2018 г., и тогда тоже цены реализации самой NVIDIA значительно выросли. Когда в 2019 г. котировки криптовалют рухнули, многие криптомайнеры выбросили использованные видеокарты на рынок, тем самым, создав избыток предложения, что, соответственно, привело к снижение цен на новые. Недостаток видеокарт как в 2018 г., так и в 2021 г. также явился результатом стратегии NVIDIA не увеличивать объемы продаж при росте спроса, чтобы избежать перепроизводства и перенасыщения рынка. Для NVIDIA все эти бумы в основном приводят к тому, что она начинает производить больше видеокарт премиум уровня, ведь все равно с полок забирают все, что лежит, и не важно, по какому ценнику. Почему бы не производить больше моделей 3080 вместо, например, 3060?

б) дополнительно спрос на видеокарт увеличился из-за бурно расцветающей популяции различных live streamer’ов, видеоблогеров и прочих создателей контента, которым также требуются дискретные видеокарты.

При оптимистичном развитии событий (для компании) цены в долгосрочной перспективе останутся примерно на текущем уровне. Видеоигры становятся все более требовательными к железу. Согласно данным NVIDIA за последние 4–5  лет требования к производительности GPU выросли почти в 5 раз (для AAA игр). Распространение 4K, а в дальнейшем и 8K мониторов, развитие VR, растущая популярность киберспорта будут только повышать средние системные требования. Дополнительными факторами будут постепенное распространение технологий real time ray tracing и DLSS, а также рост популярности игровых ноутбуков. Так что, даже несмотря на то, что цены на определенные линейки уже вряд ли будут сильно расти, общий объем продаж будет постепенно смещаться в пользу более дорогих видеокарт, как это было и ранее.

Однако, в 2022 или 2023 гг. цены должны временно упасть из-за балансировки спроса-предложения, и достаточно существенно. Также, можно ожидать, что NVIDIA сможет сохранить свою текущую долю рынка (≈80%), несмотря на растущую конкуренцию со стороны AMD и выход нового игрока на рынок дискретной графики — Intel.

GeForce Now. Облачный гейминг может оказать огромное влияние на игровую индустрию в следующее десятилетие. Стриминг игр с удаленных серверов медленно становится реальностью. Основной потенциал облачного гейминга лежит не в том, что он заменит консоли или ПК в ближайшие годы, как многие думают. В действительности же его потенциал лежит в расширении общего игрового рынка. В настоящее время около 1 млрд геймеров по всему миру играют на слабых ПК, которые не позволяют им насладиться последними AAA-тайтлами. Они не могут себе позволить большой единоразовый расход на покупку игрового ПК или консоли. И этот рынок – первый, на который будет целиться провайдеры облачного гейминга.

По прогнозам Newzoo рынок облачного гейминга достигнет $6.3 млрд к 2024 г. (в 2021 г. он составил $1.5 млрд, в 2020 — $0.7 млрд). Это по-прежнему будет лишь небольшая доля общего $100-миллиардного игрового рынка (консоли и ПК), однако он уже станет достаточно крупным, чтобы его не замечать. Сервис GeForce Now от NVIDIA был официально запущен в феврале 2020 г. и к ноябрю 2021 г. уже имел более 14 млн зарегистрированных пользователей. Сегодня NVIDIA является одним из основных игроков на этом зарождающемся рынке, поэтому ее сервис может стать главным драйвером роста выручки компании в игровом сегменте.

Общий прогноз выручки NVIDIA в разрезе сегментов (сценарий «потенциал»)

Основные операционные метрики в сценарии «потенциал»

* compound annual growth rate (среднегодовой темп роста)

Оценка риска

Ключевые операционные риски:

  • Основным конкурентом NVIDIA в сегменте датацентров являются традиционные центральные процессоры, CPU. Как я уже написал, снижение темпов роста их производительности позволил NVIDIA значительно улучшить продажу GPU-ускорителей. Однако, CPU тоже не стоят на месте, количество ядер в них увеличивается с каждым поколением, делая их значительно лучше в параллельных вычислениях, тем самым снижая главное преимущество GPU. И Intel, и AMD добавляют отдельные блоки для AI-вычислений, новые инструкции, специализированные для задач машинного и глубокого обучения, оптимизируют софт, а также работают на трехмерными чиплетами.

Все эти улучшения позволяют CPU лучше справляться с задачами AI. И хотя требования к вычислительным мощностям растут быстрее и потребность в со-процессорах также не исчезнет, со временем наличие только CPU может оказаться достаточным для большинства менее затратных inference задач. Это примерно то, что произошло с потребительскими GPU. В 1990-х практически каждый компьютер имел внутри отдельную графическую карту, но благодаря развитию интегрированной графики большинство ноутбуков и значительная часть настольных ПК уже полагаются только на CPU. И пока этот тренд продолжается. Доля дискретных GPU в общих поставках графики составила всего 21% в 2020 г. по сравнению с 27% в 2012, а общее кол-во поставленных видеокарт снизилось со 129 до 83 млн штук за тот же период.

Аппаратное ускорение считается очень сложной задачей. Для его реализации девелоперу необходимо детально разобраться в приложении, алгоритмах, на которых оно работает, создать новые или адаптировать старые библиотеки и т.п. И такая работа фактически должна быть проведена для каждого приложения. Поэтому NVIDIA так много усилий тратит на то, чтобы уговорить индустрии и разработчиков на совместную работу по ускорению их приложений. Для большей части из них гораздо проще купить чуть больше традиционных CPU-only серверов, и, они принимаются за работу только, если нехватка вычислительной мощности является действительно существенной. Поэтому развитие CPU может значительно замедлить темпы проникновения продуктов NVIDIA.

  • Как я уже упомянул, в настоящее время не существует компании, которая могла бы составить серьезную конкуренцию NVIDIA в сфере аппаратного ускорения. Однако, все они вместе представляют весомую угрозу. На мой взгляд, наибольший потенциал имеют in-house процессоры крупнейших облачных провайдеров, таких как AWS Inferentia или Google TPU. Эти компании не только являются крупнейшими клиентами NVIDIA, они еще имеют и огромную рыночную власть благодаря своим размерам и масштабам диверсификации в различные сферы технологий. А денег у них хватит, чтобы разработать индивидуальные процессоры хоть для каждого вида наиболее требовательных задач. И по мере роста популярности облачных сервисов они будут становиться еще больше, и могут все более и более замещать процессоры NVIDIA собственной продукцией. Добавим к этому Intel с их серверными процессорами Xeon Scalable, Ponte Vecchio GPU, FPGA для датацентров, AI-чипов от Nervana и Habana Labs. Ну и не забудем про AMD, Xilinx, Huawei, Samsung, Qualcomm и множество стартапов. Все они хотят кусок пирога, и совместно вполне могут «откусить» приличную долю заработков NVIDIA.
  • Никто не знает, насколько на самом деле высок спрос со стороны криптомайнеров (даже сама NVIDIA) и что произойдет в случае существенного снижения этого спроса. Эффект от выброса видеокарт на рынок может быть гораздо более фундаментальным и привести к более значительному снижению как в объемах, так и в ценах, чем то, что заложено в сценарии «потенциал». Дополнительное давление на цены может оказать возрастающая конкуренция со стороны AMD, которая может вернуть свою историческую долю в 40%, которая была до того, как несколько стратегических промахов привели к падению AMD в конце 2000-х — начале 2010-х.
  • В ближайшие 2-3 года NVIDIA должна забрать существенную долю рынка в системах уровней 2+ и 3, однако в следующем долгосрочном раунде она может взять не так много контрактов от крупных автопроизводителей и проиграть конкуренцию другим компаниям или собственным разработкам крупнейших игроков.

1990 руб.

3 месяца

Доступ к анализам компаний. См. стр. Отчёты

longtailФундаментальный анализ компаний
Портал о долгосрочных инвестициях в акции
https://longtailers.ru/wp-content/uploads/2019/04/img-footer-map.png
longtail в социальных сетях
https://longtailers.ru/wp-content/uploads/2019/04/img-footer-map.png
longtailв социальных сетях