Дати Nokia 10 мільярдів, Джен-Сун Хуанг хоче заробити 200 мільярдів

На GTC 2025 року Джен-Сун Хуанг випустив сенсацію, що Nvidia інвестує 1 мільярд доларів у Nokia. Так, це та сама компанія Nokia, яка 20 років тому була популярною по всій країні завдяки своїм телефонам на платформі Symbian.

Джен-Сун Хуанг у своїй промові сказав, що телекомунікаційні мережі перебувають у процесі суттєвого переходу від традиційної архітектури до систем, що працюють на базі ШІ, а інвестиції Nvidia прискорять цей процес. Таким чином, Nvidia інвестувала і разом з Nokia створила платформу ШІ для мережі 6G, впроваджуючи ШІ в традиційні RAN-мережі.

Конкретна інвестиційна форма полягає в тому, що Nvidia купує близько 166 мільйонів нових акцій Nokia за ціною 6,01 долара за акцію, що дозволить Nvidia володіти приблизно 2,9% акцій Nokia.

В момент оголошення про співпрацю акції Nokia зросли на 21%, що є найбільшим зростанням з 2013 року.

01 Що таке AI-RAN?

RAN - це бездротова мережа доступу, а AI-RAN - це нова архітектура мережі, яка безпосередньо вбудовує можливості штучного інтелекту в бездротові базові станції. Традиційні системи RAN в основному відповідають за передачу даних між базовими станціями та мобільними пристроями, тоді як AI-RAN на цій основі додає функції крайових обчислень та розумної обробки.

Дозволити базовим станціям використовувати алгоритми ШІ для оптимізації використання спектра та енергоефективності, покращуючи загальну продуктивність мережі, водночас використовуючи невикористовувані активи RAN для хостингу сервісів краєвого ШІ, створюючи нові джерела доходу для операторів.

Оператори можуть безпосередньо запускати AI-додатки на місці базових станцій, не передаючи всі дані до центрального дата-центру для обробки, що значно зменшує навантаження на мережу.

Джен-Сун Хуанг навів приклад, що майже 50% користувачів ChatGPT отримують доступ через мобільні пристрої, і не тільки це, щомісячний обсяг завантажень ChatGPT на мобільних пристроях перевищує 40 мільйонів. В епоху стрімкого зростання AI-додатків традиційні системи RAN не можуть впоратися з генеративним AI та мобільними мережами, що керуються інтелектом.

А AI-RAN, надаючи розподілену AI-інтерпретацію на краю, дозволяє наступним AI-додаткам, таким як агенти та чат-боти, реагувати швидше. Одночасно AI-RAN також готується до інтеграції сенсорних і комунікаційних застосувань у епоху 6G.

Джен-Сун Хуанг послався на прогнози аналітичної компанії Omdia, яка очікує, що ринок RAN до 2030 року перевищить 200 мільярдів доларів, при цьому сегмент AI-RAN стане найшвидше зростаючою підгалуззю.

Президент і генеральний директор Nokia Джастін Хотад у спільній заяві зазначив, що це партнерство дозволить вкласти AI дата-центри в кишені кожного, реалізуючи фундаментальну реконструкцію від 5G до 6G.

Він особливо зазначив, що Nokia співпрацює з трьома підприємствами різного типу: NVIDIA, Dell та T-Mobile. T-Mobile, як один з перших партнерів, почне польові випробування технології AI-RAN з 2026 року, зосередившись на перевірці підвищення продуктивності та ефективності. Джастін сказав, що ці випробування нададуть цінні дані для інновацій у сфері 6G, допомагаючи операторам створювати розумні мережі, що відповідають потребам AI.

На основі AI-RAN, новий продукт від Nvidia називається Aerial RAN Computer Pro (ARC-Pro), це прискорена обчислювальна платформа, підготовлена для 6G. Його основна апаратна конфігурація містить два типи GPU від Nvidia: процесор Grace та графічний процесор Blackwell.

Ця платформа працює за допомогою NVIDIA CUDA, а програмне забезпечення RAN можна безпосередньо інтегрувати в технологічний стек CUDA. Тому вона не лише може обробляти традиційні функції бездротових доступів, але й одночасно запускати популярні AI-додатки. Це також є основним методом, яким NVIDIA реалізує два літери AI у AI-RAN.

Зважаючи на тривалу історію CUDA, найбільша перевага цієї платформи насправді полягає в її програмованості. Більш того, Джен-Сун Хуанг також оголосив про відкриття програмного каркасу Aerial, який планується опублікувати на GitHub з ліцензією Apache 2.0, починаючи з грудня 2025 року.

Основна різниця між ARC-Pro та його попередником ARC полягає в місці розгортання та сценаріях використання. Попередник ARC в основному використовувався для реалізації централізованого хмарного RAN, тоді як ARC-Pro можна безпосередньо розгортати на місці станції базового зв'язку, що дозволяє справді реалізувати можливості крайніх обчислень.

Глава телекомунікаційного бізнесу NVIDIA Роні Вахіта сказав, що раніше RAN та ШІ вимагали двох різних апаратних засобів для реалізації, але ARC-Pro може динамічно розподіляти обчислювальні ресурси відповідно до потреб мережі, переважно обробляючи функції бездротового доступу, а також виконуючи завдання інференції ШІ під час періодів простою.

ARC-Pro також інтегрує платформу NVIDIA AI Aerial, яка є повним програмним стеком, що включає програмне забезпечення RAN з прискоренням CUDA, інструменти цифрових близнюків Aerial Omniverse та нову Aerial Framework. Aerial Framework може перетворювати код Python на високопродуктивний код CUDA для виконання на платформі ARC-Pro. Крім того, платформа підтримує моделі нейронних мереж, керовані штучним інтелектом, для розширеної оцінки каналів.

Джен-Сун Хуанг сказав, що телекомунікації є цифровою нервовою системою економіки та безпеки. Співпраця з Nokia та екосистемою телекомунікацій розгорне цю революцію, допомагаючи операторам будувати розумні, адаптивні мережі, визначаючи наступне покоління глобального зв’язку.

02 Дивлячись на 2025 рік, Nvidia дійсно вклала чимало грошей.

22 вересня Nvidia та OpenAI уклали угоду, згідно з якою Nvidia планує поступово інвестувати 100 мільярдів доларів в OpenAI, що прискорить будівництво їх інфраструктури.

Джен-Сун Хуанг сказав, що насправді OpenAI давно шукала інвестиції від Nvidia, але тоді у компанії були обмежені фінансові ресурси. Він жартівливо зазначив, що тоді були занадто бідними і насправді мали б віддати їм всі гроші.

Джен-Сун Хуанг вважає, що ріст AI-інференції не в 100 або 1000 разів, а в 1 мільярд разів. І це співробітництво не обмежується тільки апаратним забезпеченням, а також включає програмну оптимізацію, щоб забезпечити OpenAI ефективне використання системи NVIDIA.

Це може бути пов'язано з тим, що після дізнання про співпрацю OpenAI та AMD він занепокоївся, що OpenAI відмовиться від CUDA. Якщо найбільша у світі модель штучного інтелекту не використовує CUDA, то іншим виробникам великих моделей було б цілком логічно наслідувати OpenAI.

Джен-Сун Хуанг у подкасті BG2 передбачив, що OpenAI, ймовірно, стане наступною компанією з ринковою капіталізацією в трильйон доларів, а темпи її зростання встановлять рекорди в індустрії. Він спростував теорію про бульбашку ІІ, зазначивши, що глобальні щорічні капіталовкладення в інфраструктуру ІІ досягнуть 5 трильйонів доларів.

Саме завдяки цій інвестиції OpenAI 29 жовтня оголосила про завершення капітальної реорганізації компанії. Компанія була поділена на дві частини: одна частина є неприбутковим фондом, а інша – прибутковою компанією.

Неприбутковий фонд буде юридично контролювати прибуткову частину і повинен враховувати суспільні інтереси. Однак все ще можна вільно залучати фінансування або купувати компанії. Фонд буде володіти 26% акцій цієї прибуткової компанії та матиме опціон на акції. Якщо компанія продовжить зростати, фонд зможе отримати додаткові акції.

Окрім OpenAI, у 2025 році NVIDIA також інвестувала в xAI Ілона Маска. Обсяг поточного раунду фінансування цієї компанії зріс до 20 мільярдів доларів. Приблизно 7,5 мільярда доларів буде залучено через випуск акцій, а до 12,5 мільярда доларів – через боргові зобов'язання спеціальних цільових компаній (SPV).

Спосіб роботи цього спеціального призначеного підприємства полягає в тому, що воно використовуватиме залучені кошти для придбання високопродуктивних процесорів Nvidia, а потім здаватиме ці процесори в оренду компанії xAI.

Ці процесори будуть використані для проекту Colossus 2 компанії xAI. Перший Colossus – це суперкомп'ютерний дата-центр xAI, розташований у Мемфісі, штат Теннессі. У першому проекті Colossus було розгорнуто 100 000 GPU NVIDIA H100, що робить його одним із найбільших кластерів для навчання ШІ у світі. Зараз xAI будує Colossus 2, плануючи розширити кількість GPU до сотень тисяч або навіть більше.

18 вересня NVIDIA також оголосила про інвестицію 5 мільярдів доларів у Intel та встановлення глибоких стратегічних відносин. NVIDIA придбає нові звичайні акції Intel за ціною 23,28 долара за акцію, загальна сума інвестицій складе 5 мільярдів доларів, після завершення угоди NVIDIA буде володіти близько 4% акцій Intel, ставши її важливим стратегічним інвестором.

03 Звичайно, на цьому GTC Джен-Сун Хуанг також багато чого сказав.

Наприклад, компанія Nvidia випустила кілька сімейств відкритих AI-моделей, включаючи Nemotron для цифрового AI, Cosmos для фізичного AI, Isaac GR00T для робототехніки та Clara для біомедичного AI.

Одночасно Джен-Сун Хуанг представив платформу для розробки автономного водіння DRIVE AGX Hyperion 10. Це платформа для автономного водіння рівня 4, яка інтегрує обчислювальні чіпи NVIDIA та повний набір датчиків, включаючи лазерні радіолокаційні системи, камери та радіолокацію.

NVIDIA також запустила програму сертифікації Halos, яка є першою в галузі системою для оцінки та сертифікації фізичної безпеки ШІ, спеціально розробленою для безпілотних автомобілів та робототехніки.

Основою програми сертифікації Halos є система Halos AI, яка є першою у галузі лабораторією, визнаною Комітетом з сертифікації ANSI. А ANSI є Американською національною асоціацією стандартів, чия сертифікація має високу авторитетність і довіру.

Завдання цієї системи полягає в тому, щоб за допомогою фізичного штучного інтелекту компанії NVIDIA перевірити, чи відповідає система автономного водіння стандартам. AUMOVIO, Bosch, Nuro та Wayve є першими учасниками лабораторії перевірки системи Halos AI.

Щоб просунути 4-й рівень автономного водіння, NVIDIA випустила багатомодальний набір даних автономного водіння з 25 країн, який містить 1700 годин даних з камер, радарів та лазерних радарів.

Джен-Сун Хуанг сказав, що цінність цього набору даних полягає в його різноманітності та масштабах, оскільки він охоплює різні дорожні умови, правила дорожнього руху та культуру водіння, що забезпечує основу для навчання більш універсальних систем автономного водіння.

Проте плани Джен-Сун Хуанга на цьому не закінчуються.

Він оголосив про низку співпраць з лабораторіями уряду США та провідними компаніями на GTC, метою яких є побудова інфраструктури штучного інтелекту в США. Джен-Сун Хуанг сказав, що ми перебуваємо на зорі промислової революції ШІ, яка визначить майбутнє кожної галузі та країни.

Центральною частиною цієї співпраці є співпраця з Міністерством енергетики США. NVIDIA допомагає Міністерству енергетики у будівництві двох суперкомп'ютерних центрів, один з яких знаходиться в Національній лабораторії Аргон, а інший – в Національній лабораторії Лос-Аламос.

Лабораторія Агон отримає суперкомп'ютер під назвою Solstice, який оснащений 100 тисячами графічних процесорів Blackwell від Nvidia. Що таке 100 тисяч GPU? Це буде найбільший AI суперкомп'ютер в історії Міністерства енергетики. Ще є система під назвою Equinox, що оснащена 10 тисячами GPU Blackwell, яка планується до запуску в 2026 році. Ці дві системи в сумі можуть забезпечити 2200 екзафлопс AI обчислювальної потужності.

Директор лабораторії Agon Пол Коенс сказав, що ці системи переосмислять продуктивність, масштабованість і науковий потенціал. Що вони хочуть робити з цією обчислювальною потужністю? Від матеріалознавства до моделювання клімату, від квантових обчислень до моделювання ядерної зброї, для всього цього потрібен рівень обчислювальної потужності.

Окрім урядових лабораторій, Nvidia також побудувала центр досліджень AI-фабрики у штаті Вірджинія. Особливість цього центру полягає в тому, що це не просто дата-центр, а експериментальна площадка. Nvidia має намір тестувати тут щось під назвою Omniverse DSX, це план для будівництва AI-фабрики потужністю в мегават.

Звичайний дата-центр може потребувати лише кілька десятків мегават електроенергії, тоді як гігават дорівнює виробництву електроенергії середньомасштабної атомної електростанції.

Основна ідея цього плану Omniverse DSX полягає в тому, щоб перетворити AI-фабрику на самонавчальну систему. AI-агенти постійно моніторять електропостачання, охолодження та навантаження, автоматично коригуючи параметри для підвищення ефективності. Наприклад, коли навантаження на електромережу високе, система може автоматично знижувати споживання енергії або переключатися на живлення від накопичувальних батарей.

Це інтелектуальне управління є вкрай важливим для гігаватних об'єктів, оскільки витрати на електрику та охолодження можуть бути астрономічними.

Це бачення дуже амбітне, Джен-Сун Хуанг сказав, що йому потрібно три роки, щоб його реалізувати. Тестування AI-RAN почнеться лише у 2026 році, автомобілі з автоматичним керуванням на базі DRIVE AGX Hyperion 10 зможуть виїхати на дороги лише у 2027 році, а суперкомп'ютер Міністерства енергетики також буде введений в експлуатацію у 2027 році.

NVIDIA володіє CUDA як потужною зброєю, контролюючи фактичний стандарт обчислень ШІ. Від навчання до висновків, від дата-центрів до крайових пристроїв, від автономного водіння до біомедицини, GPU NVIDIA присутні всюди. Ці інвестиції та співпраця, оголошені на цьому GTC, ще більше зміцнили цю позицію.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити