Amazon Web Services (AWS), компания Amazon.com, и NVIDIA сегодня объявили, что новая платформа графических процессоров NVIDIA Blackwell, представленная NVIDIA на GTC 2024, появится на AWS. AWS предложит NVIDIA GB200 Grace Blackwell Superchip и графические процессоры B100 Tensor Core, расширяя давнее стратегическое сотрудничество компаний в целях предоставления наиболее безопасной и современной инфраструктуры, программного обеспечения и услуг, которые помогут клиентам раскрыть новые возможности генеративного искусственного интеллекта (ИИ).
NVIDIA и AWS продолжают объединять лучшие из своих технологий, в том числе новейшие многоузловые системы NVIDIA с платформой NVIDIA Blackwell следующего поколения и программным обеспечением для искусственного интеллекта, систему AWS Nitro и повышенную безопасность службы управления ключами AWS (AWS KMS), адаптер Elastic Fabric. (EFA) сети петабитного масштаба и гипермасштабируемую кластеризацию Amazon Elastic Compute Cloud (Amazon EC2) UltraCluster. Вместе они предоставляют инфраструктуру и инструменты, которые позволяют клиентам создавать и выполнять логические выводы в реальном времени на моделях большого языка (LLM) с несколькими триллионами параметров быстрее, в больших масштабах и с меньшими затратами, чем графические процессоры NVIDIA предыдущего поколения на Amazon EC2. .
«Тесное сотрудничество между нашими двумя организациями насчитывает более 13 лет, когда вместе мы запустили первый в мире облачный экземпляр графического процессора на AWS, и сегодня мы предлагаем клиентам самый широкий спектр решений NVIDIA для графических процессоров», — сказал Адам Селипски, генеральный директор AWS. . «Процессор Grace Blackwell от NVIDIA нового поколения знаменует собой значительный шаг вперед в области генеративных вычислений на базе искусственного интеллекта и графических процессоров. В сочетании с мощным сетевым адаптером Elastic Fabric от AWS, гипермасштабируемой кластеризацией Amazon EC2 UltraClusters и расширенными возможностями виртуализации и безопасности нашей уникальной системы Nitro, Мы даем клиентам возможность создавать и запускать большие языковые модели с несколькими триллионами параметров быстрее, в больших масштабах и безопаснее, чем где-либо еще. Вместе мы продолжаем внедрять инновации, чтобы сделать AWS лучшим местом для запуска графических процессоров NVIDIA в облаке. «
«ИИ совершает прорывы беспрецедентными темпами, приводя к появлению новых приложений, бизнес-моделей и инноваций во всех отраслях», — сказал Дженсен Хуанг, основатель и генеральный директор NVIDIA. «Наше сотрудничество с AWS ускоряет развитие новых возможностей генеративного искусственного интеллекта и предоставляет клиентам беспрецедентную вычислительную мощность, позволяющую раздвинуть границы возможного».
Последние инновации от AWS и NVIDIA ускоряют обучение передовых LLM, которые могут достигать более 1 триллиона параметров.
AWS предложит платформу NVIDIA Blackwell с GB200 NVL72, 72 графическими процессорами Blackwell и 36 процессорами Grace, соединенными между собой с помощью NVIDIA NVLink пятого поколения. При подключении к мощной сети Amazon (EFA) и поддержке расширенной виртуализации (AWS Nitro System) и гипермасштабируемой кластеризации (Amazon EC2 UltraClusters) клиенты могут масштабироваться до тысяч суперчипов GB200. NVIDIA Blackwell на AWS делает огромный шаг вперед в ускорении рабочих нагрузок вывода для ресурсоемких языковых моделей с несколькими триллионами параметров.
Основываясь на успехе инстансов EC2 P5 на базе NVIDIA H100, которые доступны клиентам в течение короткого периода времени через блоки емкости Amazon EC2 для машинного обучения, AWS планирует предложить инстансы EC2 с новыми графическими процессорами B100, развернутыми в ультракластерах EC2, для ускорения генеративного обучения искусственного интеллекта. и выводы в массовом масштабе. GB200 также будут доступны на NVIDIA DGX Cloud, платформе искусственного интеллекта, разработанной совместно с AWS, которая предоставляет корпоративным разработчикам выделенный доступ к инфраструктуре и программному обеспечению, необходимым для создания и развертывания передовых генеративных моделей искусственного интеллекта. Инстансы DGX Cloud на платформе AWS на базе Blackwell ускорят разработку передовых генеративных ИИ и LLM, которые могут охватывать более 1 триллиона параметров.
Повысьте безопасность ИИ с помощью AWS Nitro System, AWS KMS, шифрования EFA и шифрования Blackwell.
Поскольку клиенты быстро внедряют ИИ в своих организациях, им необходимо знать, что их данные надежно обрабатываются на протяжении всего рабочего процесса обучения. Безопасность весов модели — параметров, которые модель изучает во время обучения и которые имеют решающее значение для ее способности делать прогнозы, — имеет первостепенное значение для защиты интеллектуальной собственности клиентов, предотвращения вмешательства в модели и поддержания целостности модели.
Инфраструктура и сервисы AWS AI уже имеют функции безопасности, которые позволяют клиентам контролировать свои данные и гарантировать, что они не будут переданы сторонним поставщикам моделей. Сочетание системы AWS Nitro и NVIDIA GB200 еще больше повышает безопасность искусственного интеллекта, предотвращая доступ неавторизованных лиц к весам моделей. GB200 обеспечивает физическое шифрование соединений NVLink между графическими процессорами и шифрует передачу данных от процессора Grace к графическому процессору Blackwell, а EFA шифрует данные между серверами для распределенного обучения и вывода. GB200 также получит преимущества от системы AWS Nitro, которая переносит нагрузку ввода-вывода по функциям с центрального процессора/графического процессора на специализированное оборудование AWS для обеспечения более стабильной производительности, а ее повышенная безопасность защищает код и данные клиента во время обработки — как на клиенте, так и на стороне клиента. сторона и сторона AWS. Эта возможность, доступная только на AWS, была независимо проверена NCC Group, ведущей фирмой по кибербезопасности.
Благодаря GB200 на Amazon EC2 AWS позволит клиентам создавать надежную среду выполнения наряду с их экземплярами EC2, используя анклавы AWS Nitro и AWS KMS. Nitro Enclaves позволяют клиентам шифровать свои тренировочные данные и веса с помощью KMS, используя ключевой материал, находящийся под их контролем. Анклав можно загрузить из экземпляра GB200 и напрямую взаимодействовать с суперчипом GB200. Это позволяет KMS напрямую взаимодействовать с анклавом и передавать ему ключевой материал криптографически безопасным способом. Затем анклав может передать этот материал на GB200, защищенный от экземпляра клиента и не позволяющий операторам AWS когда-либо получить доступ к ключу или расшифровать данные обучения или веса модели, предоставляя клиентам беспрецедентный контроль над своими данными.
Project Ceiba использует Blackwell для продвижения будущих инноваций NVIDIA в области генеративного искусственного интеллекта на AWS
Проект Ceiba, анонсированный на выставке AWS re:Invent 2023, представляет собой совместную работу NVIDIA и AWS по созданию одного из самых быстрых в мире суперкомпьютеров с искусственным интеллектом. Суперкомпьютер, размещенный исключительно на AWS, доступен для собственных исследований и разработок NVIDIA. Этот первый в своем роде суперкомпьютер с 20 736 графическими процессорами B200 создается с использованием новой NVIDIA GB200 NVL72, системы с NVLink пятого поколения, которая масштабируется до 20 736 графических процессоров B200, подключенных к 10 368 процессорам NVIDIA Grace. Система масштабируется с использованием сети EFA четвертого поколения, обеспечивая до 800 Гбит/с на суперчип с низкой задержкой и высокой пропускной способностью сети, способной обрабатывать огромные 414 экзафлопс ИИ, что в 6 раз превышает производительность по сравнению с предыдущими планами по созданию Ceiba. Архитектура Хоппера. Группы исследований и разработок NVIDIA будут использовать Ceiba для развития искусственного интеллекта в LLM, графике (генерация изображений/видео/3D) и моделировании, цифровой биологии, робототехнике, беспилотных автомобилях, предсказании климата NVIDIA Earth-2 и многом другом, чтобы помочь NVIDIA продвинуть будущее. генеративные инновации в области искусственного интеллекта.
Сотрудничество AWS и NVIDIA ускоряет разработку приложений генеративного ИИ и перспективных вариантов использования в здравоохранении и медико-биологических науках.
AWS и NVIDIA объединили усилия, чтобы предложить высокопроизводительный и недорогой логический вывод для генеративного ИИ благодаря интеграции Amazon SageMaker с микросервисами вывода NVIDIA NIM, доступными с NVIDIA AI Enterprise. Клиенты могут использовать эту комбинацию для быстрого развертывания FM, предварительно скомпилированных и оптимизированных для работы на графических процессорах NVIDIA, в SageMaker, сокращая время вывода на рынок генеративных приложений искусственного интеллекта.
AWS и NVIDIA объединились, чтобы расширить возможности компьютерного поиска лекарств с помощью новых FM-модулей NVIDIA BioNeMo для генеративной химии, прогнозирования структуры белков и понимания того, как молекулы лекарств взаимодействуют с мишенями. Эти новые модели вскоре будут доступны на AWS HealthOmics, специально созданном сервисе, который помогает организациям здравоохранения и медико-биологических наук хранить, запрашивать и анализировать геномные, транскриптомные и другие омические данные.
Команды AWS HealthOmics и NVIDIA Healthcare также работают вместе над запуском генеративных микро сервисов искусственного интеллекта для продвижения разработки лекарств, медицинских технологий и цифрового здравоохранения, предоставляя новый каталог облачных конечных точек с графическим ускорением для биологических, химических, визуальных и медицинских данных, чтобы предприятия здравоохранения могли получать преимущества последних достижений в области генеративного искусственного интеллекта на AWS.
0 Комментариев