- Nvidia adquire SchedMD para manter Slurm como software de gerenciamento de carga de trabalho de código aberto
- Slurm gerencia o agendamento e os recursos de grandes clusters executando tarefas paralelas de IA
- Nvidia apresentou modelos Nemotoron 3, incluindo tamanhos Nano, Super e Ultra para tarefas de IA
A Nvidia anunciou uma grande expansão de seus esforços de código aberto, combinando aquisição de software com novos modelos abertos de IA.
A empresa anunciou que adquiriu a SchedMD, desenvolvedora do Slurm, um sistema de gerenciamento de carga de trabalho de código aberto amplamente utilizado em computação de alto desempenho e IA.
A Nvidia continuará a operar o Slurm como software independente de fornecedor, garantindo compatibilidade com uma variedade de hardware e mantendo o suporte para clientes existentes de HPC e IA.
Slurm e muito mais
Slurm gerencia agendamento, filas e alocação de recursos em grandes clusters de computação executando tarefas paralelas.
Mais de metade dos 10 a 100 supercomputadores listados no ranking TOP500 são baseados em serviços e o sistema é utilizado por empresas, fornecedores de nuvens, laboratórios de investigação e empresas de IA, incluindo organizações de condução autónoma, cuidados de saúde, energia, serviços financeiros, indústria transformadora e governo.
Slurm funciona com o hardware mais recente da Nvidia, e seus desenvolvedores continuam a adaptá-lo para cargas de trabalho de IA de alto desempenho.
Junto com a aquisição, a Nvidia também apresentou a família Nemotoron 3 de modelos abertos, incluindo os tamanhos Nano, Super e Ultra.
Os modelos usam uma mistura híbrida de especialistas para dar suporte a sistemas de IA multiagentes.
O Nemotoron 3 Nano concentra-se na execução eficiente de tarefas, o Nemotoron 3 Super oferece suporte à colaboração entre vários agentes de IA e o Nemotoron 3 Ultra lida com fluxos de raciocínio complexos.
A Nvidia fornece a esses modelos conjuntos de dados associados, bibliotecas de aprendizado por reforço e ambientes de treinamento NeMo Gym.
Os modelos Nemotron 3 são executados em plataformas de computação aceleradas da Nvidia, incluindo estações de trabalho e grandes clusters de IA.
Os desenvolvedores podem combinar modelos abertos com sistemas proprietários em fluxos de trabalho multiagentes usando nuvens públicas ou plataformas empresariais.
A Nvidia fornece ferramentas, bibliotecas e conjuntos de dados para oferecer suporte ao treinamento, avaliação e implantação em diversos ambientes de computação.
A Nvidia lançou três bilhões de tokens para modelos Nemotoron 3 com dados de pré-treinamento, pós-treinamento e aprendizagem por reforço.
Ferramentas adicionais de IA, incluindo NeMo RL e NeMo Evaluator, fornecem avaliação de modelo e avaliação de segurança.
Entre as primeiras a integrar o Nemotoron 3 estão empresas de software, segurança cibernética, mídia, manufatura e serviços em nuvem.
A Nvidia disponibilizou modelos de código aberto, ferramentas de IA e conjuntos de dados no GitHub e no Hugging Face para desenvolvedores que criam agentes de aplicativos de IA.
“A inovação aberta é a pedra angular do progresso da IA”, escreveu Jensen Huang, fundador e CEO da Nvidia, no comunicado de imprensa da empresa.
“Com o Nemotron, estamos transformando a IA avançada em uma plataforma aberta que oferece aos desenvolvedores a transparência e a eficiência necessárias para construir sistemas operacionais em escala.”
Siga o TechRadar no Google Notícias e adicione-nos como sua fonte padrão para receber notícias, opiniões e opiniões de nossos especialistas em feeds. Certifique-se de clicar no botão Continuar!
E é claro que você também pode Siga o TechRadar no TikTok para receber notícias, análises, unboxings de vídeos e receber atualizações regulares nossas WhatsApp também







