PocketOption

A Cerebras Systems, ​uma empresa sediada na ‌Califórnia,​ bateu seu próprio⁣ recorde mundial de chip de ⁣IA⁣ mais⁣ rápido com o⁤ lançamento do ‌Wafer​ Scale Engine 3.⁤ Este ​novo chip oferece‍ o dobro do desempenho do⁣ Cerebras WSE-2, consumindo a mesma quantidade ‌de energia e mantendo o mesmo preço.

O WSE-3 foi projetado para treinar os maiores modelos de IA do mercado e possui 4 trilhões ⁣de⁣ transistores⁤ em um design de 5 nm. Ele alimenta o supercomputador Cerebras ​CS-3 AI, que possui 900.000 núcleos de computação otimizados para IA e pode fornecer um desempenho​ máximo de 125 petaflops.

Modelos de IA como‍ o GPT têm recebido muita atenção devido ​às suas capacidades impressionantes.⁢ No entanto, as empresas de tecnologia reconhecem⁤ que esses ​modelos ainda estão em‍ estágios‌ iniciais de desenvolvimento e precisam de mais⁤ melhorias para ‌revolucionar completamente o mercado.

Para alcançar isso, os modelos de IA precisam ser treinados em conjuntos de dados ainda maiores, o que⁤ requer infraestruturas ⁢ainda mais poderosas. Isso levou ao surgimento da fabricante de‌ chips ‌Nvidia, cuja oferta H200 está disponível comercialmente e é amplamente⁤ utilizada ​para treinar modelos de IA, com 80 bilhões de transistores. No entanto, a Cerebras pretende​ ultrapassar ‌ainda mais os ⁤limites ‍com ‍seu​ chip WSE-3, que promete um aumento de ⁤desempenho de⁤ 57 vezes.

O WSE-3 utiliza a​ arquitetura de 5 nm e foi projetado para fornecer ‍900.000 núcleos otimizados para processamento de dados ‌de⁢ IA quando usado no supercomputador CS-3. O CS-3 possui 44 GB ​de SRAM ‍no chip e pode armazenar ‌24‍ trilhões​ de parâmetros em um único espaço de memória lógica, simplificando o ⁤fluxo de ⁣trabalho de treinamento e melhorando a produtividade‍ do desenvolvedor.

A memória ⁤externa ⁢do‌ CS-3 pode ser expandida para⁤ até 1,2 petabytes para treinar⁣ modelos dez vezes maiores que o GPT-4 ⁢ou Gemini.​ O CS-3 pode ser configurado ⁢para atender às necessidades de empresas ​ou⁢ de hiperescala. Em ⁢uma configuração de ‌quatro sistemas, ele pode treinar modelos de ⁣IA com 70⁣ bilhões de parâmetros ⁢diariamente e, em ⁤uma configuração de sistema 2048, pode treinar o modelo Llama de 70 bilhões​ de parâmetros do⁣ zero‌ em um dia.

O mais recente Cerebras⁣ Software⁣ Framework oferece suporte nativo para ‌PyTorch 2.0 e os mais recentes modelos e técnicas de IA, como modelos ⁤multimodais, transformadores de visão,⁢ uma mistura de especialistas e difusão. A Cerebras é a‍ única ‍plataforma que oferece‍ aceleração de hardware⁤ nativa para dispersão dinâmica e não estruturada, o que pode acelerar o treinamento em até 8x.

“O ⁢WSE-3‌ é o chip de IA ​mais rápido do mundo, desenvolvido especificamente para os mais recentes trabalhos de IA de ponta, desde‌ uma mistura de ‌especialistas até modelos com‌ 24 trilhões de parâmetros. Estamos entusiasmados ‍em trazer o WSE-3 e o CS-3 ao mercado para ajudar a‌ resolver os maiores desafios atuais de IA”, disse ⁢Andrew Feldman, CEO e cofundador da Cerebras.

O sistema​ CS-3 é otimizado para trabalho de IA. Ele‌ oferece mais ‍desempenho de ⁢computação, ‌ocupando menos espaço ⁤e consumindo menos ‍energia do que qualquer outro sistema. É interessante ‌notar que, enquanto o consumo de energia da GPU​ dobra‍ de geração em geração, o CS-3 dobra o​ desempenho, mantendo-se dentro do mesmo⁤ envelope de energia.

Outra vantagem do​ CS-3 é sua facilidade⁤ de ‍uso superior. ‌Ele requer 97% menos código do que as GPUs para LLMs e pode treinar modelos ‍que variam de 1B a 24T‌ de parâmetros ‌com um modo puramente paralelo de dados. Além disso,​ uma ‌implementação padrão de um ⁤modelo ‌do ⁣tamanho do GPT-3 exigia apenas 565 linhas de código no Cerebras – um recorde do setor.

O CS-3 desempenhará um​ papel significativo na parceria estratégica entre a Cerebras e a ‌G42. ⁣A ‍parceria já proporcionou um enorme ⁢desempenho⁤ de ⁣supercomputador de IA com o Condor Galaxy 1 e o Condor Galaxy‌ 2,​ ambos⁢ entre ‌os maiores supercomputadores de IA do‍ mundo.

Recentemente, a Cerebras e a G42 anunciaram que a construção⁤ do Condor‌ Galaxy 3 está em andamento. Ele ⁢será construído com ⁢64 sistemas CS-3 e produzirá‌ 8 exaFLOPs de computação ⁣de IA, tornando-se um dos maiores supercomputadores de IA do mundo. Esta será a terceira instalação da rede Condor Galaxy, e a ‌parceria estratégica entre a Cerebras e a G42 deverá entregar⁤ dezenas de exaFLOPs‌ de⁣ computação de IA.⁤ O Condor Galaxy ‍já ⁢treinou alguns​ dos principais modelos⁣ de código aberto do⁤ setor, ​incluindo Jais-30B, Med42, Crystal-Coder-7B ⁣e BTLM-3B-8K.

“Nossa parceria estratégica com a Cerebras tem sido fundamental para ⁤impulsionar a inovação na G42 e​ contribuirá para acelerar a revolução da IA em ⁢escala ⁢global”, disse Kiril Evtimov, CTO do Grupo G42. “O Condor Galaxy 3, nosso próximo supercomputador de IA com 8 exaFLOPs, está atualmente em construção e em breve elevará a produção total de computação de ​IA‍ do nosso sistema⁤ para 16⁣ exaFLOPs.”

Atualizado em by
Cerebras Systems apresenta o chip de IA mais rápido do mundo
Cerebras Systems apresenta o chip de IA mais rápido do mundo
Cerebras Systems apresenta o chip de IA mais rápido do mundo
Registro Rápido

Plataforma de negociação online focada em opções e forex simplificados.

100%
Pontuação de Confiança