No final de junho (25), a Panmnesia apresentou uma implementação do protocolo CXL que possibilita expandir a memória de GPUs utilizando SSDs ou a memória RAM do sistema. O processo inovador realiza a interface entre os chips gráficos e dispositivos paralelos de armazenamento e memória com latência baixíssima, algo essencial principalmente em servidores de IA e HPC.
O Compute Express Link é um protocolo de padrão aberto criado originalmente em 2019 e visa, justamente, estabelecer uma solução compartilhada de memória entre o host e aceleradores dedicados. Contudo, de maneira geral, essa aplicação aumenta bruscamente os tempos de resposta, sendo pouco eficiente em sistemas altamente dependentes em tempos de resposta reduzidos.
A novidade criada pela startup coreana é a otimização do protocolo por meio de um controlador que reduz essa latência para a faixa abaixo de 100 nanossegundos. Com isso, serviços de IA menores conseguem aumentar a escalabilidade de suas GPUs sem precisar, obrigatoriamente, trocar a infraestrutura de servidores, tornando processos de expansão mais acessíveis.
Latência abaixo de 100 nanossegundos
Para reduzir os tempos de acesso, a Panmnesia desenvolveu um chip próprio baseado no design do CXL que utiliza o barramento PCI Express para estabelecer múltiplas conexões com sistemas externos de armazenamento. Além disso, o decodificador HDM (Memória de Dispositivo Gerenciada pelo Host) realiza a interface entre as conexões, decodificando as informações e gerenciando a alocação na memória externa.
Em benchmarks comparando o protocolo CXL da startup com versões desenvolvidas pela Meta e Samsung, o resultado foi um tempo de acesso abaixo de 100 nanossegundos, contra a latência de cerca de 250 ns das soluções da Meta e Samsung.
- Compre notebook gamer com GeForce RTX e capacidade de IA pelo melhor preço!
- Compre placa de vídeo GeForce RTX com capacidade de IA pelo melhor preço!
Fonte: Panmnesia