Empresas apostam em unidade de processamento neural (NPU) para acelerar tarefas relacionadas à inteligência artificial. Atualmente, processamento ocorre na nuvem.
No universo revolucionário da inteligência artificial (IA), o desafio é processar cada vez mais informações, de maneira simultânea. As maiores empresas de tecnologia estão investindo pesado nesse desafio. Na corrida pela inovação, um novo componente está ganhando destaque: a unidade de processamento neural (NPU).
As NPUs são chips especializados projetados para acelerar tarefas relacionadas à IA, especialmente em áreas como aprendizado de máquina (machine learning) e redes neurais artificiais.
Atualmente, a maior parte do processamento de inteligência artificial é realizada na nuvem, em grandes servidores de empresas especializadas. Isso ocorre porque a IA requer uma quantidade significativa de poder de computação para treinar e executar modelos que são realizados em chips chamados de GPU (unidade de processamento gráfico).
Na tentativa de combater o domínio no mercado de chips gráficos, diversas empresas, dentre elas, Microsoft, AMD e Qualcomm, estão apostando nas NPUs. Essa tecnologia tem o foco específico em calcular somente inteligência artificial, diferentemente das placas gráficas, que executam outras funções, como a projeção de imagem na tela do computador — e gastam mais energia.
A principal inovação, anunciada recentemente, é produzir notebooks ultrafinos, capazes de processar redes neurais artificiais nativamente. As NPUs ocupam menos espaço e consomem menos energia, por isso são valorizadas. No entanto, a potência para fazer esses cálculos paralelos é medida em TOPS (Tera Operações por Segundo), esse computadores ultrafinos foram anunciados com o selo da Copilot Plus, pela Microsoft, empresa responsável pelo Windows que é o Sistema Operacional com cerca de 74% dos usuários de PCs, de acordo com o site especializado Statcounter, e terão pelo menos 40 TOPS (Trilhões de Operações por Segundo), enquanto uma placa de vídeo de uso pessoal pode chegar até 1.300 TOPS.
Devido à grande potência que núcleos especializados como os da Nvidia, que domina o mercado de GPUs em IA, grande parte de companhias que trabalham com redes neurais de supercomputadores que trabalham com demandas de inteligência artificial do mundo inteiro a partir do sistema de nuvem. Nessa situação, qualquer um que usar o sistema, envia um comando que será enviado via internet para esses grandes servidores, que vão calcular e enviar o resultado de volta, porém, há um delay que depende de fatores de internet e conexão, o processamento local de processos de IA pode acabar agilizando o resultado.
Mudança digital
As NPUs têm potencial para impulsionar grandes mudanças no cotidiano digtial. Elas processam uma grande quantidade de dados em paralelo, realizando trilhões de ações paralelas por segundo, explica Euclides Lourenço Chuma, professor e pesquisador do Instituto de Engenheiros Eletricistas e Eletrônicos (IEEE). “Contudo, as NPUs têm uso restrito na IA, pois muitas operações não funcionam em paralelo” ressalta.
O professor também explica que NPUs terão “aplicações profissionais úteis”, como trabalho de escritório e questões mais funcionais e simples e que para esse processador caiba em um computador ultrafino, deve vir integrado em placa-mães, assim como GPUs simples, que tem o foco somente em gerar a imagem da tela. Portanto, “são pouco customizáveis” e devem ser bem escolhidas, porque não há como fazer uma melhoria sem trocar todo o sistema.
“NPUs oferecem uma melhor relação custo-benefício-energia para aplicações de IA. Já as GPUs são mais versáteis, contudo costumam custar ter uma relação custo-benefício-energia pior que as NPUs para aplicações de IA”, conta o professor. Portanto, computadores portáteis que funcionam a base de bateria, seriam beneficiados em relação ao tempo fora da tomada.
Em uma recente declaração, a Nvidia, líder mundial em tecnologia de processamento gráfico, defendeu que suas GPUs RTX são superiores às Unidades de Processamento Neural para o processamento de inteligência artificial.
Segundo a Nvidia, a empresa domina todo o segmento de PC IA, “já que a RTX 4070 (placa intermediária da fabricante) é suficiente para bater a Radeon(placa gráfica da concorrente AMD mais rápida” em tarefas que envolvem processamento para inteligência artificial. No último ano, a Nvidia vendeu 3,76 milhões de GPUs para servidores, o que significa 98% de todo o mercado. Nesse mesmo período, a empresa registrou um lucro de US$12,2 bilhões, montante é 779% maior que valor de 2022. A AMD respondeu dizendo que suas GPUs também conseguem entregar bons resultados em áreas diferentes, como qualidade de vídeo, remoção de ruídos de fundo, IA generativa e edição de imagens e vídeos.
Veículo: Correio Braziliense
Para saber mais acesse: https://www.correiobraziliense.com.br/economia/2024/07/6893198-computadores-no-desafio-da-transicao-para-a-inteligencia-artificial.html