Home  >  Inovação

Nova geração do TensorRT reduz tempo de inferência em IA pela metade

Novo TensorRT 8, da Nvidia, melhora processamento de modelos de IA em ferramentas como motores de busca, recomendações de anúncios e chatbots

Rafael Romer

20/07/2021 às 10h00

Nvidia Logo
Foto:

Legenda: Reprodução/Shutter Stock

Interfaces de Inteligência Artificial (IA) mais precisas e mais rápidas no processamento de modelos treinados de linguagem, essa é a promessa da Nvidia com o TensorRT 8, nova geração da solução de inferência de IA utilizada por SDKs da Nvidia, anunciado nesta terça-feira (20).

Segundo a companhia, a nova versão do software tem como objetivo dar vazão ao aumento exponencial de complexidade que modelos de inteligência artificial têm observado em setores como Saúde, Finanças e Indústria.

“A versão mais recente do TensorRT apresenta novos recursos que permitem às empresas fornecer aplicativos de IA de conversação a seus clientes com um nível de qualidade e capacidade de resposta nunca antes possível", resumiu Greg Estes, vice-presidente de programas para desenvolvedores da Nvidia.

O TensorRT é a solução da Nvidia para a chamada "inferência", ato de utilizar uma rede neural para fornecer insights após ela ter sido treinada em modelos de linguagem natural através de grandes volumes de dados. A solução é utilizada hoje por mais de 350 mil desenvolvedores e triplicou sua base instalada entre os anos de 2019 e 2020.

Leia o texto completo no IT Forum.