IA generativa: AWS responde ao Azure e OpenAI com Amazon Bedrock

Com o SageMaker, a AWS ganhou fama entre as equipes de ciência de dados. O fornecedor dispõe ainda de um leque de serviços especializados como o Kendra (motor de busca cognitivo), a gama Amazon Lookout (deteção de anomalias), o Amazon Rekognition (visão computacional) ou ainda o Lex (chatbot/voicebot). Em seu site, o fornecedor mostra 36 produtos diferentes dedicados ao aprendizado de máquina.

Entre eles, Amazon Bedrock é o novo garoto do quarteirão. Disponível em pré-visualização limitada para um lançamento previsto para o segundo semestre deste ano, Bedrock cobre um campo particularmente moderno: IA generativa.

“Somos considerados o provedor de nuvem com mais clientes e credenciais de AI e ML”, disse Vasanth “Vasi” Philomin, vice-presidente e gerente geral de Machine Learning & AI da AWS. “Agora queremos adotar a mesma abordagem para democratizar a IA generativa”.

É preciso dizer que a OpenAI e a Microsoft realmente levaram a cobertura das notícias para eles. O concorrente teve que responder. Como sempre, a AWS quer se diferenciar.

Enquanto a Microsoft oferece o modelo GPT-3.5/4 e todas as suas variantes em sua oferta Azure OpenAI, a AWS, como Databricks, acredita que “um modelo não pode governar”.

Bedrock, uma alternativa ao Azure OpenAI

Com Bedrock, a abordagem da AWS é fornecer modelos básicos que podem ser acessados ​​via API para refiná-los ou derivá-los com base em diferentes casos de uso.

“Diferentes modelos funcionam de forma diferente, dependendo da tarefa em questão. A ideia de escolha é, portanto, muito importante”, diz Vasi Philomin. “Você precisa ter vários projetos básicos e então pode determinar quais são os melhores para seus casos de uso de negócios.”

É por isso que a AWS se cercou de parceiros para oferecer uma variedade de modelos NLG disponíveis via API. Por exemplo, o AI21 Labs oferecerá sua coleção de modelos Jurrasic-2 (cinco variantes), apresentada em março passado. O laboratório não revela o número de parâmetros usados, mas sabemos que a maior variante do Jurassic-1 tem 178 bilhões de parâmetros. No entanto, a startup indica que esses acompanhamentos instrucionais podem criar resumos, gerar artigos e e-mails, responder perguntas a partir de uma base de conhecimento em inglês, francês, alemão, português, italiano e holandês. O laboratório fornece uma API por função. De acordo com a startup, a API dedicada ao resumo é 19% mais fiel ao conteúdo de entrada do que o davinci-003 da OpenAI.

Anthropic fornece Claude e sua variante Claude Instant. Claude oferece recursos semelhantes ao Jurrasic-2, mas Anthropic enfatizou uma técnica de aprendizado por reforço supervisionada por humanos e IA para impor uma estrutura ética ao modelo para que seja “útil, justo e inofensivo”.

Por sua vez, a AWS está preparando a coleção de modelos Amazon Titan. Por enquanto, duas variantes estão planejadas. Titan Text cobre os mesmos casos de uso básicos de Claude e Jurrasic-2. A Titan Embeddings, por outro lado, visa produzir representações matemáticas de textos como entrada para um modelo que “contém a semântica de um texto”. Mais precisamente, envolve a representação de palavras por vetores de números reais para analisar a resposta mais interessante para uma pergunta. “É muito útil em aplicações como buscadores. A Amazon usa um método semelhante”, explica Vasi Philomin.

Por fim, a AWS tem parceria com a Stability AI, uma das criadoras do famoso modelo de difusão Stable Diffusion. Isso envolve a geração de imagens, desenhos ou até logotipos a partir de um comando de linguagem natural.

“Todos os modelos estarão disponíveis em tamanhos diferentes, dependendo da precisão da tarefa a ser executada e do orçamento alocado”, promete Vasi Philomin.

“Além disso, um tamanho maior não significa que um modelo seja mais preciso. Já mostramos que um modelo com 20 bilhões de parâmetros supera um modelo com 275 bilhões de parâmetros para determinadas tarefas”, acrescenta.

Modelos personalizados facilmente personalizáveis

Apesar da abordagem da Anthropic e da garantia de que o provedor garantirá que uma abordagem responsável à IA seja respeitada, apenas alguns modelos de Stability.ai são licenciados em código aberto.

A AWS garante que não usará os dados usados ​​pelos clientes para refinar seus modelos e seus parceiros parecem empenhados em fazer o mesmo. “Nenhum dos dados do cliente é usado para treinar os modelos subjacentes e, como todos os dados são criptografados e não saem do VPC do cliente, o cliente pode ter certeza de que seus dados permanecerão privados e confidenciais”, escreve Swami Sivasubramanian, vice-presidente de dados e Machine Learning na AWS, em um post de blog.

Embora a maioria dos modelos seja proprietária, os usuários devem poder personalizar o treinamento para atender às suas necessidades. De acordo com a AWS, poucas amostras são necessárias para obter resultados satisfatórios para uma tarefa específica.

Nesse desejo de abstrair as complexidades subjacentes dessas tecnologias, o provedor apresenta o Bedrock como um serviço gerenciado e totalmente sem servidor. Ele se integra ao SageMaker para integrar modelos em pipelines mais avançados.

Ao mesmo tempo, a AWS não especifica quais instâncias alimentarão esse serviço.

“Os clientes não querem se preocupar com a infraestrutura subjacente. Eles querem chamar um modelo via API para treinamento ou inferência”, diz Vasi Philomin. “Nos bastidores, aproveitamos o hardware de nossa escolha e ajustamos automaticamente a disponibilidade da infraestrutura para corresponder à carga de trabalho.”

Por enquanto, não há documentação e tabelas de taxas. Ainda assim, Vasi Philomin reconhece que a taxa determinará a popularidade de Bedrock.

Ao mesmo tempo, a AWS está anunciando a disponibilidade geral das instâncias EC2 Trn1n e Inf2. Eles são alimentados, respectivamente, pelos aceleradores Trainium e Inferentia2, ambos construídos com núcleos NeuroncoreV2. As instâncias Trn1n devem fornecer o dobro da largura de banda das instâncias Trn1 devido à topologia de rede EFA e um aumento de desempenho de 20%. As instâncias Inf2 forneceriam três vezes o desempenho de computação das instâncias Inf1. Claro que a AWS tem isso concentrar são referências para treinamento e inferência de modelo de linguagem. Instâncias Inf1 já foram usadas para casos de uso de visão computacional.

“As instâncias Inf2 melhorarão a relação desempenho/preço em pelo menos 40% em comparação com todas as instâncias EC2 comparáveis ​​atualmente disponíveis”, garante Vasi Philomin.

No entanto, a inferência de difusão estável deve ser executada em instâncias EC2 G4 ou G5 equipadas com GPUs Nvidia. O modelo foi projetado com essa arquitetura em mente.

Primeiros passos

De acordo com a AWS, Bedrock é especialmente interessante para empresas como Accenture, Deloitte, Infosys e editoras C3 AI e Pegasystems.

Mas o provedor também quer reunir startups em torno de sua visão. No AWS Summit em Paris em 4 de abril, ele anunciou o lançamento de um novo acelerador aberto a jovens empresas que trabalham em IA generativa (exceto em alguns países sensíveis, incluindo Coréia do Norte, China, Cuba, Rússia, Irã e Síria). Os dez vencedores receberão dez semanas de suporte técnico e organizacional e até US$ 300.000 em créditos de nuvem para implementar seu projeto.

Por fim, a AWS está formalizando a disponibilidade geral do CodeWhisperer, uma ferramenta de auxílio à programação baseada em IA. Quando anunciado, diferia na capacidade de indicar a fonte ou inspiração do código gerado, mas o GitHub, desde então, alcançou o Copilot e oferece funcionalidade semelhante.

Estes são apenas os primeiros passos, admite Vasi Philomin.

“Acho que estamos apenas no começo. É importante continuar inovando em todos os aspectos e em todas as áreas. Ainda há problemas científicos a serem resolvidos”, conclui.

Fernão Teixeira

"Criador. Totalmente nerd de comida. Aspirante a entusiasta de mídia social. Especialista em Twitter. Guru de TV certificado. Propenso a ataques de apatia."

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *