domingo, outubro 6, 2024
Tecnologia

10 termos de IA que todos deveriam conhecer, segundo a Microsoft – Forbes Brasil

Início / Forbes Tech / 10 termos de IA que todos deveriam conhecer, segundo a Microsoft
“Na medida que a IA continua a evoluir, o mesmo acontece com seu léxico. Você sabe a diferença entre modelos de linguagem grandes e pequenos? Ou o que significa “GPT” no ChatGPT? Ou o que um RAG tem a ver com a limpeza de fabricações?”,

Acessibilidade

Dominar a inteligência artificial pode parecer um desafio, até mesmo para quem é expert no assunto. No entanto, para muitos executivos e profissionais que estão fora da tecnologia, saber de IA tornou-se fundamental.
Susanna Ray, executiva da Microsoft, destacou 10 termos essenciais que envolvem a tecnologia.
“Na medida que a IA continua a evoluir, o mesmo acontece com seu léxico. Você sabe a diferença entre modelos de linguagem grandes e pequenos? Ou o que significa “GPT” no ChatGPT? Ou o que um RAG tem a ver com a limpeza de fabricações?”, provoca Susanna.
Raciocínio/planejamento
“Os computadores que utilizam IA agora podem resolver problemas e realizar tarefas empregando padrões que aprenderam a partir de dados históricos, para dar sentido às informações – algo semelhante ao raciocínio. Os sistemas mais avançados são capazes de dar um passo além, enfrentando problemas cada vez mais complexos por meio da criação de planos, traçando uma sequência de ações para atingir um objetivo. Imagine pedir ajuda a um programa de IA para organizar uma viagem a um parque temático.”
Treinamento/inferência


“Para criar e usar um sistema de IA, existem duas etapas: treinamento e inferência. O treinamento é a educação de um sistema de IA, quando ele é alimentado com um conjunto de dados e aprende a realizar tarefas ou fazer previsões com base nesses dados. Pode ser fornecida, por exemplo, uma lista de preços de casas vendidas recentemente num bairro, juntamente com o número de quartos e casas de banho em cada uma e uma infinidade de outras variáveis. Durante o treinamento, o sistema ajusta seus parâmetros internos, que são valores que determinam quanto peso atribuir a cada um desses fatores que podem influenciar o preço. A inferência ocorre quando ele usa esses padrões e parâmetros aprendidos para chegar a uma previsão de preço para uma nova casa prestes a ser colocada no mercado. “
SLMs/modelos de linguagem pequena
“Modelos de linguagem pequena, ou SLMs, são versões de bolso de modelos de linguagem grande, ou LLMs. Ambos usam técnicas de aprendizado de máquina para ajudá-los a reconhecer padrões e relações na linguagem, para que possam produzir respostas realistas e em linguagem natural. Mas embora os LLMs sejam enormes e precisem de uma grande dose de poder computacional e memória, os SLMs como o Phi-3 são treinados em conjuntos de dados menores, selecionados e têm menos parâmetros, por isso são mais compactos e podem até ser usados offline, sem conexão com a Internet. Isso os torna ótimos para aplicativos em dispositivos como laptop ou telefone, onde você pode querer fazer perguntas básicas sobre cuidados com animais de estimação, mas não precisa se aprofundar no raciocínio detalhado e em várias etapas de como treinar cães-guia.”
Aterramento
“Os sistemas generativos de IA podem compor histórias, poemas e piadas, bem como responder a questões de investigação. Mas por vezes enfrentam desafios para separar os factos da ficção, ou os seus dados de treino estão desatualizados, e então podem dar respostas imprecisas referidas como alucinações. Os desenvolvedores trabalham para ajudar a IA a interagir com o mundo real de maneira precisa por meio do processo de aterramento, que é quando eles conectam e ancoram seu modelo com dados e exemplos tangíveis para melhorar a precisão e produzir resultados mais contextualmente relevantes e personalizados. “
Geração Aumentada de Recuperação (RAG sigla em inglês)
“Quando os desenvolvedores fornecem a um sistema de IA acesso a uma fonte de aterramento para ajudá-lo a ser mais preciso e atual, eles usam um método chamado Retrieval Augmented Generation, ou RAG. O padrão RAG economiza tempo e recursos ao adicionar conhecimento extra sem a necessidade de treinar novamente o programa de IA. É como se você fosse Sherlock Holmes e tivesse lido todos os livros da biblioteca, mas ainda não tivesse resolvido o caso. Então você vai até o sótão, desenrola alguns pergaminhos antigos e voilà – você encontra no livro a peça que faltava no quebra-cabeça. Da mesma forma, se você tem uma empresa de roupas e deseja criar um chatbot que possa responder a perguntas específicas sobre sua mercadoria, você pode usar o padrão RAG em seu catálogo de produtos para ajudar os clientes a encontrar o suéter verde perfeito em sua loja.”
Orquestração
“Os programas de IA têm muito a fazer enquanto processam as solicitações das pessoas. A camada de orquestração é o que os orienta em todas as tarefas, na ordem certa, para obter a melhor resposta. Se você perguntar ao Microsoft Copilot quem é Ada Lovelace, por exemplo, e depois perguntar quando ela nasceu, o orquestrador da IA é o que armazena o histórico de bate-papo para ver se o “ela” em sua consulta de acompanhamento se refere a Lovelace. A camada de orquestração também pode seguir um padrão RAG, pesquisando na Internet informações novas para adicionar ao contexto e ajudar o modelo para que encontre uma resposta melhor. É como se um maestro orientasse os violinos e depois as flautas e os oboés, enquanto todos seguiam a partitura para produzir o som que o compositor tinha em mente. “
Memória
“Tecnicamente, os modelos de IA atuais não têm memória. Mas os programas de IA podem ter instruções orquestradas que os ajudam a “lembrar” informações, seguindo etapas específicas em cada transação – como armazenar temporariamente perguntas e respostas anteriores em um bate-papo e depois incluir esse contexto na solicitação atual do modelo, ou usar dados do aterramento do padrão RAG para garantir que a resposta tenha as informações mais atuais. Os desenvolvedores estão experimentando a camada de orquestração para ajudar os sistemas de IA a saberem se precisam se lembrar temporariamente de uma divisão de etapas, por exemplo – memória de curto prazo, como anotar um lembrete em um post-it – ou se seria útil lembrar de algo para um período de tempo mais longo, armazenando-o em um local mais permanente. “
Modelos de transformadores e modelos de difusão
“Há décadas que as pessoas ensinam sistemas de IA a compreender e gerar linguagem, mas um dos avanços que acelerou o progresso recente foi o modelo do transformador. Entre os modelos de IA generativos, os transformadores são os que entendem melhor e mais rapidamente o contexto e as nuances. Eles são contadores de histórias eloqüentes, prestando atenção aos padrões dos dados e avaliando a importância de diferentes entradas para ajudá-los a prever rapidamente o que vem a seguir, o que lhes permite gerar texto. A fama de um transformador é que ele é o T em ChatGPT: Generative Pre-trained Transformer. Os modelos de difusão, geralmente usados para criação de imagens, acrescentam um toque diferente ao fazer uma jornada mais gradual e metódica, difundindo pixels de posições aleatórias até que sejam distribuídos de uma maneira que forme uma imagem solicitada em um prompt. Os modelos de difusão continuam fazendo pequenas alterações até criarem algo que funcione. “
Modelos de fronteira
“Os modelos de fronteira são sistemas de grande escala que ultrapassam os limites da IA e podem executar uma ampla variedade de tarefas com capacidades novas e mais amplas. Eles podem ser tão avançados que às vezes nos surpreendem com o que são capazes de realizar. Empresas de tecnologia, incluindo a Microsoft, formaram um Frontier Model Forum para partilhar conhecimento, definir padrões de segurança e ajudar todos a compreender estes poderosos programas de IA, para garantir um desenvolvimento seguro e responsável.”
GPU
“Uma GPU, sigla em inglês para Unidade de Processamento Gráfico, é basicamente uma calculadora turbinada. As GPUs foram originalmente projetadas para suavizar gráficos sofisticados em videogames e agora são o grande destaque da computação. Os chips têm muitos núcleos minúsculos, ou redes de circuitos e transistores, que resolvem problemas matemáticos juntos, chamados de processamento paralelo. Como a IA é basicamente isso – resolver toneladas de cálculos em grande escala para poder se comunicar em linguagem humana e reconhecer imagens ou sons – as GPUs são indispensáveis para ferramentas de IA, tanto para treinamento quanto para inferência.”


© Forbes 2024. Todos os direitos reservados.

source

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

WP Twitter Auto Publish Powered By : XYZScripts.com