À medida que a IA continua a moldar a forma como trabalhamos e interagimos com a tecnologia, muitas empresas procuram formas de aproveitar os seus próprios dados em aplicações inteligentes. Se você já usou ferramentas como ChatGPT ou Azure OpenAI, já sabe como a IA generativa pode melhorar processos e aprimorar as experiências do usuário. Entretanto, para obter respostas verdadeiramente personalizadas e relevantes, seus aplicativos precisam incorporar seus dados proprietários.
É aqui que entra a Geração Aumentada de Recuperação (RAG), fornecendo uma abordagem estruturada para integrar a recuperação de dados com respostas baseadas em IA. Com estruturas como LlamaIndex, você pode facilmente incorporar esse recurso em suas soluções, liberando todo o potencial de seus dados de negócios.
Deseja executar e explorar o aplicativo rapidamente? Clique aqui.
Retrieval-Augmented Generation (RAG) é uma estrutura de rede neural que aprimora a geração de texto de IA, incluindo um componente de recuperação para acessar informações relevantes e integrar seus próprios dados. Consiste em duas partes principais:
O recuperador encontra documentos relevantes e o gerador os utiliza para criar respostas mais precisas e informativas. Esta combinação permite que o modelo RAG aproveite o conhecimento externo de forma eficaz, melhorando a qualidade e relevância do texto gerado.
Para implementar um sistema RAG usando LlamaIndex, siga estas etapas gerais:
Para um exemplo prático, fornecemos um aplicativo de exemplo para demonstrar uma implementação RAG completa usando Azure OpenAI.
Agora vamos nos concentrar na construção de um aplicativo RAG usando LlamaIndex.ts (a implementação TypeScipt do LlamaIndex) e Azure OpenAI, e implantá-lo como aplicativos Web sem servidor em aplicativos de contêiner do Azure.
Você encontrará o projeto de introdução no GitHub. Recomendamos que você faça um fork deste modelo para poder editá-lo livremente quando necessário:
O aplicativo de projeto de introdução é construído com base na seguinte arquitetura:
Para mais detalhes sobre quais recursos são implantados, verifique a pasta infra disponível em todos os nossos exemplos.
O aplicativo de exemplo contém lógica para dois fluxos de trabalho:
Ingestão de dados: os dados são buscados, vetorizados e índices de pesquisa são criados. Se você quiser adicionar mais arquivos, como PDFs ou arquivos do Word, é aqui que você deve adicioná-los.
npm run generate
Atendimento de solicitações de prompt: o aplicativo recebe prompts do usuário, os envia para o Azure OpenAI e aumenta esses prompts usando o índice vetorial como um recuperador.
Antes de executar o exemplo, certifique-se de ter provisionado os recursos necessários do Azure.
Para executar o modelo GitHub no GitHub Codespace, basta clicar em
Na sua instância do Codespaces, entre na sua conta do Azure, a partir do seu terminal:
azd auth login
Provisione, empacote e implante o aplicativo de exemplo no Azure usando um único comando:
azd up
Para executar e testar o aplicativo localmente, instale as dependências npm e execute o aplicativo:
npm install npm run dev
O aplicativo será executado na porta 3000 em sua instância do Codespaces ou em http://localhost:3000 em seu navegador.
Este guia demonstrou como construir um aplicativo RAG (Retrieval-Augmented Generation) sem servidor usando LlamaIndex.ts e Azure OpenAI, implantado no Microsoft Azure. Ao seguir este guia, você pode aproveitar a infraestrutura do Azure e os recursos do LlamaIndex para criar aplicativos de IA poderosos que fornecem respostas contextualmente enriquecidas com base em seus dados.
Estamos entusiasmados para ver o que você cria com este aplicativo de introdução. Sinta-se à vontade para fazer um fork e curtir o repositório GitHub para receber as atualizações e recursos mais recentes.
Isenção de responsabilidade: Todos os recursos fornecidos são parcialmente provenientes da Internet. Se houver qualquer violação de seus direitos autorais ou outros direitos e interesses, explique os motivos detalhados e forneça prova de direitos autorais ou direitos e interesses e envie-a para o e-mail: [email protected]. Nós cuidaremos disso para você o mais rápido possível.
Copyright© 2022 湘ICP备2022001581号-3