Llama 3.2 foi apresentado recentemente na Meta’s Developer Conference, apresentando recursos multimodais impressionantes e uma versão otimizada para dispositivos móveis usando hardware Qualcomm e MediaTek. Essa inovação permite que os desenvolvedores executem modelos de IA poderosos, como o Llama 3.2, em dispositivos móveis, abrindo caminho para aplicativos de IA mais eficientes, privados e responsivos.
Meta lançou quatro variantes do Llama 3.2:
Os modelos maiores, especialmente as variantes 11B e 90B, se destacam em tarefas como compreensão de imagens e raciocínio de gráficos, muitas vezes superando outros modelos como Claude 3 Haiku e até mesmo competindo com GPT-4o-mini em certos casos. Por outro lado, os modelos leves 1B e 3B são projetados para geração de texto e recursos multilíngues, tornando-os ideais para aplicações no dispositivo onde a privacidade e a eficiência são fundamentais.
Neste guia, mostraremos como executar o Llama 3.2 em um dispositivo Android usando Termux e Ollama. Termux fornece um ambiente Linux no Android e Ollama ajuda no gerenciamento e execução de grandes modelos localmente.
Executar modelos de IA localmente oferece dois benefícios principais:
Embora ainda não existam muitos produtos que permitam que dispositivos móveis executem modelos como o Llama 3.2 sem problemas, ainda podemos explorá-lo usando um ambiente Linux no Android.
Termux é um emulador de terminal que permite que dispositivos Android executem um ambiente Linux sem precisar de acesso root. Ele está disponível gratuitamente e pode ser baixado na página Termux GitHub.
Para este guia, baixe o termux-app_v0.119.0-beta.1 apt-android-7-github-debug_arm64-v8a.apk e instale-o em seu dispositivo Android.
Após iniciar o Termux, siga estas etapas para configurar o ambiente:
termux-setup-storage
Este comando permite que o Termux acesse o armazenamento do seu dispositivo Android, facilitando o gerenciamento de arquivos.
pkg upgrade
Digite Y quando solicitado a atualizar o Termux e todos os pacotes instalados.
pkg install git cmake golang
Esses pacotes incluem Git para controle de versão, CMake para construção de software e Go, a linguagem de programação na qual Ollama foi escrito.
Ollama é uma plataforma para executar grandes modelos localmente. Veja como instalar e configurar:
git clone --depth 1 https://github.com/ollama/ollama.git
cd ollama
go generate ./...
go build .
./ollama serve &
Agora o servidor Ollama será executado em segundo plano, permitindo que você interaja com os modelos.
Para executar o modelo Llama 3.2 em seu dispositivo Android, siga estas etapas:
Escolha um modelo:
Baixe e execute o modelo Llama 3.2:
./ollama run llama3.2:3b --verbose
O sinalizador --verbose é opcional e fornece logs detalhados. Após a conclusão do download, você pode começar a interagir com o modelo.
Ao testar o Llama 3.2 em dispositivos como o Samsung S21 Ultra, o desempenho foi bom para o modelo 1B e gerenciável para o modelo 3B, embora você possa notar atraso em hardware mais antigo. Se o desempenho for muito lento, mudar para o modelo 1B menor pode melhorar significativamente a capacidade de resposta.
Depois de usar o Ollama, você pode querer limpar o sistema:
chmod -R 700 ~/go rm -r ~/go
cp ollama/ollama /data/data/com.termux/files/usr/bin/
Agora, você pode executar ollama diretamente do terminal.
Llama 3.2 representa um grande avanço na tecnologia de IA, trazendo modelos multimodais poderosos para dispositivos móveis. Ao executar esses modelos localmente usando Termux e Ollama, os desenvolvedores podem explorar o potencial de aplicativos de IA no dispositivo que priorizam a privacidade e que não dependem de infraestrutura em nuvem. Com modelos como o Llama 3.2, o futuro da IA móvel parece brilhante, permitindo soluções de IA mais rápidas e seguras em vários setores.
Isenção de responsabilidade: Todos os recursos fornecidos são parcialmente provenientes da Internet. Se houver qualquer violação de seus direitos autorais ou outros direitos e interesses, explique os motivos detalhados e forneça prova de direitos autorais ou direitos e interesses e envie-a para o e-mail: [email protected]. Nós cuidaremos disso para você o mais rápido possível.
Copyright© 2022 湘ICP备2022001581号-3