Desde então, a OpenAI reforçou o ChatGPT para tornar os jailbreaks muito mais difíceis de executar. Mas isso não é tudo; Os jailbreaks do ChatGPT, em geral, parecem ter acabado, levando os usuários do ChatGPT a se perguntarem se os jailbreaks funcionam.
Então, para onde foram todos os jailbreaks do ChatGPT?
Antes da chegada do ChatGPT, conversar com IA era uma habilidade de nicho limitada àqueles que conheciam laboratórios de pesquisa. A maioria dos primeiros usuários não tinha experiência na elaboração de avisos eficazes. Isso levou muitas pessoas a empregar jailbreaks, uma maneira conveniente de fazer com que o chatbot fizesse o que queriam com o mínimo de esforço e habilidades de solicitação.
Hoje, o cenário evoluiu. A proficiência em estímulos está se tornando uma habilidade comum. Através de uma combinação de experiência adquirida com o uso repetido e acesso a guias de prompts ChatGPT disponíveis gratuitamente, os usuários do ChatGPT aprimoraram suas habilidades de prompts. Em vez de buscar soluções alternativas como jailbreaks, grande parte dos usuários do ChatGPT tornou-se mais adepto do uso de diferentes estratégias de prompt para atingir objetivos que exigiriam que os jailbreaks alcançassem no passado.
À medida que grandes empresas de tecnologia reforçam a moderação de conteúdo em chatbots de IA convencionais, como ChatGPT, startups menores e com foco no lucro optam por menos restrições, apostando sob demanda para chatbots de IA livres de censura. Com um pouco de pesquisa, você encontrará dezenas de plataformas de chatbots de IA que oferecem chatbots sem censura que podem fazer quase tudo que você deseja.
Seja escrevendo aqueles thrillers policiais e romances de humor negro que ChatGPT se recusa a escrever ou escrevendo malware que ataca os computadores das pessoas, esses chatbots sem censura com uma bússola moral distorcida farão o que você quiser. Com eles por perto, não faz sentido investir energia extra para escrever jailbreaks para ChatGPT. Embora não sejam necessariamente tão poderosas quanto o ChatGPT, essas plataformas alternativas podem executar confortavelmente uma ampla gama de tarefas. Plataformas como FlowGPT e Unhinged AI são alguns exemplos populares.
Nos primeiros meses do ChatGPT, fazer o jailbreak do ChatGPT era tão simples quanto copiar e colar avisos de fontes online. Você poderia alterar completamente a personalidade do ChatGPT com apenas algumas linhas de instruções complicadas. Com instruções simples, você pode transformar o ChatGPT em um vilão malvado ensinando como fazer bombas ou em um chatbot disposto a usar todas as formas de palavrões sem restrições. Foi um vale-tudo que produziu jailbreaks infames como DAN (Do Anything Now). A DAN envolvia um conjunto de instruções aparentemente inofensivas que obrigavam o chatbot a fazer qualquer coisa que fosse solicitada sem recusar. Surpreendentemente, esses truques grosseiros funcionaram naquela época.
No entanto, aqueles primeiros dias selvagens são história. Essas instruções básicas e truques baratos não enganam mais o ChatGPT. O jailbreak agora requer técnicas complexas para ter a chance de contornar as agora robustas salvaguardas da OpenAI. Com o jailbreak se tornando tão difícil, a maioria dos usuários fica desanimada demais para tentar. As explorações fáceis e abertas dos primeiros dias do ChatGPT acabaram. Fazer com que o chatbot diga uma palavra errada agora exige um esforço e conhecimento significativos que podem não valer o tempo e o esforço.
Uma força motriz por trás das tentativas de muitos usuários de desbloquear o ChatGPT foi a emoção de fazê-lo nos primeiros dias. Como uma nova tecnologia, fazer com que o ChatGPT se comportasse mal era divertido e merecia o direito de se gabar. Embora existam inúmeras aplicações práticas para jailbreaks ChatGPT, muitos os perseguiram pelo apelo “uau, olha o que eu fiz”. Aos poucos, porém, a empolgação decorrente da novidade foi diminuindo e, junto com ela, o interesse das pessoas em dedicar tempo aos jailbreaks.
Uma prática comum na comunidade de jailbreak do ChatGPT é compartilhar cada exploração bem-sucedida quando descoberta. O problema é que quando as explorações são amplamente compartilhadas, a OpenAI muitas vezes toma conhecimento delas e corrige as vulnerabilidades. Isso significa que os jailbreaks param de funcionar antes mesmo que as pessoas interessadas possam experimentá-los.
Portanto, cada vez que um usuário do ChatGPT desenvolve meticulosamente um novo jailbreak, compartilhá-lo com a comunidade acelera seu desaparecimento por meio de patches. Isso desincentiva a ideia de tornar público sempre que um usuário se depara com um jailbreak. O conflito entre manter os jailbreaks ativos, mas ocultos, e divulgá-los cria um dilema para os criadores de jailbreak do ChatGPT. Hoje em dia, na maioria das vezes, as pessoas optam por manter seus jailbreaks em segredo para evitar que as brechas sejam corrigidas.
O surgimento de modelos locais de grandes idiomas que você pode executar localmente em seu computador também diminuiu o interesse em jailbreaks ChatGPT. Embora os LLMs locais não sejam totalmente livres de censura, muitos são significativamente menos censurados e podem ser facilmente modificados para atender aos desejos dos usuários. Portanto, as escolhas são simples. Você pode se envolver no interminável jogo de gato e rato de encontrar uma maneira de enganar o chatbot apenas para consertá-lo em breve. Ou você pode optar por um LLM local que pode modificar permanentemente para fazer o que quiser.
Você encontrará uma lista surpreendentemente longa de poderosos LLMs sem censura que você pode implantar em seu computador com censura negligente. Alguns notáveis são o Llama 7B (sem censura), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B e GPT-4-X-Alpaca.
Por que dedicar um tempo precioso ao desenvolvimento de prompts de jailbreak se você não obterá nada com isso? Bem, alguns profissionais agora vendem jailbreaks com fins lucrativos. Esses criadores profissionais de jailbreak projetam jailbreaks que executam tarefas específicas e os listam para venda em mercados imediatos, como o PromptBase. Dependendo de suas capacidades, esses prompts de jailbreak podem ser vendidos por algo entre US$ 2 e US$ 15 por prompt. Algumas explorações complicadas em várias etapas podem custar significativamente mais.
Os jailbreaks não saíram completamente de cena; eles simplesmente foram para a clandestinidade. Com a monetização do ChatGPT pela OpenAI, eles têm incentivos mais fortes para restringir usos prejudiciais que podem impactar seu modelo de negócios. Este fator comercial provavelmente influencia seu esforço agressivo para reprimir explorações de jailbreak.
No entanto, a censura do ChatGPT pela OpenAI está enfrentando críticas crescentes entre os usuários. Alguns casos de uso legítimos do chatbot de IA não são mais possíveis devido à censura rigorosa. Embora o aumento da segurança proteja contra casos de uso prejudiciais, restrições excessivas podem, em última análise, empurrar uma parte da comunidade ChatGPT para os braços de alternativas menos censuradas.
Isenção de responsabilidade: Todos os recursos fornecidos são parcialmente provenientes da Internet. Se houver qualquer violação de seus direitos autorais ou outros direitos e interesses, explique os motivos detalhados e forneça prova de direitos autorais ou direitos e interesses e envie-a para o e-mail: [email protected]. Nós cuidaremos disso para você o mais rápido possível.
Copyright© 2022 湘ICP备2022001581号-3