«Если рабочий хочет хорошо выполнять свою работу, он должен сначала заточить свои инструменты» — Конфуций, «Аналитики Конфуция. Лу Лингун»
титульная страница > ИИ > Почему больше нет джейлбрейков ChatGPT? 7 причин, по которым джейлбрейки ChatGPT не работают

Почему больше нет джейлбрейков ChatGPT? 7 причин, по которым джейлбрейки ChatGPT не работают

Опубликовано 19 августа 2024 г.
Просматривать:447

С тех пор OpenAI ужесточила ChatGPT, чтобы сделать джейлбрейк намного сложнее. Но это еще не все; В целом джейлбрейки ChatGPT, похоже, иссякли, что заставляет пользователей ChatGPT задаться вопросом, работают ли джейлбрейки вообще.

Итак, куда же делись все джейлбрейки ChatGPT?

1. Навыки подсказок ChatGPT в целом улучшились.

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don\'t Work

До появления ChatGPT общение с ИИ было нишевым навыком, предназначенным только для тех, кто имел отношение к исследовательским лабораториям. Большинству первых пользователей не хватало опыта в разработке эффективных подсказок. Это побудило многих людей использовать джейлбрейки — удобный способ заставить чат-бота делать то, что они хотят, с минимальными усилиями и навыками подсказки.

Сегодня ситуация изменилась. Умение подсказывать становится основным навыком. Благодаря сочетанию опыта, полученного в результате многократного использования, и доступа к свободно доступным руководствам по подсказкам ChatGPT, пользователи ChatGPT отточили свои навыки подсказок. Вместо того, чтобы искать обходные пути, такие как джейлбрейк, большинство пользователей ChatGPT стали более искусно использовать различные стратегии подсказок для достижения целей, для достижения которых в прошлом им требовались джейлбрейки.

2. Рост числа чат-ботов без цензуры

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don\'t Work

Поскольку крупные технологические компании ужесточают модерацию контента в основных чат-ботах с искусственным интеллектом, таких как ChatGPT, более мелкие, ориентированные на прибыль стартапы предпочитают меньше ограничений, делая ставку на спрос. для чат-ботов с искусственным интеллектом без цензуры. Проведя небольшое исследование, вы обнаружите десятки платформ чат-ботов с искусственным интеллектом, предлагающих чат-ботов без цензуры, которые могут делать практически все, что вы от них захотите.

Будь то написание криминальных триллеров и романов с черным юмором, которые ChatGPT отказывается писать, или написание вредоносных программ, атакующих компьютеры людей, эти чат-боты без цензуры с искаженным моральным компасом сделают все, что вы захотите. Когда они рядом, нет смысла тратить лишнюю энергию на написание джейлбрейков для ChatGPT. Хотя эти альтернативные платформы не обязательно такие мощные, как ChatGPT, они могут с комфортом выполнять широкий спектр задач. Популярными примерами являются такие платформы, как FlowGPT и Unhinged AI.

3. Взлом джейлбрейка ChatGPT стал сложнее

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don\'t Work

В первые месяцы существования ChatGPT взлом ChatGPT был таким же простым, как копирование подсказок из онлайн-источников. Вы можете полностью изменить личность ChatGPT с помощью всего лишь нескольких строк хитрых инструкций. С помощью простых подсказок вы можете превратить ChatGPT в злого злодея, обучающего делать бомбы, или в чат-бота, готового без ограничений использовать все формы ненормативной лексики. Это была всеобщая акция, которая привела к печально известным побегам из тюрьмы, таким как DAN (Do Anything Now). DAN включал в себя набор, казалось бы, безобидных инструкций, которые заставляли чат-бота делать все, что его просят, не отказываясь. Поразительно, но тогда эти грубые уловки сработали.

Однако те дикие первые дни уже в прошлом. Эти базовые подсказки и дешевые трюки больше не обманывают ChatGPT. Для взлома теперь требуются сложные методы, чтобы иметь возможность обойти теперь надежные меры защиты OpenAI. Поскольку взлом джейлбрейка становится настолько сложным, большинство пользователей слишком разочаровываются, чтобы попытаться это сделать. Простые и широко открытые возможности первых дней ChatGPT ушли в прошлое. Чтобы заставить чат-бота сказать одно неправильное слово, теперь требуются значительные усилия и опыт, которые могут не стоить затраченных времени и усилий.

4. Новизна устарела.

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don\'t Work

Движущей силой попыток многих пользователей сделать джейлбрейк ChatGPT были острые ощущения и волнение от этого в первые дни. Поскольку это новая технология, заставить ChatGPT плохо себя вести было забавно и заслуживало похвалы. Хотя существует бесчисленное множество практических применений джейлбрейка ChatGPT, многие использовали его ради призыва «вау, посмотри, что я сделал». Однако постепенно ажиотаж, вызванный новинкой, утих, а вместе с ним и интерес людей к побегу из тюрьмы.

5. Джейлбрейки быстро исправляются

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don\'t Work

Распространенной практикой в ​​сообществе джейлбрейков ChatGPT является обмен информацией обо всех успешных эксплойтах, когда они обнаружены. Проблема в том, что когда эксплойты широко распространяются, OpenAI часто узнает о них и устраняет уязвимости. Это означает, что джейлбрейки перестают работать еще до того, как заинтересованные люди смогут их попробовать.

Итак, каждый раз, когда пользователь ChatGPT кропотливо разрабатывает новый джейлбрейк, распространение его среди сообщества ускоряет его кончину посредством установки исправлений. Это лишает стимула публиковать информацию всякий раз, когда пользователь сталкивается с джейлбрейком. Конфликт между сохранением активных, но скрытых джейлбрейков и их публичной оглаской создает дилемму для создателей джейлбрейков ChatGPT. В наши дни люди чаще всего предпочитают держать свои побеги из тюрьмы в секрете, чтобы избежать исправления лазеек.

6. Локальные альтернативы без цензуры

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don\'t Work

Рост числа моделей локального большого языка, которые можно запускать локально на своем компьютере, также снизил интерес к джейлбрейку ChatGPT. Хотя местные LLM не полностью свободны от цензуры, многие из них подвергаются значительно меньшей цензуре и могут быть легко изменены в соответствии с желаниями пользователей. Итак, выбор прост. Вы можете участвовать в бесконечной игре в кошки-мышки, пытаясь найти способ обмануть чат-бота, но вскоре его исправят. Или вы можете согласиться на местный LLM, который вы можете постоянно модифицировать, чтобы делать все, что захотите.

Вы найдете удивительно длинный список мощных LLM без цензуры, которые вы можете развернуть на своем компьютере со слабой цензурой. Некоторые известные из них: Llama 7B (без цензуры), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B и GPT-4-X-Alpaca.

7. Профессиональные программы для взлома теперь продаются с целью получения прибыли.

Why Are There No More ChatGPT Jailbreaks? 7 Reasons ChatGPT Jailbreaks Don\'t Work

Зачем тратить драгоценное время на разработку инструкций по джейлбрейку, если вы ничего от этого не получите? Что ж, некоторые профессионалы теперь продают джейлбрейки с целью получения прибыли. Эти профессиональные создатели джейлбрейков разрабатывают джейлбрейки, выполняющие конкретные задачи, и выставляют их на продажу на таких быстрых торговых площадках, как PromptBase. В зависимости от их возможностей, эти инструкции по джейлбрейку могут продаваться по цене от 2 до 15 долларов за штуку. Некоторые сложные многоэтапные эксплойты могут стоить значительно дороже.

Могут ли меры по борьбе с джейлбрейками иметь неприятные последствия?

Джейлбрейки еще не полностью сошли со сцены; они просто ушли под землю. Поскольку OpenAI монетизирует ChatGPT, у них появляются более сильные стимулы для ограничения вредного использования, которое может повлиять на их бизнес-модель. Этот коммерческий фактор, вероятно, влияет на их агрессивное стремление бороться с эксплойтами для взлома.

Однако цензура ChatGPT со стороны OpenAI в настоящее время сталкивается с растущей критикой среди пользователей. Некоторые законные варианты использования чат-бота с искусственным интеллектом больше невозможны из-за строгой цензуры. Хотя повышенная безопасность защищает от вредоносных случаев использования, чрезмерные ограничения могут в конечном итоге подтолкнуть часть сообщества ChatGPT к менее подвергаемым цензуре альтернативам.

Заявление о выпуске Эта статья воспроизведена по адресу: https://www.makeuseof.com/no-more-chatgpt-jailbreaks-reasons-chatgpt-jailbreaks-dont-work/. Если есть какие-либо нарушения, пожалуйста, свяжитесь с [email protected], чтобы удалить ее.
Последний учебник Более>

Изучайте китайский

Отказ от ответственности: Все предоставленные ресурсы частично взяты из Интернета. В случае нарушения ваших авторских прав или других прав и интересов, пожалуйста, объясните подробные причины и предоставьте доказательства авторских прав или прав и интересов, а затем отправьте их по электронной почте: [email protected]. Мы сделаем это за вас как можно скорее.

Copyright© 2022 湘ICP备2022001581号-3