Miért nincs több ChatGPT Jailbreak? 7 ok, amiért a ChatGPT Jailbreakei nem működnek

Miért nincs több ChatGPT Jailbreak? 7 ok, amiért a ChatGPT Jailbreakei nem működnek
Az Önhöz hasonló olvasók támogatják a MUO-t. Amikor a webhelyünkön található linkek használatával vásárol, társult jutalékot kaphatunk. Olvass tovább.

Amikor a ChatGPT elindult, az első dolog, amit a felhasználók meg akartak tenni, az volt, hogy lebontsák a falait, és feszegessék a határait. A jailbreakként ismert ChatGPT-felhasználók hihetetlenül érdekes és néha teljesen vad eredménnyel tévesztették meg az AI-t, hogy túllépje programozásának határait.





A nap MUO videója GÖRGÖZSEN A TARTALOM FOLYTATÁSHOZ

Azóta az OpenAI megszigorította a ChatGPT-t, hogy a jailbreakeket sokkal nehezebbé tegye. De ez még nem minden; A ChatGPT jailbreakei általában kiszáradtak, ami miatt a ChatGPT-felhasználók elgondolkodnak azon, hogy működnek-e egyáltalán a jailbreakek.





Szóval hova tűntek a ChatGPT jailbreakek?





1. A ChatGPT felszólítási készségei általában javultak

  Egy férfi laptopon gépel

A ChatGPT érkezése előtt az AI-val való beszélgetés csak a kutatólaboratóriumok által birtokolt szaktudás volt. A legtöbb korai felhasználó nem rendelkezett szakértelemmel a hatékony felszólítások elkészítésében. Ez sok embert arra késztetett, hogy jailbreaket alkalmazzanak, ami egy célszerű módja annak, hogy a chatbot minimális erőfeszítéssel és felszólító készségekkel azt tegye, amit akarnak.

legjobb alkalmazások samsung galaxy karóra

Mára a táj fejlődött. A jártasság ösztönzése általános készséggé válik. Az ismételt használat során szerzett tapasztalatok és a szabadon elérhető ChatGPT felszólító útmutatókhoz való hozzáférés kombinációja révén a ChatGPT felhasználók tökéletesítették felszólító képességeiket. Ahelyett, hogy olyan megoldásokat keresnének, mint a jailbreak, a ChatGPT-felhasználók nagy része ügyesebbé vált a különböző felszólítási stratégiák használatában, hogy elérje azokat a célokat, amelyek eléréséhez korábban jailbreakre lett volna szüksége.



2. A cenzúrázatlan chatbotok felemelkedése

  cenzúrázatlan chatbotok

Ahogy a nagy technológiai cégek szigorítják a tartalommoderálást az olyan általános mesterséges intelligencia chatbotokon, mint a ChatGPT, a kisebb, profitorientált startupok kevesebb korlátozást választanak, és a cenzúramentes mesterséges intelligencia chatbotok iránti keresletre fogadnak. Egy kis kutatással több tucat mesterséges intelligencia chatbot-platformot találhat, amelyek cenzúrázatlan chatbotokat kínálnak, amelyek szinte bármire képesek, amit csak szeretnének.

mik a trófeák a snapchatben

Legyen szó krimi- és sötét humorregényekről, amelyeket a ChatGPT megtagad, vagy olyan rosszindulatú programokat ír, amelyek megtámadják az emberek számítógépeit, ezek a cenzúrázatlan csevegőrobotok ferde erkölcsi iránytűvel azt csinálnak, amit csak akar. Ha itt vannak, nincs értelme extra energiát fektetni a ChatGPT jailbreakek megírására. Bár nem feltétlenül olyan erős, mint a ChatGPT, ezek az alternatív platformok számos feladatot kényelmesen el tudnak látni. Az olyan platformok, mint a FlowGPT és az Unhinged AI néhány népszerű példa.





3. A Jailbreak Has Gotten Harder

  Kép egy lakatról a számítógépen

A ChatGPT első hónapjaiban A ChatGPT jailbreakelése olyan egyszerű volt, mint a másolás-beillesztési felszólítások online forrásokból. Néhány soros trükkös utasítással teljesen megváltoztathatja a ChatGPT személyiségét. Egyszerű utasításokkal a ChatGPT-t gonosz gazemberré változtathatja, aki megtanítja, hogyan kell bombákat készíteni, vagy egy chatbotot, amely gátlástalanul hajlandó a trágárság minden formáját használni. Ez egy mindenki számára ingyenes volt, és olyan hírhedt jailbreakeket produkált, mint a DAN (Do Anything Now). A DAN egy sor ártalmatlannak tűnő utasítást tartalmazott, amelyek arra kényszerítették a chatbotot, hogy bármit megtegyen, amit kértek tőle anélkül, hogy visszautasította volna. Megdöbbentő módon ezek a nyers trükkök akkoriban működtek.

Ezek a vad korai idők azonban már történelem. Ezek az alapvető utasítások és olcsó trükkök többé nem tévesztik meg a ChatGPT-t. A jailbreakhez most összetett technikákra van szükség ahhoz, hogy megkerülje az OpenAI immár robusztus biztosítékait. Mivel a jailbreak egyre nehezebbé válik, a legtöbb felhasználó túlságosan elbátortalanodik ahhoz, hogy megpróbálja. A ChatGPT korai napjainak egyszerű és széles körű kihasználásai eltűntek. Ahhoz, hogy a chatbot egyetlen rossz szót is kimondjon, most jelentős erőfeszítést és szakértelmet igényel, ami nem biztos, hogy megéri az időt és az erőfeszítést.





4. Az újdonság elkopott

  Érdektelen formális férfi néz egy laptop képernyőjén

Sok felhasználó ChatGPT feltörésére tett kísérletének hajtóereje a kezdeti idők izgalma és izgalma volt. Új technológiaként a ChatGPT helytelen működésére késztetése szórakoztató volt, és dicsekvés jogot szerzett. Noha számtalan gyakorlati alkalmazás létezik a ChatGPT jailbreakre, sokan keresték őket a 'hú, nézd, mit csináltam' fellebbezés miatt. Fokozatosan azonban alábbhagyott az újdonságból fakadó izgalom, és ezzel együtt az emberek érdeklődése is, hogy időt szenteljenek a jailbreaknek.

5. A Jailbreakeket gyorsan javítják

  ChatGPT jailbreak

A ChatGPT jailbreak-közösségében bevett gyakorlat az, hogy minden sikeres kizsákmányolást megosztanak, amikor felfedezik. A probléma az, hogy amikor a kihasználásokat széles körben megosztják, az OpenAI gyakran tudomást szerez ezekről, és kijavítja a sebezhetőségeket. Ez azt jelenti, hogy a jailbreakek leállnak, mielőtt az érdeklődők kipróbálhatnák őket.

Tehát minden alkalommal, amikor egy ChatGPT-felhasználó gondosan új jailbreaket fejleszt ki, azt a közösséggel megosztva, javítással felgyorsítja annak megszűnését. Ez visszatartja attól, hogy nyilvánossá váljon, amikor a felhasználó jailbreaket észlel. A jailbreak aktív, de rejtett tartása és a nyilvánosságra hozatal közötti konfliktus dilemmát okoz a ChatGPT jailbreak-alkotók számára. Manapság az emberek gyakran úgy döntenek, hogy titokban tartják a jailbreakeiket, hogy elkerüljék a kiskapuk befoltozását.

6. Cenzúrázatlan helyi alternatívák

  chatbot-alkalmazással rendelkező okostelefont tartó személy az ikonokkal körülvett nézővel szemben

A számítógépen helyileg futtatható nagy helyi nyelvi modellek térnyerése szintén visszavetette a ChatGPT jailbreakek iránti érdeklődést. Míg a helyi LLM-ek nem teljesen cenzúramentesek, sokuk lényegesen kevésbé cenzúrázott, és könnyen módosítható, hogy megfeleljen a felhasználók igényeinek. Tehát a választások egyszerűek. Belekezdhetsz a végtelen macska-egér játékba, hogy megtaláld a módját a chatbot átverésének, hogy rövidesen megjavítsd. Vagy, megelégedhet egy helyi LLM-mel véglegesen módosíthatja, hogy bármit megtegyen.

weboldal, ahol barátokkal filmeket nézhet

Meglepően hosszú listát találhat a nagy teljesítményű, cenzúrázatlan LLM-ekről, amelyeket laza cenzúrával telepíthet számítógépére. Néhány figyelemre méltó a Llama 7B (cenzúrázatlan), a Zephyr 7B Alpha, a Manticore 13B, a Vicuna 13B és a GPT-4-X-Alpaca.

7. Profi jailbreakerek most nyereségért eladók

  Öltönyös üzletemberek csoportja projektekről tárgyal

Miért áldozzon értékes időt a jailbreak-üzenetek kidolgozására, ha nem kap semmit? Nos, néhány szakember ma már jailbreakeket árul profitszerzés céljából. Ezek a professzionális jailbreak-alkotók olyan jailbreakeket terveznek, amelyek meghatározott feladatokat hajtanak végre, és listázzák azokat az azonnali piactereken, például a PromptBase-en. A képességeiktől függően ezek a jailbreak-üzenetek promptonként 2 és 15 dollár között árulhatnak. Néhány bonyolult többlépcsős kizsákmányolás lényegesen többe kerülhet.

Visszaüthet a Jailbreaks feltörése?

A jailbreakek nem hagyták el teljesen a helyszínt; most kerültek a föld alá. Az OpenAI ChatGPT bevételszerzésével erősebb ösztönzést kapnak az olyan káros felhasználások korlátozására, amelyek hatással lehetnek üzleti modelljükre. Ez a kereskedelmi tényező valószínűleg befolyásolja az agresszív törekvésüket, hogy visszaszorítsák a jailbreakelést.

A ChatGPT OpenAI általi cenzúrája azonban jelenleg egyre növekvő kritika éri a felhasználók körében. A szigorú cenzúra miatt az AI chatbot néhány jogszerű felhasználása már nem lehetséges. Míg a fokozott biztonság véd a káros használati esetekkel szemben, a túlzott korlátozások végül a ChatGPT közösség egy részét a kevésbé cenzúrázott alternatívák karjaiba taszíthatják.