3 Chatbot adatvédelmi kockázatok és aggályok, amelyekről tudnia kell

3 Chatbot adatvédelmi kockázatok és aggályok, amelyekről tudnia kell
A hozzád hasonló olvasók támogatják a MUO-t. Amikor a webhelyünkön található linkek használatával vásárol, társult jutalékot kaphatunk. Olvass tovább.   Egy lakat a billentyűzet billentyűivel szétszórva

A chatbotok évek óta léteznek, de a nagy nyelvi modellek, például a ChatGPT és a Google Bard térnyerése új életet adott a chatbot-iparnak.





Ma már emberek milliói használnak mesterséges intelligencia csevegőbotokat világszerte, de van néhány fontos adatvédelmi kockázat és aggály, amelyet szem előtt kell tartani, ha ki akarja próbálni az egyik ilyen eszközt.





1. Adatgyűjtés

A legtöbb ember nem csak azért használja a chatbotokat, hogy köszönjön. A modern chatbotokat összetett kérdések és kérések feldolgozására és megválaszolására tervezték, a felhasználók gyakran sok információt tartalmaznak a felszólításukban. Még akkor sem, ha csak egy egyszerű kérdést tesz fel, nem akarja, hogy ez túlmutasson a beszélgetésen.





Alapján Az OpenAI támogatási szakasza , bármikor törölheti a ChatGPT csevegési naplóit, és ezek a naplók 30 nap elteltével véglegesen törlődnek az OpenAI rendszereiből. A vállalat azonban megőriz és felülvizsgál bizonyos csevegési naplókat, ha azokat káros vagy nem megfelelő tartalom miatt jelölték meg.

Egy másik népszerű AI chatbot, Claude is nyomon követi korábbi beszélgetéseit. Anthropic támogatási központja kijelenti, hogy Claude nyomon követi 'az Ön felszólításait és kimeneteit a termékben, hogy az Ön vezérlőinek megfelelően állandó termékélményt biztosítson Önnek.' Törölheti a Claude-dal folytatott beszélgetéseit, így elfelejti, amiről beszélt, de ez nem jelenti azt, hogy az Anthropic azonnal törli a naplóit a rendszeréből.



Ez persze felveti a kérdést: megőrzik az adataimat vagy sem? A ChatGPT vagy más chatbotok használják az adataimat?

De az aggodalmak itt nem érnek véget.





Hogyan tanul a ChatGPT?

Az információszolgáltatás érdekében nagy nyelvi modelleket képeznek hatalmas mennyiségű adattal. Alapján Science Focus , a ChatGPT-4 önmagában 300 milliárd szónyi információt kapott a képzési időszaka alatt. Ez nem néhány enciklopédiából származik. A chatbot-fejlesztők inkább az internetről származó információk tömegeit használják fel modelljeik képzésére. Ez magában foglalhat könyveket, filmeket, cikkeket, Wikipédia-bejegyzéseket, blogbejegyzéseket, megjegyzéseket és még véleményeket tartalmazó webhelyeket is.

Ne feledje, hogy a chatbot fejlesztőinek adatvédelmi szabályzatától függően előfordulhat, hogy a fent említett források némelyike ​​nem használható a képzés során.





Sokan kritizálták a ChatGPT-t, azt állítva, hogy ez valami rémálom a magánélet szempontjából A ChatGPT-ben nem lehet megbízni . Szóval miért van ez így?

Itt a dolgok kissé elmosódnak. Ha közvetlenül megkérdezi a ChatGPT-3.5-től, hogy hozzáfér-e a termékértékelésekhez vagy a cikkhez fűzött megjegyzésekhez, határozott negatívumot fog kapni. Amint az alábbi képernyőképen látható, a GPT-3.5 azt állítja, hogy a képzés során nem kapott hozzáférést a felhasználói cikkekhez fűzött megjegyzésekhez vagy termékértékelésekhez.

  képernyőkép a chatgpt-3.5 beszélgetésről

Ehelyett „az internetről származó szövegek széles skálájával, beleértve a webhelyeket, könyveket, cikkeket és más nyilvánosan elérhető írásos anyagokat 2021 szeptemberéig” képezték ki.

De ugyanez a helyzet a GPT-4 esetében is?

Amikor megkérdeztük a GPT-4-et, azt mondták nekünk, hogy 'az OpenAI nem használt konkrét felhasználói véleményeket, személyes adatokat vagy cikkhez fűzött megjegyzéseket' a chatbot képzési időszakában. Ezen túlmenően a GPT-4 azt mondta nekünk, hogy a válaszokat 'az adatok mintáiból generálják, amelyekre [a] betanították, és amelyek elsősorban könyvekből, cikkekből és más, az internetről származó szövegekből állnak.'

Amikor tovább vizsgáltuk, a GPT-4 azt állította, hogy bizonyos közösségi média tartalmak valóban szerepelhetnek a képzési adataiban, de az alkotók mindig névtelenek maradnak. A GPT-4 kifejezetten kijelentette, hogy 'Még ha a Reddithez hasonló platformokról származó tartalom is része volt a képzési adatoknak, [nincs] hozzáférése konkrét megjegyzésekhez, bejegyzésekhez vagy bármely olyan adathoz, amelyet vissza lehet kapcsolni egy adott felhasználóhoz.'

A GPT-4 válaszának egy másik figyelemreméltó része a következő: „Az OpenAI nem sorolt ​​fel kifejezetten minden felhasznált adatforrást”. Természetesen az OpenAI számára nehéz lenne 300 milliárd szónyi forrást felsorolni, de ez teret hagy a találgatásoknak.

Egy Ars Technica cikk , azt állították, hogy a ChatGPT gyűjti a „beleegyezés nélkül szerzett személyes adatokat”. Ugyanebben a cikkben megemlítették a kontextuális integritást, ez a fogalom arra utal, hogy valakinek az információit csak abban a kontextusban használjuk fel, amelyet eredetileg használtak. Ha a ChatGPT megsérti ezt a kontextuális integritást, az emberek adatai veszélybe kerülhetnek.

A másik aggodalomra ad okot, hogy az OpenAI megfelel-e a Általános adatvédelmi rendelet (GDPR) . Ez az Európai Unió által az állampolgárok adatainak védelme érdekében érvényesített szabályozás. Számos európai ország, köztük Olaszország és Lengyelország, vizsgálatot indított a ChatGPT-vel kapcsolatban a GDPR-megfelelőséggel kapcsolatos aggályok miatt. Egy rövid időre a ChatGPT-t még Olaszországban is betiltották adatvédelmi aggodalmak miatt.

Az OpenAI korábban azzal fenyegetőzött, hogy kilép az EU-ból a mesterséges intelligencia tervezett szabályozása miatt, de ezt azóta visszavonták.

hogyan lehet visszaszerezni a pattanássorozatot

Lehet, hogy a ChatGPT ma a legnagyobb mesterséges intelligencia chatbot, de a chatbot adatvédelmi problémái nem ennél a szolgáltatónál kezdődnek és végződnek. Ha egy homályos csevegőbotot használ, amelynek hiányos adatvédelmi szabályzata van, akkor előfordulhat, hogy visszaélnek beszélgetéseivel, vagy nagyon érzékeny információkat használnak fel a képzési adatokban.

2. Adatlopás

Mint minden online eszköz vagy platform, a chatbotok is sebezhetőek a kiberbűnözéssel szemben. Még ha egy chatbot mindent meg is tett a felhasználók és adataik védelmében, mindig fennáll annak a lehetősége, hogy egy hozzáértő hacker behatol a belső rendszereibe.

Ha egy adott chatbot-szolgáltatás tárolja az Ön bizalmas adatait, például a prémium előfizetés fizetési adatait, kapcsolatfelvételi adatait vagy hasonlókat, akkor ezeket ellophatják és kihasználhatják, ha kibertámadás történik.

Ez különösen igaz, ha kevésbé biztonságos chatbotot használ, amelynek fejlesztői nem fektettek be megfelelő biztonsági védelembe. Nemcsak a vállalat belső rendszereit lehet feltörni, de a saját fiókod is fennáll annak az esélye, hogy feltörik, ha nem rendelkezik bejelentkezési figyelmeztetéssel vagy hitelesítési réteggel.

Most, hogy az AI chatbotok annyira népszerűek, a kiberbűnözők természetesen özönlöttek arra, hogy ezt az iparágat használják átveréseikre. A hamis ChatGPT-webhelyek és beépülő modulok komoly problémát jelentenek, mióta az OpenAI chatbotja 2022 végén a fősodorba került, amikor az emberek átverésekbe estek, és személyes adatokat adnak ki a legitimitás és a bizalom leple alatt.

2023 márciusában a MUO beszámolt egy hamis ChatGPT Chrome-bővítmény, amely ellopja a Facebook-bejelentkezéseket . A beépülő modul kihasználhatja a Facebook hátsó ajtóját nagy horderejű fiókok feltörésére és felhasználói cookie-k ellopására. Ez csak egy példa a számos hamis ChatGPT-szolgáltatásra, amelyek célja az áldozatok megtévesztése.

3. Malware fertőzés

Ha egy árnyékos chatbotot használ anélkül, hogy észrevenné, előfordulhat, hogy a chatbot rosszindulatú webhelyekre mutató hivatkozásokat kínál. Lehet, hogy a chatbot figyelmeztetett egy csábító ajándékra, vagy forrást adott valamelyik kijelentéséhez. Ha a szolgáltatás üzemeltetőinek tiltott szándékaik vannak, akkor a platform teljes célja a rosszindulatú programok és csalások rosszindulatú hivatkozásokon keresztül történő terjesztése lehet.

Alternatív megoldásként a hackerek feltörhetnek egy legitim chatbot szolgáltatást, és rosszindulatú programok terjesztésére használhatják fel. Ha ez a chatbot történetesen nagyon emberek, akkor több ezer, vagy akár több millió felhasználó lesz kitéve ennek a rosszindulatú programnak. A hamis ChatGPT alkalmazások még az Apple App Store-ban is megtalálhatók , ezért a legjobb óvatosan lépkedni.

Általában soha ne kattints a chatbot által korábban biztosított hivatkozásokra futtatni egy linkellenőrző webhelyen keresztül . Ez bosszantónak tűnhet, de mindig a legjobb, ha megbizonyosodik arról, hogy a webhely, amelyre átvezetnek, nem rosszindulatú.

Ezenkívül soha ne telepítsen chatbot-bővítményeket és bővítményeket anélkül, hogy először ellenőrizné azok legitimitását. Kutasson egy kicsit az alkalmazás körül, hogy megbizonyosodjon arról, hogy jól felülvizsgálták-e, és keressen rá az alkalmazás fejlesztőjére is, hogy lássa, nem talál-e valami rosszat.

A chatbotok nem érintik az adatvédelmi problémákat

A legtöbb online eszközhöz hasonlóan manapság a chatbotokat is többször kritizálták esetleges biztonsági és adatvédelmi buktatóik miatt. Legyen szó akár egy chatbot-szolgáltatóról, aki a felhasználók biztonsága terén élen jár, akár a kibertámadások és csalások folyamatos kockázatairól van szó, kulcsfontosságú, hogy tudja, mit gyűjt a chatbot-szolgáltatása Önről, és hogy megfelelő biztonsági intézkedéseket alkalmaz-e.