Mi az AI-hallucináció, és hogyan lehet észrevenni?

Mi az AI-hallucináció, és hogyan lehet észrevenni?
Az Önhöz hasonló olvasók támogatják a MUO-t. Amikor a webhelyünkön található linkek használatával vásárol, társult jutalékot kaphatunk. Olvass tovább.

A mesterséges intelligencia (AI) hallucinációja zavarba ejtően hangzik. Valószínűleg arra gondol: 'A hallucináció nem emberi jelenség?' Nos, igen, ez korábban kizárólag emberi jelenség volt, amíg a mesterséges intelligencia el nem kezdett olyan emberi tulajdonságokat mutatni, mint az arcfelismerés, az öntanulás és a beszédfelismerés.





MAKEUSEOF A NAP VIDEÓJA GÖRGÖZSEN A TARTALOM FOLYTATÁSHOZ

Sajnos az AI felvett néhány negatív tulajdonságot, beleértve a hallucinációkat. Tehát a mesterséges intelligencia hallucinációja hasonlít az emberek által tapasztalt hallucinációkhoz?





hogyan lehet átvinni az alkalmazást az sd kártyára

Mi az AI hallucináció?

A mesterséges intelligencia hallucinációja akkor fordul elő, ha egy mesterséges intelligencia modell a várttól eltérő kimeneteket generál. Vegye figyelembe, hogy egyes mesterséges intelligencia modelleket arra tanítanak, hogy szándékosan olyan kimeneteket hozzanak létre, amelyek nem kapcsolódnak semmilyen valós bemenethez (adatokhoz).





Például, legjobb AI szöveg-művészet generátorok , mint például a DALL-E 2, kreatívan generálhatnak új képeket, amelyeket 'hallucinációként' jelölhetünk meg, mivel ezek nem valós adatokon alapulnak.

AI hallucináció nagy nyelvi feldolgozási modellekben

Nézzük meg, hogyan nézne ki a mesterséges intelligencia hallucinációja egy olyan nagy nyelvi feldolgozási modellben, mint a ChatGPT. A ChatGPT hallucinációja azt eredményezné, hogy a bot téves tényt közöl bizonyos állításokkal, így Ön természetesen ezeket a tényeket igazságnak tekinti.



Egyszerűen fogalmazva, ezek a mesterségesen intelligens chatbot által kitalált nyilatkozatok. Íme egy példa:

  ChatGPT's response to where Elon Musk's house is located

További kérdésre a ChatGPT ezt mutatta:





  A ChatGPT felszólítja a további lekérdezést, hogy hol van elon musk's factory is at in brazil

AI hallucináció a számítógépes látásban

Tekintsünk egy másik mesterséges intelligencia területet, amely MI hallucinációt tapasztalhat: Számítógépes látás . Az alábbi kvíz egy 4x4-es montázst mutat be két olyan egységgel, amelyek nagyon hasonlítanak egymásra. A képek BBQ burgonya chips és levelek keveréke.

A kihívás az, hogy úgy válasszuk ki a burgonya chipseket, hogy ne ütjük meg a leveleket a montázsban. Ez a kép trükkösnek tűnhet a számítógép számára, és előfordulhat, hogy nem tud különbséget tenni a BBQ burgonya chips és a levelek között.





  Egy 4x4-es montázs BBQ burgonya chipsből és levelekből

Íme egy újabb montázs uszkár és sertésselyem zsemle képekkel. A számítógép nagy valószínűséggel nem tud különbséget tenni közöttük, ezért keveri a képeket.

  4x4-es montázs uszkárból és sertésselyemből készült zsemle

Miért fordul elő AI hallucináció?

A mesterséges intelligencia hallucinációja ellentétes példák miatt fordulhat elő – olyan bemeneti adatok, amelyek megtévesztik az AI-alkalmazást, hogy rosszul osztályozza őket. Például az AI-alkalmazások betanítása során a fejlesztők adatokat (kép, szöveg vagy egyebek) használnak fel; ha az adatok megváltoznak vagy torzulnak, az alkalmazás másként értelmezi a bemenetet, rossz kimenetet adva.

Ezzel szemben az ember a torzulások ellenére is képes pontosan felismerni és azonosítani az adatokat. Ezt józan észnek nevezhetjük – olyan emberi tulajdonság, amellyel a mesterséges intelligencia még nem rendelkezik. Nézze meg, hogyan bolondítják meg az AI-t ellenséges példákkal ebben a videóban:

Ami a nagy nyelvi alapú modelleket illeti, mint pl A ChatGPT és alternatívái , hallucinációk származhatnak a transzformátor pontatlan dekódolásából (gépi tanulási modell).

Az AI-ban a transzformátor egy mély tanulási modell, amely az önfigyelmet (a mondatban lévő szavak közötti szemantikai kapcsolatokat) használja, hogy olyan szöveget állítson elő, amely hasonló ahhoz, amit az ember írna egy kódoló-dekódoló (bemenet-kimenet) szekvenciával.

Tehát a transzformátorok, egy félig felügyelt gépi tanulási modell, új szövegrészt (kimenetet) állíthatnak elő a betanításában (bemenetben) használt nagy szövegadat-korpuszból. Ezt úgy teszi, hogy az előző szavak alapján megjósolja a sorozat következő szavát.

Ami a hallucinációt illeti, ha egy nyelvi modellt elégtelen és pontatlan adatokra és erőforrásokra képeztek ki, akkor a kimenet várhatóan kitalált és pontatlan lesz. A nyelvi modell létrehozhat egy történetet vagy narratívát logikai következetlenségek vagy tisztázatlan összefüggések nélkül.

Az alábbi példában a ChatGPT-t arra kérték, hogy adjon meg egy „revolt” szóhoz hasonló szót, és „b”-vel kezdődik. Íme a válasza:

  Képernyőkép arról, hogy a ChatGPT rossz választ ad egy kérdésre

A további vizsgálódások során folyamatosan rossz válaszokat adott, nagy magabiztossággal.

  Képernyőkép arról, hogy a ChatGPT több rossz választ ad egy kérdésre

Tehát miért nem tud a ChatGPT pontos választ adni ezekre a kérdésekre?

Előfordulhat, hogy a nyelvi modell nincs felszerelve az ehhez hasonló meglehetősen összetett promptok kezelésére, vagy nem tudja pontosan értelmezni a promptot, figyelmen kívül hagyva azt a felszólítást, amely egy adott ábécével rendelkező hasonló szót ad.

Hogyan lehet felismerni az AI-hallucinációt?

Ma már nyilvánvaló, hogy az AI-alkalmazások képesek hallucinálni – máskülönben a várt kimenetből (tény vagy igazság) reagálni, rosszindulatú szándék nélkül. A mesterséges intelligencia hallucinációinak észlelése és felismerése pedig az ilyen alkalmazások felhasználóin múlik.

Íme néhány módszer a mesterséges intelligencia hallucinációinak észlelésére gyakori AI-alkalmazások használata közben:

1. Nagy nyelvi feldolgozási modellek

  A képen a Bing Chat és a ChatGPT látható a nyilas sigsn-en

Bár ritka, ha nyelvtani hibát észlel egy nagy feldolgozási modell, például a ChatGPT által előállított tartalomban, az felhúzza a szemöldökét, és hallucinációra gyanakszik. Hasonlóképpen, ha a szöveges tartalom nem hangzik logikusan, nem korrelál a megadott kontextussal, vagy nem egyezik a bemeneti adatokkal, hallucinációra kell gyanakodnia.

hogyan lehet megváltoztatni az ip címet a Mac rendszeren

Az emberi ítélőképesség vagy a józan ész használata segíthet észlelni a hallucinációkat, mivel az emberek könnyen felismerik, ha egy szövegnek nincs értelme, vagy nem követi a valóságot.

2. Számítógépes látás

  Kép áramkörről és emberi fejről

A mesterséges intelligencia, a gépi tanulás és a számítástechnika ágaként a számítógépes látás képessé teszi a számítógépeket a képek felismerésére és feldolgozására, mint az emberi szem. Használata konvolúciós neurális hálózatok , az edzésük során felhasznált hihetetlen mennyiségű vizuális adatra támaszkodnak.

Az edzés során használt vizuális adatok mintáitól való eltérés hallucinációkat eredményez. Például, ha egy számítógépet nem teniszlabda képeivel edzettek, akkor zöld narancsként azonosíthatja. Vagy ha a számítógép felismeri a lovat egy emberi szobor mellett, mint egy lovat egy valódi ember mellett, akkor mesterséges intelligencia hallucináció történt.

Tehát a számítógépes látás hallucinációjának észleléséhez hasonlítsa össze a generált kimenetet azzal, amit egy [normál] ember látni fog.

3. Önvezető autók

  Ford Blue Cruise 2
Kép jóváírása: Ford

Az AI-nak köszönhetően az önvezető autók fokozatosan beszivárognak az autópiacra. Az olyan úttörők, mint a Tesla Autopilot és a Ford BlueCruise, szorgalmazzák az önvezető autók színterét. Ki lehet nézni hogyan és mit lát a Tesla Autopilot hogy egy kicsit megértsék, hogyan vezérli az AI az önvezető autókat.

Ha van ilyen autója, tudnia kell, hogy az AI autója hallucinál-e. Az egyik jel az lesz, ha úgy tűnik, hogy járműve vezetés közben eltér a szokásos viselkedési mintáitól. Például, ha a jármű minden nyilvánvaló ok nélkül hirtelen fékez vagy kanyarodik, a mesterséges intelligencia járműve hallucinálhat.

Az AI rendszerek is hallucinálhatnak

Az emberek és a mesterséges intelligencia modellek eltérően élik meg a hallucinációkat. A mesterséges intelligencia esetében a hallucinációk olyan hibás kimenetekre utalnak, amelyek mérföldekre vannak egymástól a valóságtól, vagy nincs értelme az adott prompt kontextusában. Például egy mesterséges intelligencia csevegőbotja nyelvtanilag vagy logikailag helytelen választ adhat, vagy tévesen azonosíthat egy objektumot zaj vagy más szerkezeti tényezők miatt.

A mesterséges intelligencia hallucinációi nem tudatos vagy tudatalatti elméből származnak, ahogyan azt az embereknél megfigyelnéd. Inkább az AI-rendszer betanítása és programozása során használt adatok elégtelenségéből vagy elégtelenségéből adódik.