5 ok, amiért nem szabad megbíznia a ChatGPT-ben az orvosi tanácsért

5 ok, amiért nem szabad megbíznia a ChatGPT-ben az orvosi tanácsért
Az Önhöz hasonló olvasók támogatják a MUO-t. Amikor a webhelyünkön található linkek használatával vásárol, társult jutalékot kaphatunk. Olvass tovább.

A ChatGPT – az OpenAI által kifejlesztett mesterséges intelligencia (AI) csevegőbot – egy mindent az egyben eszközzé vált számos egyszerű és nehéz kérdés megválaszolására, beleértve az orvosi tanácskéréseket is. Megválaszolhatja az orvosi kérdéseket, és teljesítheti az Egyesült Államok orvosi engedélyezési vizsgáját (USMLE), de nem helyettesítheti a kórházi orvosi találkozót.





MAKEUSEOF A NAP VIDEÓJA GÖRGÖZSEN A TARTALOM FOLYTATÁSHOZ

A ChatGPT előrehaladtával képes teljesen átalakítani az egészségügyi szektort. Az egészségügyi rendszerekkel integrálva javíthatja a betegek ellátáshoz való hozzáférését és javíthatja az orvosok munkájának hatékonyságát. Mivel azonban mesterséges intelligencia-alapú, számos aggodalomra ad okot potenciális veszélyei.





1. A ChatGPT korlátozott ismeretekkel rendelkezik

  Disznó-szív

A ChatGPT nem tud mindent. Az OpenAI szerint a ChatGPT korlátozott ismeretekkel rendelkezik, különösen ami a 2021 szeptembere után történteket illeti.





A ChatGPT-nek nincs közvetlen hozzáférése a keresőmotorokhoz vagy az internethez. Számos forrásból, köztük könyvekből, webhelyekről és egyéb szövegekből származó hatalmas mennyiségű szöveges adat felhasználásával képezték ki. Nem 'tudja' az általa szolgáltatott adatokat. Ehelyett a ChatGPT az elolvasott szöveget használja fel arra, hogy előrejelzéseket készítsen a használandó szavakról és azok sorrendjéről.

Ezért nem tud aktuális híreket kapni az orvostudományi területek fejleményeiről. Igen, a ChatGPT nem tud a sertésből emberbe történő szívátültetésről vagy bármely más, az orvostudomány legutóbbi áttöréséről.



2. A ChatGPT téves információkat szolgáltathat

A ChatGPT válaszolhat az Ön által feltett kérdésekre, de a válaszok pontatlanok vagy elfogultak lehetnek. szerint a PLoS Digital Health A ChatGPT legalább 50%-os pontossággal végzett az összes USMLE vizsgálat során. És bár bizonyos szempontból átlépte a 60%-os áthaladási küszöböt, még mindig fennáll a hiba lehetősége.

Ezenkívül a ChatGPT betanításához felhasznált információk nem mindegyike hiteles. Az ellenőrizetlen vagy potenciálisan elfogult információkon alapuló válaszok helytelenek vagy elavultak lehetnek. Az orvostudomány világában a pontatlan információk akár egy életbe is kerülhetnek.





Mivel a ChatGPT nem tud önállóan kutatni vagy ellenőrizni az anyagokat, nem tud különbséget tenni tény és fikció között. A tekintélyes orvosi folyóiratok, köztük a Journal of the American Medical Association (JAMA) szigorú előírásokat állítottak fel, hogy csak emberek írhatnak a folyóiratban megjelent tudományos tanulmányokat. Ennek eredményeként folyamatosan ellenőriznie kell a ChatGPT válaszait .

3. A ChatGPT nem vizsgálja meg fizikailag

Az orvosi diagnózis nem csak a tünetektől függ. Az orvosok betekintést nyerhetnek a betegség mintázatába és súlyosságába a páciens fizikális vizsgálata révén. A betegek diagnosztizálására az orvosok manapság mind az orvosi technológiákat, mind az öt érzékszervet használják.





A ChatGPT nem tud teljes virtuális ellenőrzést vagy akár fizikális vizsgálatot végrehajtani; csak az Ön által üzenetként megadott tünetekre tud válaszolni. A páciens biztonsága és gondozása érdekében a fizikális vizsgálat során elkövetett hibák – vagy a fizikális vizsgálat teljes figyelmen kívül hagyása – károsak lehetnek. Mivel a ChatGPT nem vizsgálta meg Önt fizikailag, helytelen diagnózist fog felállítani.

hogyan lehet a Windows 10 -et Windows XP -re hasonlítani

4. A ChatGPT hamis információkat szolgáltathat

  ChatGPT hamis válasz

Egy friss tanulmány a Maryland Egyetem Orvostudományi Kara A ChatGPT emlőrákszűréssel kapcsolatos tanácsa a következő eredményeket találta:

'Tapasztalataink szerint a ChatGPT néha hamis folyóiratcikkeket vagy egészségügyi konzorciumokat alkot állításainak alátámasztására.' – Paul Yi M.D., a diagnosztikai radiológia és a nukleáris medicina adjunktusa az UMSOM-nál

A ChatGPT tesztelésének részeként egy listát kértünk a nem fikciós könyvekről, amelyek a tudatalatti témáját fedik le. Ennek eredményeként a ChatGPT készített egy hamis könyvet 'A tudattalan elme ereje' címmel Dr. Gustav Kuhntól.

Amikor a könyvről érdeklődtünk, azt válaszolta, hogy ez egy 'hipotetikus' könyv, amit ő készített. A ChatGPT nem fogja megmondani, ha egy folyóiratcikk vagy könyv hamis, ha nem érdeklődik tovább.

5. A ChatGPT csak egy AI nyelvi modell

  ChatGPT Medical

A nyelvi modellek a szöveg memorizálásával és általánosításával működnek, nem pedig a páciens állapotának vizsgálatával vagy tanulmányozásával. Annak ellenére, hogy olyan válaszokat generált, amelyek megfelelnek az emberi normáknak nyelvi és nyelvtani szempontból, A ChatGPT továbbra is számos problémát tartalmaz , hasonlóan más AI-botokhoz.

A ChatGPT nem helyettesíti orvosát

Mindig szükség lesz humán orvosokra, hogy meghozzák az egészségügyi döntéseket. A ChatGPT általában azt tanácsolja, hogy beszéljen engedéllyel rendelkező egészségügyi szakemberrel, amikor orvosi tanácsot kér.

A mesterséges intelligencián alapuló eszközök, mint például a ChatGPT, használhatók orvosi találkozók ütemezésére, segítséget nyújtanak a betegek kezelésében, és megőrzik egészségügyi adataikat. De ez nem helyettesítheti az orvos szakértelmét és empátiáját.

Nem szabad mesterséges intelligencia-alapú eszközre hagyatkoznia egészségének diagnosztizálásában vagy kezelésében, legyen az fizikai vagy mentális.