Amit az Apple gyermekbiztonsági védelmeiről tudni kell

Amit az Apple gyermekbiztonsági védelmeiről tudni kell

Az Apple nemrégiben bejelentette új gyermekbiztonsági védelmeit, amelyek ősszel érkeznek az iOS 15, az iPadOS 15 és a macOS Monterey bevezetésével.





Az alábbiakban közelebbről megvizsgáljuk ezeket a kibővített gyermekbiztonsági funkciókat és a mögöttük álló technológiát.





Gyermekek szexuális zaklatásának anyagvizsgálata

A legjelentősebb változás az, hogy az Apple új technológiát fog használni az iCloud Fotókban tárolt, gyermekbántalmazást ábrázoló képek észlelésére.





Ezeket a képeket gyermeki szexuális bántalmazási anyagnak vagy CSAM -nak nevezik, és az Apple jelentést készít ezekről az eltűnt és kizsákmányolt gyermekek nemzeti központjának. Az NCMEC a CSAM jelentéskészítő központja, és együttműködik a bűnüldöző szervekkel.

Az Apple CSAM -szkennelése az Egyesült Államokra korlátozódik az induláskor.



találtam egy iphone -t, hogyan tudom feloldani

Az Apple szerint a rendszer titkosítást használ, és a magánélet szem előtt tartásával készült. A képeket az eszközön szkenneli, mielőtt feltöltené őket az iCloud Fotókba.

Az Apple szerint nem kell attól tartania, hogy az Apple alkalmazottai látják a tényleges fotóit. Ehelyett az NCMEC biztosítja az Apple számára a CSAM -képek kivonatát. A kivonat képet készít, és hosszú, egyedi betű- és számláncot ad vissza.





Az Apple felveszi ezeket a kivonatokat, és az adatokat olvashatatlan olvasási készletké alakítja át, amelyek biztonságosan tárolódnak az eszközön.

Kapcsolódó: Hogyan védi az iOS 15 jobban az iPhone adatvédelmét, mint valaha





Mielőtt a képet szinkronizálná az iCloud Photos -szal, ellenőrizni kell a CSAM -képekkel. Egy speciális kriptográfiai technológiával - privát halmaz metszésponttal - a rendszer az eredmény felfedése nélkül határozza meg, hogy van -e egyezés.

Ha van egyezés, akkor egy eszköz létrehoz egy titkosítási biztonsági utalványt, amely kódolja az egyezést, valamint a képre vonatkozó több titkosított adatot. Az utalványt a képpel együtt töltik fel az iCloud Photos szolgáltatásba.

Hacsak egy iCloud Photos -fiók nem lépi át a CSAM -tartalom meghatározott küszöbét, a rendszer biztosítja, hogy a biztonsági utalványokat az Apple ne tudja elolvasni. Ez a titkos megosztásnak nevezett kriptográfiai technológiának köszönhető.

Az Apple szerint az ismeretlen küszöb nagy pontosságot biztosít, és kevesebb mint egy ezermilliárd esélyt biztosít a fiók helytelen megjelölésére.

A küszöb túllépésekor a technológia lehetővé teszi az Apple számára, hogy értelmezze az utalványokat és a hozzájuk tartozó CSAM -képeket. Az Apple ezután manuálisan megvizsgálja az összes jelentést, hogy megerősítse az egyezést. Ha megerősítik, az Apple letiltja a felhasználó fiókját, majd jelentést küld az NCMEC -nek.

Fellebbezési eljárás folyik a visszaállítás érdekében, ha a felhasználó úgy érzi, hogy a technológia tévesen megjelölte a fiókját.

Ha adatvédelmi aggályai vannak az új rendszerrel kapcsolatban, az Apple megerősítette, hogy az iCloud Fotók letiltása után egyetlen fénykép sem lesz szkennelve a kriptográfiai technológiával. Ezt megteheti a címen Beállítások> [Az Ön neve]> iCloud> Fotók .

Az iCloud Fotók kikapcsolásakor van néhány hátránya. Az összes fénykép és videó a készüléken tárolódik. Ez problémákat okozhat, ha sok képe és videója van, és egy régebbi iPhone, korlátozott tárhellyel.

Ezenkívül az eszközön rögzített fényképek és videók nem lesznek elérhetők más iCloud -fiókot használó Apple -eszközökön.

Összefüggő: Az iCloud -fotók elérése

Az Apple bővebben kifejti a CSAM -észlelésben használt technológiát a fehér papír PDF . Olvashat egy Apple GYIK további információkkal a rendszerről.

A GYIK -ban az Apple megjegyzi, hogy a CSAM -észlelési rendszer nem használható a CSAM -on kívül más kimutatására. A cég azt is elmondja, hogy az Egyesült Államokban és sok más országban a CSAM -képek birtoklása bűncselekmény, és az Apple köteles tájékoztatni a hatóságokat.

A vállalat azt is közli, hogy elutasítja a kormány azon követeléseit, amelyek szerint nem CSAM-képeket kell hozzáadni a hash listához. Ez azt is megmagyarázza, hogy a nem CSAM képeket miért nem tudta harmadik fél hozzáadni a rendszerhez.

Az emberi felülvizsgálat és az a tény miatt, hogy a használt kivonatok ismert és meglévő CSAM -képekből származnak, az Apple azt mondja, hogy a rendszert úgy tervezték, hogy pontos legyen, és elkerülje az egyéb képekkel vagy ártatlan felhasználókkal kapcsolatos problémák jelentését az NCMEC számára.

hogyan lehet internetet szerezni laptopon bárhol

További kommunikációs biztonsági protokoll az üzenetekben

Egy másik új funkció lesz a biztonsági protokollok hozzáadása az Üzenetek alkalmazásban. Ez olyan eszközöket kínál, amelyek figyelmeztetik a gyerekeket és szüleiket, amikor szexuális jellegű fényképeket tartalmazó üzeneteket küldenek vagy fogadnak.

Amikor az üzenetek egyike megérkezik, a fénykép elmosódik, és a gyermeket is figyelmezteti. Láthatják a hasznos forrásokat, és azt mondják nekik, hogy rendben van, ha nem nézik meg a képet.

Ez a funkció csak az iCloudban családként beállított fiókokhoz használható. A szülőknek vagy gondviselőknek engedélyezniük kell a kommunikáció biztonsági funkciójának engedélyezését. Azt is választhatják, hogy értesítést kapnak, ha egy 12 éves vagy annál fiatalabb gyermek szexuális jellegű képet küld vagy kap.

A 13-17 éves gyermekek esetében a szülőket nem értesítik. De a gyermeket figyelmeztetik, és megkérdezik, hogy szexuális jellegű képet szeretne -e megtekinteni vagy megosztani.

Kapcsolódó: Hogyan használja az iOS 15 az intelligenciát, hogy okosabbá tegye iPhone -ját, mint valaha

A Messages az eszközön végzett gépi tanulást használja annak megállapítására, hogy a melléklet vagy kép szexuális jellegű. Az Apple nem kap hozzáférést az üzenetekhez vagy a képtartalomhoz.

A funkció normál SMS- és iMessage -üzenetek esetén is működik, és nem kapcsolódik a fent részletezett CSAM -szkennelési funkcióhoz.

Végül az Apple kibővíti a Siri és a Search funkciók útmutatását, hogy segítse a gyerekeket és a szülőket az online biztonság megőrzésében, és segítséget kapjon a nem biztonságos helyzetekben. Az Apple rámutatott egy példára, ahol azok a felhasználók, akik megkérdezik a Siri -t, hogyan jelenthetik be a CSAM -ot vagy a gyermekek kizsákmányolását, forrásokat kapnak arról, hogyan kell bejelentést tenni a hatóságoknak.

Frissítések érkeznek a Siri és a Search szolgáltatásba, ha bárki végrehajtja a CSAM -hoz kapcsolódó keresési lekérdezéseket. Egy beavatkozás elmagyarázza a felhasználóknak, hogy a téma iránti érdeklődés káros és problémás. Emellett erőforrásokat és partnereket is megmutatnak, hogy segítsenek a probléma megoldásában.

További változások az Apple legújabb szoftverével

A biztonsági szakértőkkel közösen kifejlesztett három új Apple -funkció célja, hogy segítse a gyermekek biztonságát az interneten. Annak ellenére, hogy a funkciók aggodalomra adhatnak okot bizonyos adatvédelemre összpontosító körökben, az Apple közölte a technológiát és azt, hogy hogyan fogja kiegyensúlyozni az adatvédelmi aggályokat a gyermekvédelemmel.

Részvény Részvény Csipog Email 15 rejtett funkció az iOS 15 és az iPadOS 15 rendszerekben, amelyeket az Apple nem említett a WWDC -n

Már hallott az iOS 15 főbb változásairól, de itt vannak az Apple által a WWDC -ből kimaradt rejtett módosítások.

Olvassa tovább
Kapcsolódó témák
  • IPhone
  • Mac
  • alma
  • Okostelefon adatvédelem
  • Nevelés és technológia
A szerzőről Brent Dirks(193 cikk megjelent)

A napsütötte Texas nyugati részén született és nőtt fel, Brent a Texas Tech Egyetemen végzett újságírói BA szakon. Több mint 5 éve ír a technológiáról, és élvezi az Apple mindent, a tartozékokat és a biztonságot.

Továbbiak a Brent Dirks -től

Iratkozzon fel hírlevelünkre

Csatlakozz hírlevelünkhöz, ahol technikai tippeket, véleményeket, ingyenes e -könyveket és exkluzív ajánlatokat találsz!

Feliratkozáshoz kattintson ide