IPHONE WIRD ERKANNT ABER KEINE BILDER

apologize Plan, in Verschlüsselung "anders zu denken", öffnet eine Hintertür kommen sie deinem Privatleben
*

Apple hat bevorstehende Änderungen an seinen Betriebssystemen angekündigt, das neue "Schutzfunktionen für Kinder" in iCloud und iMessage beinhalten. Wer die Krypto-Kriege wunderschönen länger verfolgt, weiß, was das bedeutet: apple plant, einer Hintertür in sein Datenspeichersystem und sein Nachrichtensystem einzubauen.

Du schaust: Iphone wird erkannt aber keine bilder

Die ausbeutung und sexuell Missbrauch von Kindern ist einen ernsthaftes Problem, und sich entschuldigen ist nicht ns erste Technologieunternehmen, ns seine haltung zum schutz der datenschutzverordnung aufgibt, ca gegen dieses Phänomen zu kämpfen. Doch diese entscheidung hat einer hohen kosten für ns allgemeine datenschutzverordnung der Nutzer*innen. Apfel kann einzelheiten erklären, zusammen seine technische expräsident die datenschutzgrundverordnung und die Sicherheit in seiner vorgeschlagenen Hintertür schutz wird, aber am Ende des Tages ist selbst eine gründlich dokumentierte, stirnrunzeln durchdachte und starr begrenzte Hintertür immer noch einer Hintertür.

SIGN ns PETITION

TELL APPLE: DON"T injektion OUR PHONES

Zu sagen, dass wir über Apples plänen enttäuscht sind, ist eine Untertreibung. Apfel ist schon seit jeher ein Verfechter ns Ende-zu-Ende-Verschlüsselung, und zwar ende denselben Gründen, ns die miyvue.com immer anderer angeführt hat. Apologize Kompromiss bei der Ende-zu-Ende-Verschlüsselung mögen Regierungsbehörden in den vereinigte staaten von amerika und im ausland besänftigen, aber es ist einer schockierende Kehrtwende zum Nutzer, ns sich an die Führungsrolle von Unternehmens bei Sachen datenschutz und Sicherheit verlassen haben.

Es zeigen zwei Hauptfunktionen, die das Unternehmen an jedes Apple-Gerät einbauen will. Die eine ist eine Scan-Funktion, die alle Fotos bei der Hochladen in iCloud Fotos darauf überprüft, ob sie mit ein Foto in der datenbanken für bekanntes Material by sexuellen kindesmissbrauch (Child sex-related Abuse Material, CSAM) übereinstimmen, das vom national Center weil das Missing & Exploited children (NCMEC) ausführen wird. Die unterschiedlich Funktion durchsucht alle iMessage-Bilder, die by Kinderkonten (d. H. Konten, die als Eigentum eines Minderjährigen gekennzeichnet sind) Übertragen oder empfangen werden, nach sexuell eindeutigem inhaltsstoff und notiz die Eltern, wenn diese bilder gesendet hagen empfangen werden. Diese Funktion kann von den eltern ein- oder schalte aus werden.

Wenn apple diese Funktionen zum "kundenseitigen Scannen" freigibt, müssen Nutzer by iCloud Photos, unerheblich Nutzer über iMessage und alle, die mit Minderjährigen by iMessage kommunizieren, deine Prioritäten an Bezug an Datenschutz und zuverlässig im kontext dieser Änderungen sorgfältig abwägen und werden möglicherweise nicht mehr in der Lage sein, das zu nutzen, was bis kommen sie dieser entwicklung einer das führenden verschlüsselten Messenger war.

Apple öffnet ns Tür zum weiteren Missbrauch

Wir haben das schon wenn gesagt und erinnern es sogar jetzt: es ist unmöglich, einen System für kundenseitige Scans kommen sie entwickeln, das zeigen für sexuell eindeutige bilder verwendet importieren kann, die über Kindern geschickt oder empfangen werden. Folglich wille selbst ein gut gemeinter Versuch, ein solches System kommen sie entwickeln, wichtige Versprechen der Messenger-Verschlüsselung selbst brechen und ns Tür weil das breiteren missbrauch öffnen.

Das ist sind nicht Ausrutscher, ns ist ein ausgereiftes System, das zeigen darauf wartet, dass von außen druck ausgeübt wird, um die kleinste Änderung vorzunehmen.

Alles, was nötig wäre, um herum die enge Hintertür, die apple baut, kommen sie erweitern, ist einer Erweiterung ns Parameter für das maschinelle Lernen, ca nach zusätzlich Arten über Inhalten kommen sie suchen. Einer einfache revision der Konfigurationskennzeichen, ca nicht nur die Konten by Kindern, sondern by jedermann kommen sie scannen, ist ebenso möglich. Das ist nein Ausrutscher, sondern ein ausgereiftes System, das nur darauf wartet, dass by außen druck ausgeübt wird, um herum die kleinste Änderung vorzunehmen.

Das beispiel Indiens zeigt dies deutlich. Die dort vor kurzem verabschiedeten Vorschriften beinhalten gefährliche Anforderungen bei Plattformen, ns Herkunft von Nachrichten kommen sie identifizieren und inhalt vorab kommen sie prüfen. Neue Gesetze bei Äthiopien, ns vorschreiben, dass Inhalte von „Fehlinformationen“ innerhalb by 24 std entfernt verstehen müssen, könnten auch für Messaging-Dienste gelten. Und viele ist anders Länder – häufig solche mit autoritären Regierungen – haben ähnliche Gesetze erlassen. Apples veränderung würden einen solches Screening, das Entfernung von Inhalten und die Berichterstattung in seinen End-to-End-Nachrichtendiensten ermöglichen. Das Missbrauchsfälle sind leicht vorstellbar: Regierungen, die Homosexualität verbieten, durfte verlangen, das der Algorithmus darauf trainiert wird, offensichtliche LGBTQ+-Inhalte einzuschränken, oder einer autoritäres Regime könnten verlangen, das der Algorithmus an der lage ist, beliebt satirische film oder Protestflugblätter zu erkennen.

Wir kennen diese schleichenden veränderungen bereits das ende der Realität. Eine der Technologien, ns ursprünglich entwickelten wurde, um bilder sexuellen Missbrauchs von Kindern zu scannen und zu vernichten, wurden umfunktioniert, ca eine datenbanken mit "terroristischen" Inhalten zu erstellen, zu der Unternehmen beigetragen und auf die sie zugreifen können, um solche Inhalte kommen sie verbieten. Das Datenbank, ns vom global Internet gericht to counter Terrorism (GIFCT) verwaltet wird, wille trotz ns Forderungen der Zivilgesellschaft aufgrund keine außen Stelle kontrolliert. Ns ist beunruhigend. Da wir wissen, das Plattformen regelmäßig kritisch Inhalte wie „Terrorismus“ kennzeichnen, darunter Dokumentationen von ausschreitungen und Unterdrückung, Beiträge by Oppositionellen, kunst und Satire.

Bild-Scans bei iCloud Fotos: einer Verlust bei Privatsphäre

Apples Plan, ns Fotos, die in iCloud hochgeladen werden, zu scannen, ähnelt bei mancher Hinsicht ns PhotoDNA by Microsoft. Ns Hauptunterschied zum Produkt besteht aus darin, dass das Scannen in Apple oben dem gerät stattfindet. Das (nicht überprüfbare) datenbanken der verarbeiteten bilder von kindesmissbrauch wird innerhalb Betriebssystem verteilt, die verarbeiteten Bilder importieren so umgewandelt, dass die Benutzer no sehen können, ca welches bild es wir handelt, und ns Abgleich erfolgt oben diesen umgewandelten bildern unter Verwendung ns privaten Schnittmenge, wobei ns Gerät nicht weiß, ob eine Übereinstimmung gegründet wurde. Das bedeutet, dass am Einführung der Funktionen eine Version ns NCMEC-CSAM-Datenbank an jedes einzelne iphone phone hochgeladen wird. Ns Ergebnis ns Abgleichs wird an Apple gesendet, aber apple kann erst nachher sagen, dass Übereinstimmungen gefunden wurden, wenn eine ausreichende nummer von bild mit ns vorgegebenen Schwellenwert übereinstimmt.

Sobald einer bestimmte nummer von Fotos entdeckt wurde, werden die fraglichen Fotos bei menschliche Prüfer bei Apple weitergeleitet, die feststellen, ob die Fotos eigentlich Teil das CSAM-Datenbank sind. Bestätigt der menschliche Prüfer dies, bekomme die Fotos in das NCMEC weitergeleitet und ns Konto des Nutzers ich werde deaktiviert. Auch hier gilt: Unabhängig über den Datenschutz- und Sicherheitsaspekten in den technischen Details werden alle in iCloud hochgeladenen bild gescannt.

Mehr sehen: Kann Man Laminat Auf Laminat Legen » Geht Das? Laminat Auf Laminat Verlegen

Derzeit besitzt sich entschuldigen zwar das Schlüssel zum zeigen der bei iCloud photos gespeicherten Fotos, scannt diese film aber nicht. Bürgerrechtsorganisationen haben das Unternehmen aufgefordert, diese Möglichkeit zu entfernen. Apfel wählt jedoch den gegenteiligen ansatz und verschafft wir mehr Wissen von die Inhalte das Nutzer.

Maschinelles lernen und Elternbenachrichtungen bei iMessage: eine Abkehr von starker Verschlüsselung

Die zweite wichtige neue funktion von sich entschuldigen sind zwei Arten von Benachrichtigungen, die in dem scannen von by iMessage gesendeten hagen empfangenen fotos basieren. Um diese Benachrichtigungen einzuführen, wird sich entschuldigen einen geräteeigenen Klassifizierungs-Algorithmus einführen, der „sexuell eindeutige Bilder“ erkannt soll. Nach erklären von sich entschuldigen werden dies Funktionen (zum Start) in US-Nutzer unter 18 jahren beschränkt sein, die bei einem Familienkonto eingetragen sind. Wenn ns Konto, das von einem Kind darunter 13 Jahren genutzt wird, ein bild verschicken möchte, das von der maschinellen Lernfunktion an dem Gerät wie sexuell eindeutiges video erkannt wird, erscheint einer Benachrichtigung, die dem Kind darunter 13 jahren mitteilt, dass seine Eltern by diesen Inhalt unterrichtet werden. Wenn ns Kind unter 13 Jahren den Inhalt nichtsdestotrotz sendet, muss es akzeptieren, das die Eltern benachrichtigen werden, und das bild wird unwiderruflich im bereich der Kindersicherung ns Telefons gespeichert, zum die eltern es später ansehen können. In Nutzern inmitten 13 und 17 jahre wird eine ähnliche Warnmeldung angezeigt, allerdings wird nein Benachrichtigung an die eltern geschickt.

Ähnlich verhält es sich, wenn einen Kind darunter 13 jahre ein bild erhält, das by iMessage wie „sexuell explizit" eingestuft wird. Vor es das Foto sehen darf, erscheint einer Benachrichtigung, die das Kind darüber informiert, das seine Eltern von den rechnungen sensiblen Bildmaterials informiert werden. Wenn der*die Nutzer*in darunter 13 jahre das bild akzeptiert, importieren die Eltern benachrichtigen und das bild wird in dem telefone gespeichert. Nutzer mitte 13 und 17 Jahren erhalten ebenfalls einer Warnmeldung, dennoch eine benachrichtigung über diese Aktion ich werde nicht an das Gerät der Eltern gesendet.

Wenn so beispielsweise ein*e Minderjährige*r, der*die einer iPhone ohne dies Funktionen verwendet, ein Foto bei eine*n andere*n Minderjährige*n sendet, der*die diese Funktionen aktiviert hat, erhält er*sie keine Benachrichtigung, das iMessage sein*ihr Bild zusammen „explizit“ einstuft oder das die Eltern ns Empfängers benachrichtigt werden. Das Eltern des Empfängers importieren über den Inhalt informiert, ohne dass der Absender es ist in Einverständnis dazu gegeben hat. Darüber hinaus tun können das „sexuell eindeutige Bild", sobald das gesendet hagen empfangen wurde, nicht mehr vom Gerät von Nutzers unter 13 jahre gelöscht werden.

Unabhängig davon, ob wie Inhalte Übertragen oder empfangen werden, von Nutzer unter 13 Jahren die Möglichkeit, dies abzulehnen, ohne das die Eltern benachrichtigen werden. Nichtsdestotrotz liefern diese Benachrichtigungen den Eindruck, dass apfel dem Nutzer by die Schulter sieht aus – und in dem Falle über Kindern unter 13 jahren ist das im Wesentlichen das, was sich entschuldigen den eltern ermöglicht.

Diese Benachrichtigungen erwecken ns Eindruck, dass sich entschuldigen dem Nutzer über die Schulter schaut – und innerhalb Falle by Kindern darunter 13 jahr ist es im Wesentlichen das, was apple den eltern ermöglicht.

Wichtig zu sein auch, dass sich entschuldigen die notorisch schwer kommen sie überprüfende Technologie von maschinellen Lernens verwendet, um kommen sie bestimmen, was einer sexuell eindeutiges bild ist. Ende jahrelanger dokumentieren und forschung wissen wir, dass Technologien ns maschinellen Lernens, die ohne menschliche Aufsicht gebraucht werden, inhalte häufig nicht richtig klassifizieren, auch vermeintlich „sexuell eindeutige“ Inhalte. Zusammen die Blogging-Plattform Tumblr innerhalb Jahr 2018 einen Filter zum sexuelle inhalte einführte, wurden bekanntermaßen jedermann möglichen andere Bilder innerhalb Netz erfasst, darunter bilder von Zwergspitz-Welpen, Selfies vollständig bekleideter personen und mehr. Die Versuche von Facebook, Nacktheit zu kontrollieren, haben kommen sie geführt, dass bilder von berühmt Statuen wie der klein Meerjungfrau an Kopenhagen entfernt wurden. Diese Filter haben an der Vergangenheit ns freie Meinungsäußerung unterdrückt, und das gibt viele ursache für das Annahme, das Apples Filter dasselbe tun wird.

Da in Erkennung eines „sexuell eindeutigen Bildes“ maschinelles Lernen an dem Gerät gebraucht wird, um herum den Inhalt von Nachrichten zu scannen, kann apfel iMessage nicht mehr ernsthaft wie „Ende-zu-Ende-verschlüsselt“ bezeichnen. Sich entschuldigen und seine Befürworter likes argumentieren, dass ns Scannen bevor oder nach der Ver- heu Entschlüsselung ein Nachricht ns „Ende-zu-Ende“-Versprechen intakt hält, aber das käme eher einer Vertuschung gleich, um herum eine tektonische Verschiebung bei der belaufen des Unternehmens gegenüberliegende seite starker Verschlüsselung zu verbergen. 

Wie auch immer apple es nennt, das ist nicht als sicheres Messaging

Zur Erinnerung: einer sicheres Nachrichtensystem ist ns System, bei dem niemand außer dem Benutzer und den vorgesehenen Empfängern das Nachrichten lesen oder ihr Inhalt analysieren kann, ca daraus zu schließen, worüber sie sprechen. Obwohl die Nachrichten ein Server durchlaufen, can der Server an einer Ende-zu-Ende-verschlüsselten Nachricht ns Inhalt ns Nachricht nicht erkennen. Wenn gleich Server von einen kanal verfügt, der Informationen by den Inhalt eines erheblichen Teils der Nachrichten preisgibt, handelt das sich nicht um herum eine Ende-zu-Ende-Verschlüsselung. An diesem fall sieht apfel zwar niemals das vom Benutzer gesendeten oder empfangenen Bilder, hat noch dennoch ns Klassifikator erstellt, das die film scannt, die die Benachrichtigungen in die elternteil liefern würden. Daher wäre es für apfel nun möglich, von Klassifikator, der in die Geräte der Nutzer gesendet wird, neue Trainingsdaten hinzuzufügen hagen Benachrichtigungen in ein breiteres Publikum zu senden, was leicht kommen sie einer Zensur führen und die Meinungsfreiheit einschränken würde.

Aber auch ohne dann Erweiterungen gibt dies System Eltern, die nicht ns Wohl ihrer Kinder im auge haben, eine weitere Möglichkeit, sie zu überwachen und kommen sie kontrollieren, und grenze das angehenden des Internets ein, ns Welt derjenigen kommen sie erweitern, deren leben sonst eingeschränkt sind. Und da drüben die plane zur verbreitet Nutzung über Familienmitgliedern by missbräuchlichen partnern organisiert bekomme können, ist es no abwegig, sich vorzustellen, dass diese Funktion als eine Form by Stalkerware verwenden wird.

Mehr sehen: So Blond Wie Justin Bieber Mit Blonden Haaren, Justin Bieber Hat Wieder Sein Bieber

Die jedermann haben das Recht, privat und ohne Hintertüren heu Zensur zu kommunizieren, auch wenn das sich um Minderjährige handelt. Apple sollte das richtige beschlossen trmiyvue.comen und dies Hintertüren by den Geräten das Nutzer fernhalten.