Auch Apple hört mit: Siri wird von Mitarbeitern ausgewertet

Man hätte es ja fast ahnen können: Nach Amazon und Google lässt der Smartphone-Hersteller Apple ebenfalls Gespräche mit dem eigenen Sprachassistenten abhören. Siri ist somit kein Stück besser als Amazon Alexa oder der Google Assistant. Apple hat sich bereits dazu geäußert und nennt ähnliche Gründe wie die Konkurrenz.

Viele Leute meinen immer noch, dass Apple ja “viel sicherer als Google” sei und man bei dem Unternehmen keine Befrüchtungen haben muss, was Abhören, Datenschutz oder Viren angeht. Alle drei Sachen wurden über die letzten Jahre widerlegt. Viren gibt es genauso wie bei Android oder Windows, Daten werden auch gespeichert und ausgewertet, doch was ist mit Siri? Nun ja, der Assistent wird nun auch abgehört. Also tun sich alle nichts ;-)

Im April 2019 wurde bekannt, dass Amazon Audiomitschnitte aus Amazon Alexa auswerten lässt. Vor wenigen Tagen hatte Google dies ebenfalls bestätigt. Die Firmen wollen die Sprachassistenten fördern und trainieren, heißt es. Die Befehle sollen so in Zukunft noch besser zu verstehen sein. Und genau das macht auch Apple. Auch hier werden Audiomitschnitte von Siri ausgewertet. Dies berichtet der “britisch Guardian” unter Berufung auf Insider.

Der Verlag nennt erstaunlich viele Details und man könnte dabei schon ein wenig Angst haben, Siri in Zukunft überhaupt noch zu nutzen. Die Mitarbeiter sollen Gespräche über die Gesundheit, über Drogendeals, Paare beim Sex oder über medizinische Behandlungen auswerten. Apple hat diese “Überwachung” bereits eingeräumt. Die Daten würden, wie auch bei Amazon und Google, dazu verwendet werden, die Qualität und Reaktion von Siri erheblich zu verbessern.

Doch Apple betont, dass die Audioaufnahmen weniger als 1% der Siri-Aktivierungen ausmachen, anonymisiert sind und nicht mit der Apple-ID oder ähnlichen privaten Informationen verknüpft seien. Dabei wird auch die Technik überprüft, ob Siri wirklich nur dann reagiert, wenn der Assistent auch reagieren soll.

Dennoch gibt es laut der Zeitung ein Problem: Apple gibt in seinen Nutzungsbedingungen nicht an, dass Auswertungen der Aufnahmen durch Menschen erfolge. Lediglich Ortsdaten, Kontaktdetails und App-Daten, die in Verbindung mit Audioaufnahmen stehen, können ausgewertet werden.

Dem Insider zufolge gibt es aber noch weitere Umgereimtheiten: Siri lässt sich wohl mit einem Reißverschluss aktivieren, da der Assistent dies als Aktivierungswort wahrnimmt. Dann werden sehr wohl private Gespräche aufgezeichnet. Auch das Wort “Syrien” oder eine Apple Watch können Siri unbemerkt aktivieren. Die Mitarbeiter sind derweil auch nicht geschult, wie diese mit dem Inhalt der Aufnahmen umgehen sollen.

Quelle: t3n
Auch Apple hört mit: Siri wird von Mitarbeitern ausgewertet
zurück zur Startseite

9 Kommentare zu “Auch Apple hört mit: Siri wird von Mitarbeitern ausgewertet

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hiermit akzeptiere ich die Datenschutzerklärung für diesen Kommentar.

   

Aktuelle News auf Deskmodder.de
alle News anzeigen
Deskmodder