27.07.2019
Nach Google und Amazon gerät nun auch Apple unter Druck. Ein externer Mitarbeiter warnt vor Missbrauch.
Externe Apple-Mitarbeiter hören ständig bei sensiblen Gesprächen von Apple-Nutzern mit. Arztgespräche, Drogenhandel aber auch Sex zwischen Paaren wird pausenlos aufgezeichnet und auch ausgewertet, berichtet ein Mitarbeiter einer externen Firma dem Guardian. Dabei handle es sich praktisch ausnahmslos um Aufnahmen, die versehentlich gestartet wurden.
Als Crux für alle Sprachassistenten von Google bis Alexa ist, dass sie ständig gestartet werden, auch wenn nicht der vorgesehene Aktivierungsbefehl gesagt wurde – etwa weil das Gesprochene von der Software falsch verstanden wurde. Auch Apple ist davor nicht gefeit. Dem Mitarbeiter zufolge schaltet sich Siri manchmal auch durch Geräusche, wie das Öffnen eines Reißverschlusses ein.
Als besonders anfällig für ungewollte Aufnahmen habe sich die Apple Watch erwiesen, die bis zu 30 Sekunden lang die Umgebung aufzeichne. Das passiere besonders häufig, weil die Uhr besonders sensibel reagiere. Der Mitarbeiter, der nicht zuletzt aufgrund der Knebelverträge von Apple, anonym bleiben wollte, gibt an, dass das Zuhören bei persönlichen Gesprächen und Situationen nicht nur verstörend sei.
Netzpolitik Alexa, Siri und Google locken User mit Frauenstimme in die Falle
Er wolle im Namen seiner Kollegen auch die Öffentlichkeit auf das enorme Missbrauchspotenzial hinweisen, das durch solche Sprachassistenten existiere. Zuvor waren bereits Amazon und Google unter Kritik geraten, weil die Firmen die hochsensiblen Gespräche ebenfalls extern auswerten und transkribieren lassen. Im Fall von Google konnten Journalisten aufgrund der Informationen sogar Nutzer, die auf den Aufnahmen zu hören waren, zuordnen und ausfindig machen.
Apple rühmt sich bei Siri damit, dass der Dienst anonymisierter funktioniert. So sind die Siri-Gespräche nicht mit einer Apple-ID verknüpft und können nicht so leicht zugeordnet werden. Andererseits lassen sich durch die Gespräche selbst, aber auch andere mitgelieferte Informationen wie ortsbezogene Daten, gewisse Kontaktinformationen und App-Daten sehr wohl Rückschlüsse machen, behauptet der Mitarbeiter.
Bei Konsumentenschützern schrillen nicht zuletzt seit diesen Berichten die Alarmglocken. Digitale Sprachassistenten führen zur Totalüberwachung. Der Datenschutz komme dabei viel zu kurz, kritisiert etwa das Institut für Technikfolgen-Abschätzung (ITA).
Digital Life Amazon-Mitarbeiter hören und schreiben mit, was ihr bei Alexa sagt
Digital Life Sprachassistent: Auch bei Google lauschen Mitarbeiter mit
Quelle https://futurezone.at/digital-life/siri-fremde-hoeren-beim-sex-und-bei-arztgespraechen-mit/400562774