Sprachassistent

29. Juli 2019 14:42; Akt: 29.07.2019 14:42 Print

Apple belauscht Paare beim Sex

Nach Amazon und Google ist jetzt auch Apple wegen Mithörens privater Momente im Fokus. Siri soll bei Sex und Drogendeals mitlauschen.

Bildstrecke im Grossformat »

Zum Thema
Fehler gesehen?

Nachdem im April bekannt geworden war, dass Amazon Sprachdateien von an Alexa gerichteten Befehlen auswerten lässt, hat erst vor wenigen Tagen Google Ähnliches für seinen Assistenten bestätigt.

Umfrage
Welchen Sprachassistenten nutzen Sie?

Wie die britische Zeitung «The Guardian» unter Berufung auf einen Apple-Mitarbeiter, der anonym bleiben möchte, berichtet, soll auch Apple via Siri aufgenommene Audiomitschnitte von Analysten auswerten lassen.

Arztgespräche und Sex

Dabei bekommen Apple-Mitarbeiter auch aus Versehen aufgenommene Gespräche zu Gesundheitproblemen und medizinischen Behandlungen von Siri-Nutzern zu hören, ebenso Wortwechsel zu Drogendeals und sogar Paare beim Sex.

Reissverschluss aktiviert Siri

Oft braucht es auch gar nicht viel, um ungewollt eine Sprachaufnahme zu aktivieren. Neben Wörtern wie zum Beispiel Syrien interpretiere Siri auch das Geräusch eines Reissverschlusses als Befehl zum Mithören. Sogar wenn eine Apple Watch angehoben und dann in ihrer Nähe geredet werde, könne dies ein Auslöser sein.

Obwohl alle iOS-Geräte Siri unterstützen, werden solche Vorfälle am ehesten von der Apple Watch oder dem Homepod, dem intelligenten Lautsprecher von Apple, aufgenommen: «Die Uhr kann einen Schnipsel aufnehmen, der 30 Sekunden lang ist», so die anonyme Quelle. Apple bestätigt das indirekt. Wie auch schon Amazon und Google zuvor besteht das Unternehmen jedoch darauf, solche Daten einzig zu nutzen, um die Spracherkennung akkurater auf jeweilige Befehle der Nutzer anzupassen.

Für bessere Erkennung

Ebenso wie Amazons Alexa und Google Home zweige auch Apple einen geringen Teil der via Siri angefertigten Aufnahmen ab, um diese durch externe Mitarbeiter weltweit anhören zu lassen. «Eine kleine Anzahl von Siri-Anfragen wird analysiert, um Siri und die Diktierfunktion zu verbessern», so das Unternehmen. Laut Apple seien dies weniger als ein Prozent der Siri-Aktivierungen.

Die von Apple engagierten Analysten werten die Mitschnitte danach aus, inwieweit die Anfrage an Siri ernst gemeint und ob Siris Antwort angemessen gewesen sei. Ausserdem soll herausgefunden werden, ob Siri sich unbeabsichtigt aktiviert habe.

Personen identifizierbar

Die Aufnahmen seien anonymisiert und nicht mit dem jeweiligen Apple-Konto verknüpft, betont Apple. Jedoch sei es nicht unbedingt schwierig, Ortsdaten, Kontaktdetails und App-Daten mit den Sprachdateien in Verbindung zu bringen, so der Insider zu «The Guardian».

Noch ist unklar, wie die Mitarbeiter mit den Inhalten der Sprachaufnahmen künftig umgehen sollen. Vielen sei es unangenehm, private Gespräche mitzuhören, so der Insider. Dennoch gebe es immer wieder Mitarbeiter mit Hintergedanken, die bestimmte Aufnahmen mit realen Personen in Verbindung bringen könnten. Ähnliches war auch schon Google vorgeworfen worden.

(jd)