Cupertino – Apple hat als erster Anbieter von Sprachassistenten angekündigt, die Nutzer ausdrücklich um eine Erlaubnis zum nachträglichen Anhören von Mitschnitten durch Mitarbeiter zu fragen. Die Funktion solle in einem späteren Software-Update umgesetzt werden, teilte der iPhone-Konzern am Freitag mit. Bis dahin werde die Praxis weltweit gestoppt und auf den Prüfstand gestellt.
Bei Assistenzsoftware wie Amazons Alexa, dem Google Assistant und Siri wurden Fragmente von Mitschnitten seit Jahren zum Teil auch von Menschen angehört und abgetippt, um die Qualität der Spracherkennung zu verbessern. Es geht dabei zum Beispiel um Fälle, in denen die Sprachassistenten den Befehl nicht verstanden, die falsche Erkennung von Aktivierungswörtern sowie den Umgang mit neuen Sprachen und Dialekten. Die Anbieter betonen, dass die Aufnahmen davor anonymisiert würden. Den Nutzern war die Praxis allerdings weitestgehend nicht bewusst, bis vor einigen Monaten erste Medienberichte dazu auftauchten.
In einem Bericht der Zeitung „Guardian“ vergangene Woche erzählte der Mitarbeiter eines Apple-Dienstleisters, auf den Aufnahmen seien zum Teil sehr private Details zu hören. So schnappe Siri auch Fragmente von Gesprächen mit medizinischen oder geschäftlichen Inhalten, mögliche kriminelle Aktivitäten oder auch Nutzer beim Sex auf, sagte er.
Die fehlerhaften Aktivierungen, bei denen die Software glaubt, die Weckworte „Hey, Siri“ gehört zu haben, sind dabei ein besonderes Problem. Denn dabei können Sätze und Unterhaltungen aufgezeichnet werden, die nicht an die Sprachassistentin gerichtet waren. Beim nachträglichen Anhören sollen die Mitarbeiter herausfinden, welche Worte oder Geräusche die versehentliche Aktivierung auslösten, um die Software entsprechend anzupassen. Apple war 2011 mit Siri auf dem iPhone ein Vorreiter bei Sprachassistenten. dpa