Berlin/Seattle – In der Debatte um die Auswertung von Nutzerdaten aus Sprachassistenten ist Amazons Dienst Alexa erneut in den Fokus geraten. Nach einem Bericht der „Welt am Sonntag“ sollen befristete Angestellte teilweise von zu Hause aus Daten aus Amazons Sprachassistentin Alexa auswerten.
„Einigen Mitarbeitern ist es gestattet, von anderen Orten aus zu arbeiten“,so Amazon. „Dabei gelten strenge Sicherheitsmaßnahmen und Richtlinien, an die sich jeder Mitarbeiter halten muss“, heißt es demnach weiter in der Stellungnahme des Konzerns. Insbesondere die Arbeit an öffentlichen Orten sei untersagt.
Die Realität sieht aber wohl anders aus: In Polen bewarb ein Zeitarbeits-Dienstleister die Jobs zur Auswertung von Alexa-Aufnahmen in inzwischen gelöschten Anzeigen der „Welt am Sonntag“ zufolge als „Telearbeit im ganzen Land“. Ein Zeitarbeiter sagte dem Blatt, er und viele seiner Kollegen arbeiteten vom Küchentisch aus. Dass Fragmente von Alexa-Aufnahmen auch von Menschen ausgewertet werden, war im Frühjahr durch einen Bericht des Finanzdienstes Bloomberg bekannt geworden. Damals ging es um das Anhören der Aufnahmen bei einem Dienstleister in Rumänien.
Schnell kam heraus, dass dies auch bei den beiden anderen Sprachassistenten – Apples Siri und dem Google Assistant – der Fall ist. Bei Apple gab es zumindest einen Hinweis auf solche Transkriptionen in einem Sicherheitsdokument für Entwickler. Keiner der Anbieter wies aber bei der Einrichtung der Assistenten ausdrücklich darauf hin, dass auch ihre Mitarbeiter die Aufnahmen zu hören bekommen könnten.
Seit diesem Wochenende bietet Amazon nun Alexa-Nutzern eine neue Option an: Sie können die Auswertung von Mitschnitten durch Mitarbeiter des Konzerns verhindern. In der Alexa-App findet sich nun ein Schalter dafür. Sprachassistenz-Software wie Alexa oder Siri reagiert auf Sprachbefehle des Nutzers. Die Assistenten starten die Aufzeichnung grundsätzlich erst, wenn sie das Aktivierungswort – „Hey, Google“, „Alexa“ oder „Hey, Siri“– hören. Allerdings müssen die Mikrofone ständig aktiv sein, um das Weckwort nicht zu verpassen.
Die fehlerhaften Aktivierungen, bei denen die Software glaubt, ihr Weckwort gehört zu haben, sind dabei ein besonderes Problem. Denn dabei können Unterhaltungen aufgezeichnet werden, die nicht an die Sprachassistentin gerichtet waren. Beim nachträglichen Anhören sollen die Mitarbeiter deshalb herausfinden, welche Worte die versehentliche Aktivierung auslösten, um die Software entsprechend anzupassen. Laut Google werden rund 0,2 Prozent der Aufzeichnungen nachträglich angehört, Apple und Amazon zufolge sind es weniger als ein Prozent.