Otter.ai: Datenschutzklage wegen KI-Training & Zustimmung
Eine aufkeimende rechtliche Herausforderung wirft einen Schatten auf die Bequemlichkeit von KI-gestützten Notiz- und Transkriptionsdiensten, die im heutigen Unternehmensumfeld beliebte Werkzeuge sind. Eine kürzlich in einem kalifornischen Bezirksgericht im Namen des Klägers Justin Brewer eingereichte Sammelklage behauptet, dass Otter.ai, ein prominenter Transkriptionsdienst, Nutzer aufzeichnet und deren Stimmen und Daten nutzt, um seine künstlichen Intelligenzmodelle ohne ausdrückliche Zustimmung zu trainieren. Diese Klage hat erhebliche Auswirkungen, nicht nur für Otter.ai, sondern auch für andere weit verbreitete Anrufaufzeichnungs- und Notiz-Apps wie Read.ai und sogar Google Gemini.
Die Klage behauptet, dass Otter.ai alle Teilnehmer einer Konversation aufzeichnet, einschließlich derer, die keine Otter-Nutzer sind und keine Genehmigung erteilt haben, eine Praxis, die möglicherweise die Zustimmungsanforderungen in Kalifornien und anderen Staaten verletzt. Darüber hinaus wird behauptet, dass das Unternehmen diese Sprachaufnahmen verwendet, um seine Spracherkennungs-KI-Tools zu verfeinern. Die Beschwerde hebt ausdrücklich hervor, dass Otter-Nutzer sich der Aufzeichnung ihrer Besprechungen durch den Dienst bewusst und damit einverstanden sein könnten, Nicht-Nutzer jedoch oft unwissend sind und sicherlich nicht um Erlaubnis gefragt wurden. Brewers Anwaltsteam behauptet, dass seine Datenschutzrechte verletzt wurden, was darauf hindeutet, dass die Praktiken von Otter.ai möglicherweise gegen Bundesgesetze wie den Electronic Communications Privacy Act und den Computer Fraud and Abuse Act sowie zahlreiche kalifornische Gesetze verstoßen. Da über 100 potenzielle Kläger Brewers Bedenken teilen, streben die Kläger an, als Sammelklage vorzugehen.
Diese rechtliche Maßnahme signalisiert eine umfassendere Auseinandersetzung mit der Verbreitung von Transkriptions-Apps in Unternehmen. Johannes Ullrich, Forschungsleiter des SANS Technology Institute, deutet an, dass viele KI-Unternehmen einen „Move fast and break things“-Ansatz verfolgt haben, oft unter Missachtung der Feinheiten des Urheberrechts und der Abhörgesetze. Er warnt, dass die Forderung nach ausdrücklicher Genehmigung von allen Anrufteilnehmern die Geschäftsmodelle vieler dieser Notiz- und persönlichen Assistentenanwendungen grundlegend in Frage stellen könnte.
Otter.ai, das über 25 Millionen globale Nutzer zählt und kürzlich 100 Millionen US-Dollar Jahresumsatz feierte, steht im Mittelpunkt dieser Debatte. Der “Otter Notetaker”-Dienst des Unternehmens integriert sich nahtlos in Plattformen wie Google Meet, Zoom und Microsoft Teams und zeichnet Besprechungsteilnehmer unabhängig von ihrem Otter-Nutzerstatus auf. Die Datenschutzrichtlinie des Unternehmens weist ausdrücklich darauf hin, dass die Stimmen der Teilnehmer zum Trainieren der Spracherkennungs-KI verwendet werden. Als Reaktion auf die Beschwerde bekräftigte ein Otter.ai-Sprecher das Engagement des Unternehmens für Datensicherheit und Datenschutz und erklärte: „Niemand sollte ohne sein Wissen oder seine Erlaubnis aufgezeichnet werden, unabhängig vom verwendeten Aufnahmegerät.“ Der Sprecher fügte hinzu, dass Otter Notetaker darauf abzielt, Nutzer zu befreien, damit sie umfassender an Besprechungen teilnehmen können, und dass Nutzer ermutigt werden, transparent zu sein und um Erlaubnis zu bitten, wenn sie Gespräche aufzeichnen.
Otter.ai betont, dass es Aufzeichnungen nicht autonom initiiert; vielmehr werden Aufzeichnungen von Otter-Nutzern ausgelöst, und die Nutzungsbedingungen des Unternehmens legen klar fest, dass Nutzer für die Einholung aller erforderlichen Genehmigungen verantwortlich sind. Das Unternehmen behauptet, den Nutzern die anwendbaren lokalen, staatlichen und bundesstaatlichen Anforderungen für die Aufzeichnung zur Verfügung zu stellen. Die Klage entgegnet jedoch, dass Otter.ai versucht, „Verantwortung zu verschieben“, indem es seine rechtlichen Verpflichtungen an Kontoinhaber auslagert, anstatt direkt die Zustimmung von jeder einzelnen Person einzuholen, die es aufzeichnet, wie es gesetzlich vorgeschrieben ist. Die Beschwerde weist auch darauf hin, dass einige konkurrierende Transkriptions-Apps wie Read.ai jedem Teilnehmer, einschließlich Nicht-Kontoinhabern, erlauben, eine Aufzeichnung während einer Besprechung zu stoppen, Otter diese Funktionalität jedoch nicht anbietet.
Die Kläger behaupten ferner, dass Otter.ai es versäumt, die vorherige Zustimmung der Teilnehmer einzuholen oder sie darüber zu informieren, dass ihre Gespräche zum Trainieren der automatischen Spracherkennungs- und maschinellen Lernmodelle des Unternehmens verwendet werden, was letztendlich dem Geschäft von Otter finanziell zugutekommt. Sie beschreiben Otter Notetaker als eine „separate und eigenständige Drittpartei“, die die Zustimmung hauptsächlich nur vom Besprechungsleiter einholt. Die Beschwerde hebt auch hervor, dass Otter.ai Besprechungen beitreten kann, ohne vorab Einladungen oder Benachrichtigungen zu senden, es sei denn, eine bestimmte Einstellung (die standardmäßig deaktiviert ist) ist aktiviert, und es bietet beim Beitritt zu einer Besprechung keinen Link zu seiner Datenschutzrichtlinie an. Während Otter.ai angibt, seine proprietäre KI mit „de-identifizierten Audioaufnahmen“ und Transkriptionen zu trainieren, stellt die Klage die Wirksamkeit dieser De-Identifizierung in Frage und verweist auf wissenschaftliche Forschung, die darauf hindeutet, dass selbst ausgeklügelte Verfahren unzuverlässig sein können, und bemerkt Otters Politik der unbefristeten Datenaufbewahrung.
Dieses neue Terrain für die KI-Notizen unterscheidet sich grundlegend von traditionellen Anrufaufzeichnungssystemen. Wie Ullrich von SANS erklärt, beschränkten ältere Systeme Aufzeichnungen typischerweise auf die Person oder Organisation, die sie vornahm. Mit KI erhält der Anbieter Zugang zu diesen Aufzeichnungen, was Bedenken aufwirft, die zuvor bei anderen Sprachassistenten wie Apples Siri beobachtet wurden. Fritz Jean-Louis, leitender Cybersicherheitsberater bei der Info-Tech Research Group, unterstreicht die ethische Notwendigkeit einer sicheren und effektiven Innovation in der KI-basierten Transkription. Er warnt davor, dass unbefugte Transkription die Vertraulichkeit gefährden, privilegierte Kommunikation offenlegen und das Vertrauen untergraben kann. Unternehmen, die solche Technologien implementieren, sollten sich der Zustimmungsgesetze in allen operativen Gerichtsbarkeiten bewusst sein, klare Verfahren für Offenlegungen in aufgezeichneten Besprechungen festlegen und Vorsicht walten lassen, wenn sie Transkriptionen in sensiblen Kontexten wie Rechts- oder Personaldiskussionen verwenden. Darüber hinaus müssen sie Drittanbieter-Software auf robuste Sicherheits- und Daten-Governance prüfen und Mitarbeiter über die ethischen Implikationen der Verwendung transkribierter Aufzeichnungen schulen. Jean-Louis kommt zu dem Schluss, dass strengere Zustimmungsanforderungen nicht das Ende der Transkriptionstechnologie bedeuten; vielmehr muss sich die Branche anpassen und Bequemlichkeit mit Verantwortlichkeit in Einklang bringen.