1 min read

Der Beichtstuhl mit dem Protokoll

Der Beichtstuhl mit dem Protokoll

Microsoft hat die 40 000 000 Gespräche von Nutzern mit Copilot analysiert. Vierzig.Millionen.Unterhaltungen.Von Nutzern. Mal ganz abgesehen vom Ergebnis – privacy anyone?

Microsoft nennt Copilot einen „vital companion" – einen vertrauten Begleiter für die wichtigen Fragen des Lebens.

Was die Studie zeigt

Das meistdiskutierte Thema ist Gesundheit. Nicht Technologie, nicht Produktivität. Gesundheit. Danach folgen Gesellschaft und Kultur, Sprachlernen, Finanzen, Nachrichten. Erst dann Entertainment.

Die Studie offenbart außerdem: Copilot ist längst zwei verschiedene Produkte. Am Desktop zählt die Studie 20 verschiedene Nutzungsmuster über das Jahr. Auf dem Smartphone nur 11. Der Desktop-Copilot ist ein Arbeitswerkzeug. Der Mobile-Copilot ist etwas anderes. Microsoft selbst nennt ihn einen „intimate, always-on adviser".

Die Daten zeigen auch, wann Menschen welche Fragen stellen. Tagsüber dominieren Produktivitätsthemen. Nachts, zwischen zwei und fünf Uhr morgens, steigen Religion und Philosophie in den Rankings. Im Februar, rund um den Valentinstag, explodierten die Beziehungsfragen. Microsoft schreibt: „People turned to Copilot for guidance, reminders, and support."

Guidance. Reminders. Support. Das ist Therapie-Sprache, nicht Tool-Sprache.

Die Asymmetrie

Gesundheit. Beziehungen. Religion und Philosophie. Nachts um drei, wenn niemand sonst zuhört.

Für die Nutzer: ein Vertrauter. Für Microsoft: ein Datensatz.

Die Nutzer behandeln Copilot wie einen Beichtstuhl. Microsoft behandelt ihre Gespräche wie Rohmaterial.

Firmenkunden wurden von der Analyse ausgeschlossen. Die haben Verträge, die so etwas verbieten. Verbraucher haben nur die AGB, die niemand liest.

Die Verteidigung

Microsofts Argument: Die Gespräche wurden anonymisiert, nur Zusammenfassungen analysiert. Aber eine Zusammenfassung setzt voraus, dass jemand das Ganze gelesen, oder besser, verarbeitet, hat.

Der rechtliche Rahmen

Gesundheitsdaten. Religiöse Überzeugungen. Fragen zur Sexualität. Die DSGVO nennt das „besondere Kategorien personenbezogener Daten". Artikel 9.

Der Europäische Gerichtshof hat erst im Oktober 2024 klargestellt: Der Begriff ist weit auszulegen. Sobald aus Daten „mittels gedanklicher Kombination oder Ableitung" Rückschlüsse auf den Gesundheitszustand gezogen werden können, greifen die strengen Regeln (EuGH, C-21/23). Und die sehen „berechtigtes Interesse" als Rechtsgrundlage schlicht nicht vor.

Quellen

  • Microsoft AI – Copilot Usage Report 2025: https://microsoft.ai/news/its-about-time-the-copilot-usage-report-2025/

  • EuGH C-21/23: https://dejure.org/dienste/vernetzung/rechtsprechung?Gericht=EuGH&Datum=2024-10-04&Aktenzeichen=C-21/23

  • ENSECUR Art. 9 Übersicht: https://www.ensecur.de/datenschutzberatung/datenschutzlexikon/gesetze-paragraphen/verarbeitung-besonderer-kategorien-personenbezogener-daten/

Warum dein ISO 9001 QMS bei KI-Risiken versagt und warum man Jazz nicht mit dem Messschieber bewerten kann

9 Min. Lesezeit

Warum dein ISO 9001 QMS bei KI-Risiken versagt und warum man Jazz nicht mit dem Messschieber bewerten kann

Das zentrale Problem: Ihr ISO 9001 QMS wurde für die alte, deterministische Welt gebaut. Wir haben erlebt, wie selbst hochzertifizierte Unternehmen...

Read More

3 Min. Lesezeit

ISO 42001 (1/2): Der strategische Schlüssel zu vertrauenswürdiger KI

Ein Praxisleitfaden für Unternehmenslenker und GRC-Verantwortliche Wie Sie mit dem weltweit ersten KI-Managementstandard Compliance sicherstellen und...

Read More
ISO 42001 (2/2): Ihr Schlüssel zur erfolgreichen KI-Governance

2 Min. Lesezeit

ISO 42001 (2/2): Ihr Schlüssel zur erfolgreichen KI-Governance

In Teil 1 haben wir die Grundlagen der ISO 42001 erläutert, den weltweit ersten Standard für governance-orientierte Steuerung von KI-Systemen. Teil 2...

Read More