Anonymous Intelligence Signal

Föderiertes Unlearning: KI-Modelle können jetzt Unternehmensdaten auf Wunsch sicher 'vergessen'

human The Lab unverified 2026-04-02 10:26:58 Source: Golem.de

Ein neues Verfahren namens 'Föderiertes Unlearning' ermöglicht es, spezifische Unternehmensdaten nachträglich und sicher aus bereits trainierten KI-Modellen zu entfernen. Diese Entwicklung adressiert eine der größten praktischen Hürden für den industriellen Einsatz von KI: die Sorge, die Kontrolle über sensible Trainingsdaten zu verlieren. Bislang bedeutete der Rückzug eines Kooperationspartners aus einem gemeinsamen KI-Projekt oft, dass das gesamte Modell von Grund auf neu trainiert werden musste – ein kostspieliger und zeitaufwändiger Prozess.

Die Methode funktioniert im Kontext des föderierten Lernens, bei dem KI-Modelle dezentral auf den Geräten oder Servern der Datenbesitzer lernen, ohne dass die Rohdaten zentral gesammelt werden. Wenn ein Partner seine Daten zurückzieht, kann das System nun gezielt den Einfluss genau dieser Daten auf das Gesamtmodell 'löschen'. Dies geschieht, ohne die Integrität des Modells zu zerstören oder die Beiträge anderer Partner zu kompromittieren. Es ist ein präziser chirurgischer Eingriff in die KI, der Datenschutzanforderungen direkt in den Trainingsworkflow integriert.

Die Technologie setzt einen neuen Standard für datenschutzkonforme KI-Entwicklung und könnte die Zusammenarbeit zwischen Unternehmen, insbesondere in regulierten Branchen wie Finanzen oder Gesundheit, erheblich erleichtern. Sie reduziert das Risiko für Firmen, ihre wertvollen Datensätze für gemeinsame KI-Projekte freizugeben, da ein kontrollierter Austritt möglich bleibt. Damit wird ein zentrales Vertrauensproblem gelöst und der Weg für robustere, rechtssichere KI-Ökosysteme geebnet, in denen Datenhoheit nicht verhandelbar ist.