Im Projekt soll ein Framework entwickelt werden, welches den Verlust von Privatsphäre in Machine Learning (ML)-Modellen quantifiziert und das Privatsphäre-Risiko einzelner Datenpunkte evaluiert. Dies ermöglicht die rechtssichere und privatssphärebewahrende Anwendung dieser Methoden. Denn obwohl ML-Modelle zunehmend für Vorhersagen auf privaten Daten in sensiblen Anwendungen, z.B. im medizinischen Diagnosekontext, eingesetzt werden, ist diese Folgenabschätzung bisher nur rudimentär entwickelt. Aktuelle Forschung zeigt, dass es möglich ist, die Trainingsdaten aus den Modellen wiederherzustellen oder zumindest zu identifizieren, ob einzelne Datenpunkte im Trainingsdatensatz enthalten sind. Daher werden momentan verstärkt ML-Methoden erforscht, die z.B. durch gezieltes Verrauschen die Privatsphäre der Daten in den Modellen gewährleisten sollen. Das Problem, dass die Effektivität dieser Methoden aktuell nicht einheitlich quantifizierbar ist, soll mit dem entwickelten Framework gelöst werden