„Privacy-Preserving Federated Learning“ sorgt für Datenschutz

Corona-App: Dezentrale Lösung kein Problem

Die Bundesregierung pocht auf eine schnelle Entwicklung einer Corona-App. Durch diese Tracing-App soll die Infektionsdynamik und Infektionskontakte bei der Corona-Pandemie umfassend ausgewertet werden. Informatiker der Universität Lübeck setzen dabei auf die Stärken eines „Privacy-Preserving Federated Learning“.

Corona-Tracing-App

Diskussionen um Corona-Tracing-App | © Monster Ztudio - stock.adobe.com

Die IT-Sicherheits- und KI-Experten sind sich sicher: Auch bei einer dezentralen Lösung  könne die Infektionsgefahr durch mangelnden Abstand nach den Lockerungsmaßnahmen zeitnah analysiert werden. Denn dazu seien keine zentralen Algorithmen zur Datenauswertung nötig. Vielmehr setzen die Wissenschaftler auf das sogenannte „Federated Learning“, das dezentrales Lernen auf verteilten Daten ermögliche, jedoch nicht den gewünschten Datenschutz aufweise.

Durch ihre Lösung des „Privat-Preserving Federated Learning“ wollen sie eine Kombination der Ansätze des verteilten Lernens und des nötigen Schutzes der Privatsphäre schaffen. Dazu sollten auch weitere Funktionen in der Corona-App angeboten werden, die freiwillig sind. So könnten Bewegungsprofile eine vertrauenswürdige Berechnung ermöglichen.

Differential Privacy Garantien in der Corona-App

Ein erster Schritt könnte laut Wissenschaftler darin bestehen, für eine Analyse der Infektionsgefahr datenschutzfreundliche und verrauschte Statistiken zu berechnen, die die Daten der einzelnen Nutzer schützen. Hierfür werden Differential Privacy Garantien – strenge Datenschutzdefinitionen aus der Forschung – verwendet. Auch eine zeitnahe Umsetzung dank umfangreicher Literatur in diesem Feld sei möglich.

Coronavirus

Mit dem „COVID19-Krankenhausentlastungsgesetz“ werden die wirtschaftlichen Folgen für Krankenhäuser und Vertragsärzte aufgefangen. Mit dem "Gesetz zum Schutz der Bevölkerung bei einer epidemischen Lage von nationaler Tragweite" wird die Reaktionsfähigkeit auf Epidemien verbessert.

weiterlesen

Im zweiten Schritt solle dann das „Privacy-Preserving Federated Learning“ eine Basis für datenschutzfreundliche, verteilte Anwendung von KI-Methoden bieten. Allerdings sei hier auch der Forschungsbedarf noch groß, damit Datenschutzgarantien vor einem bundesweiten Einsatz gestärkt würden. Eine mögliche innovative Methode sei beispielsweise ein Simulationsmodell für Infektionsausbreitung, das Nutzer einzeln und lokal mit ihren Daten verbessern und danach miteinander abgleichen können. Diese Verbesserungen dürfen nicht auf den jeweiligen Nutzer zurückführbar sein.

Vertrauenswürdigkeit hat oberste Priorität

Eine weitere Anwendung könnte in einer Verbesserung der Treffergenauigkeit der App liegen. Gerade in der Anfangszeit könne die Fehlerrate reduziert und unnötige Einweisungen in Quarantäne vermieden werden. Prof. Dr. Esfandiar Mohammadi, Professor für Privacy & Security an der Universität Lübeck betont, dass gerade die Vertrauenswürdigkeit einer Software wichtig sei, wenn massiv persönliche Daten benutzt werden müssten.

Gerade im medizinischen Bereich müsse der Datenschutz der Nutzer ernst genommen werden. Durch die Zusammenarbeit von Forschern an der Schnittstelle von KI, IT-Sicherheit und Telematik sei es möglich, gleichzeitig die Privatsphäre der Nutzer zu schützen und einen Mehrwert aus den erhobenen Daten zu gewinnen. Die Wissenschaftler befürworten die von der Bundesregierung vorgesehene Corona-App, jedoch müsse sie noch deutlich weiter genutzt werden als bisher geplant.

Quelle: Universität zu Lübeck