Seite drucken
Von: Georg Förster und Frederik Palmer
Wie eine gemeinwohlorientierte Datennutzung gelingen kann.
Spätestens mit dem Inkrafttreten der europäischen Datenschutzgrundverordnung hat sich die Frage nach dem verantwortungsvollen Umgang mit Daten ein wenig aus den Nischen herausbewegt, in denen sie zuvor diskutiert wurde. Neben der Frage, wie das Recht auf Schutz personenbezogener Daten auch gegenüber großen wirtschaftlichen Interessen gewahrt werden kann, stellt sich zugleich die Frage, wie andererseits unter Wahrung dieser Rechte eine gemeinwohlorientierte Nutzung von Daten aussehen kann.
Der Umfang der gesammelten Daten nimmt exponentiell zu
Diese Fragen sind nicht ganz neu, haben aber an Bedeutung gewonnen durch eine Entwicklung, die man als integralen Bestandteil des digitalen Wandels verstehen kann, den wir aktuell erleben: durch die zunehmende Digitalisierung von Abläufen in allen Lebensbereichen fallen große Datensätze quasi als Nebenprodukt ab. So fallen beispielsweise bei Anbietern von Musikstreamingdienste Daten über das Hörverhalten ihrer Nutzer*innen an ebenso wie in der öffentlichen Verwaltung im Rahmen der zunehmenden Digitalisierung von Verwaltungsakten Daten über die Bürger*innen anfallen, die ihre z.B. ihre digitale Steuererklärung abgeben oder einen digitalen Elterngeldantrag stellen. Dabei ist Transparenz wichtig: Jede*r Nutzer*in muss wissen, welche Daten gespeichert und genutzt werden - unabhängig davon, ob es um Dienste der Verwaltung oder von Wirtschaftsunternehmen geht. Es ist davon auszugehen, dass der Umfang der gesammelten Daten exponentiell zunimmt. Zugleich gibt es jedoch auch massive Fortschritte in der Verarbeitung solcher Daten durch große Rechenleistung und den Einsatz von modernen Datenverarbeitungsmethoden wie z.B. dem maschinellen Lernen ("künstliche Intelligenz"), die den Anspruch erheben, Muster in diesen riesigen Datensätzen zu finden oder Vorhersagen zu treffen.
So können insbesondere durch die Verknüpfung unterschiedlicher Informationen über eine einzelne Person Vorhersagen über das zu erwartende Verhalten dieser Person gemacht werden, die dann Grundlage für sehr reale Entscheidungen sein können - sei es z.B. die Vergabe eines Kredites, die Festlegung einer Versicherungsprämie, die Vorauswahl in einem Bewerbungsverfahren oder die gezielte Anzeige von Werbung für Produkte mit einer hohen Kaufwahrscheinlichkeit. Diese Technik wird bisher vor allem von kommerziellen Akteuren im Interesse der Profitmaximierung eingesetzt - mit zumindest wirtschaftlichem Erfolg, wie man an der rasanten Entwicklung der großen Plattformen, die Big Data und maschinelles Lernen schon seit einigen Jahren einsetzen (Google, Amazon, etc.), sehen kann. Die Profitorientierung bei der Nutzung von Daten verleitet jedoch auch zum Missbrauch. So wird regelmäßig versucht, personenbezogene Daten aus unterschiedlichen Quellen zusammenzuführen um Personenprofile zu vervollständigen - dies geschieht dann entweder rechtswidrig ohne die Einwilligung der Betroffenen oder die Einwilligungen werden oft über die Zustimmung zu kaum noch nachvollziehbaren AGBs eingeholt. Zudem hat es bereits im großen Stil Versuche gegeben, mit Hilfe von Big Data nicht nur das Verhalten von Menschen vorherzusagen, sondern sogar zu Manipulieren - z.B. wenn versucht wurde Personen mit individuell zugeschnittenen politischen Botschaften zu einer bestimmten Wahlentscheidung zu verleiten (Microtargeting, vgl. BPB Artikel). Aus alle diesen Gründen, ist es so wichtig, dass wir beim Thema Daten immer zuerst an den Schutz von vor allem personenbezogenen Daten denken.
Nutzung von Daten in der Wohlfahrtspflege
Es ist jedoch wichtig, neben diesem dringend notwendigen Schutz zugleich auch im Auge zu behalten, wie ggf. die Sammlung und Nutzung von Daten auch im Sinne des Gemeinwohls und unter Wahrung des Rechts auf Schutz der Privatsphäre und damit von personenbezogenen Informationen oder Daten möglich ist. Hierfür ist es zunächst wichtig festzustellen, dass es grundsätzlich möglich ist, auch unter Einhaltung notwendiger Datenschutzstandards Erkenntnisse aus Datensätzen zu ziehen. Dabei kann der Datenschutz z.B. durch Anonymisierung von Datensätzen gewährleistet werden, so dass Datensätze nicht mehr einzelnen Personen zugeordnet werden können. Ein anderer Weg wäre die Aggregation von Daten, d.h. die Zusammenfassung nach bestimmten Merkmalen, so dass Informationen nicht mehr auf Einzelpersonen, sondern lediglich auf Personengruppen (z.B. die Einwohner*innen einer Stadt oder eines Landkreises) bezogen werden können. Auch wenn solche Daten keine Rückschlüsse mehr auf einzelne Personen zulassen, können auch in diesen Daten Muster erkannt werden, die z.B. für politische Entscheidungen oder die Entscheidungen einer gemeinwohlorientierten Organisation hilfreich sein können. Im Bereich der Wohlfahrtspflege wären z.B. die folgenden Beispiele denkbar:
Durch das Zusammenführen großer Datenmengen über die Nutzung bestimmter sozialer Dienstleistungen (z.B. die Inanspruchnahme bestimmter Beratungsangebote) können diese systematisch ausgewertet, ungewöhnliche Entwicklungstrends rechtzeig erkannt und frühzeitig die Ressourcenplanung in diesem Bereich angepasst werden.
Im Rahmen digitaler Beratungsangebote können Nutzungsdaten anonymisiert ausgewertet werden, so dass sichergestellt wird, dass die Unterstützungsangebote den Bedürfnissen und Wünschen von Betroffenen besser entsprechen. Zudem können Ratsuchende basierend auf einer breiten Datenbasis gezielt mit den Informationen versorgt werden, die ihnen mit hoher Wahrscheinlichkeit weiterhelfen.
Daten aus der öffentlichen Verwaltung werden zivilgesellschaftlichen Akteuren zur Verfügung gestellt, damit diese ihre Aktivitäten mit Hilfe von Analysen dieser Daten besser aus das Gemeinwohl ausrichten können. So könnten z.B. Daten der Bundesagentur für Arbeit genutzt werden, um Rückschlüsse für die Konzeption von Maßnahmen zur Berufsförderung zu ziehen.
Natürlich gibt es bei der Arbeit mit Daten im Bereich der Wohlfahrtspflege auch Risiken und Grenzen. Es muss klar sein, dass Entscheidungen, die unmittelbar Auswirkungen auf Menschen haben auch immer von Menschen getroffen oder zumindest überprüft werden müssen. Letztlich kann es z.B. beim maschinellen Lernen durchaus zu systematischen Fehlern kommen, weil falsche Zusammenhänge gelernt wurden. Ein profitorientierter Akteur kann gewisse Fehlerquoten akzeptieren, solange das Endergebnis stimmt. Für uns als AWO steht aber immer der einzelne Mensch im Mittelpunkt. Schlechte Entscheidungen im Einzelfall können deswegen nicht durch gute Entscheidungen in anderen Fällen aufgewogen werden. Algorithmen dürfen die menschliche Entscheidung und vor allem die Mitbestimmung der Betroffenen in der Wohlfahrtspflege nicht ersetzen.
Zudem gibt es bei sozialen Dienstleistungen immer auch ein berechtigtes Bedürfnis der Menschen nach dem Kontakt mit anderen Menschen und Nähe. Natürlich ist es sinnvoll, die Kapazitäten einer Beratungsstelle für besonders beratungsintensive und komplexe Fälle zu nutzen, indem man für leichtere Aufgaben und Standardabläufe z.B. Informationen auf einer Webseite datenbasiert dahingehend optimiert, dass ein individuelles Beratungsgespräch in vielen Fällen nicht mehr benötigt wird. Trotzdem muss eine Beratung von Mensch zu Mensch immer möglich sein, wenn sie von den Ratsuchenden erwünscht ist.
Die gezielte Nutzung unterschiedlicher Daten - eigener und den von anderen Organisationen bereitgestellter - kann dazu beitragen, dass Kapazitäten in manchen Bereichen der Wohlfahrtspflege besser geplant und wirkungsvoller genutzt werden können - Hilfe kann so gezielter zu den Menschen kommen, die sie dringend brauchen. Da soziale Dienstleistungen letztlich aber immer von Menschen erbracht werden, braucht es selbstverständlich auch weiterhin die dafür notwendige Finanzierung. Die gemeinwohlorientierte Nutzung von Daten kann eine Möglichkeit sein, mehr Wirkung zu erzielen. Ein Sparprogramm ist sie keinesfalls.
Im Gegenteil: Es bedarf massiver Investitionen, um die notwendigen Strukturen und Kompetenzen im Bereich der Wohlfahrtspflege aufzubauen. Datenschutz ist wichtig, aber keine gute Ausrede für mangelndes Verständnis für das Potenzial von Daten. Dennoch ist diese unter Wahrung des Datenschutzes mit Herausforderungen verbunden, für die auch nicht-kommerziell arbeitende Organisationen gerüstet sein müssen. Wenn eine aktive Zivilgesellschaft, die auf der Höhe der Zeit ist, gewollt ist, müssen hier Unterstützungsanagebote geschaffen werden.
Zugleich sollte dieser Staat dringend vermeiden, selbst zum großen Sammler personenbezogener Daten zu werden und seine Bürger*innen so zu gläsernen Bürger*innen zu machen. Die Zivilgesellschaft könnte dem durch das Aufbauen dezentraler Strukturen entgegen wirken. Dabei ist es wichtig, gemeinsame Standards für Strukturen, Schnittstellen und Nutzungsbedingungen von Daten zu entwickeln. Dieser Entwicklungsprozess kann und sollte staatliche moderiert und gefördert werden, sollte aber zugleich nicht in die Autonomie zivilgesellschaftlicher Organisationen und ihrer Daten eingreifen.
Datensätze, die im öffentlichen Sektor (z.B. im Rahmen der Beantragung staatlicher Leistungen) anfallen, müssen stärker als Allgemeingut verstanden werden und in geeigneter Form (so dass keine Rückschlüsse auf einzelne Personen mehr möglich sind) insbesondere auch den Akteuren zur Verfügung gestellt werden, die daraus Schlüsse für ihre eigene gemeinwohlorientierte Arbeit ziehen können (somit natürlich auch den Wohlfahrtsverbänden). Dies gilt insbesondere für Datensätze, die bei Dienstleistern im Auftrag der öffentlichen Hand anfallen.
Wenn von staatlichen Stellen Algorithmen eingesetzt werden, müssen diese, soweit möglich, offengelegt werden. Im Falle von Algorithmen, die auf Verfahren wie maschinellem Lernen basieren, bei denen es nicht möglich ist die Entscheidungsprozedur formal zu beschreiben, müssen öffentliche Testschnittstellen angeboten werden, so dass Input-Output-Beziehungen systematisch untersucht werden können. Nur so kann sichergestellt werden, dass der Algorithmus auch das tut, was diejenigen, die ihn einsetzen angeben und diejenigen, die von seinen Entscheidungen betroffen sind, erwarten. Ein Algorithmus braucht immer die Diskussion über politische Implikationen und ist nicht "objektiv" oder "unfehlbar".
Letztlich muss man sowohl im öffentlichen wie im Non-Profit-Sektor von allen Akteur*innen erwarten können, dass verantwortungsvoll mit den immer größer werdenden digitalen Datenbeständen umgegangen wird. Dies bedeutet einerseits, sicherzustellen, dass Einzelne vor dem Missbrauch ihrer personenbezogenen Daten geschützt sind, andererseits aber auch, dass die Potenziale genutzt werden, die diese Datenbestände für das Gemeinwohl bieten.