Technologieverliebt, glasklar in der Sprache und ganz sicher kein Fan von leeren Floskeln, das ist Elisa Drescher, sie ist Juristin, Gründerin der Datenschutzberatung SCALELINE und eine der Stimmen, die man hören sollte, wenn es um Künstliche Intelligenz und Verantwortung geht.
Am 9. Juli war sie beim GOLF WEEK Ladies Club bei Topgolf Wien zu Gast und hat mit ihrem Auftritt gezeigt, wie man selbst trockene Themen wie DSGVO, AI Act oder „Datenverarbeitung“ so verpackt, dass sie plötzlich spannend, relevant und sogar inspirierend werden.
Im Interview mit uns spricht sie darüber, wie sehr KI unseren Alltag schon heute prägt, von Chatbots über personalisierte Werbung bis hin zu Deepfakes und warum es jetzt klare Regeln braucht. Denn, „KI ist kein Spielzeug, sondern eine Technologie mit Verantwortung und wer sie nutzt, sollte auch wissen, was er tut“, sagt Elisa.
Sie erklärt, warum schlecht trainierte Systeme gefährlicher sein können als datenhungrige, wieso Datenschutz längst kein Innovationsverhinderer mehr ist und weshalb Unternehmen dringend einen „KI-Clearing-Prozess“ brauchen, wenn sie neue Tools einsetzen wollen.
Elisa lebt vor, was sie berät. Sie nutzt selbst täglich ChatGPT, hat sich ein eigenes CustomGPT für ihre LinkedIn-Inhalte gebaut aber achtet dabei konsequent darauf, keine sensiblen Daten preiszugeben. Für sie ist klar, Datenschutz ist kein Bremsklotz, sondern eine Voraussetzung für nachhaltige Innovation und Vertrauen.
Golf Week: Elisa, wie verändert Künstliche Intelligenz deiner Meinung nach den Datenschutz, sowohl in Unternehmen als auch für uns alle im Alltag?
Elisa Drescher: Künstliche Intelligenz verändert den Datenschutz grundlegend, ähnlich wie die industrielle Revolution ganze Wirtschafts- und Gesellschaftsstrukturen umgestaltet hat. KI ist keine Spielerei oder ein kurzfristiger Trend, sondern wird sich tief in unseren Alltag integrieren und das ist in vielen Bereichen bereits Realität: von der automatisierten Kundenbetreuung bis hin zur personalisierten Werbung.
Für Unternehmen bedeutet das, dass Datenschutzprozesse nicht nur rechtlich sauber, sondern auch technologisch mithalten müssen. Im Alltag stehen wir alle vor neuen Fragen: Wer verarbeitet meine Daten? Wofür genau? Und wie transparent ist der Umgang damit? Diese neuen Dynamiken machen Datenschutz nicht weniger wichtig, im Gegenteil: Er wird zur zentralen Voraussetzung für Vertrauen in die Technologie.
GW: Wo liegen aus deiner Sicht die größten Risiken, wenn KI mit persönlichen Daten arbeitet?
ED: Das größte Risiko liegt für mich im Missbrauch dann, wenn KI in den falschen Händen landet. KI hebt Social Engineering auf ein neues Level. Beispielsweise lassen sich heute mit nur wenigen Daten täuschend echte Fake-Stimmen oder Videos erzeugen, mit denen gezielt Vertrauen erschlichen wird. Besonders gefährdet sind dabei Gruppen, die nicht so technikaffin sind. Sie sind oft weniger sensibilisiert und können betrügerische Inhalte schwerer erkennen. KI verstärkt damit das, was wir auch aus der klassischen IT-Sicherheit kennen: Wo Lücken bestehen, werden sie genutzt, teils auf sehr perfide und natürlich illegaleWeise.
GW: Darf eine KI überhaupt mit personenbezogenen Daten arbeiten und was müssen Unternehmen dabei beachten?
ED: Ja, das dürfen sie. Dabei ist allerdings die Datenschutzgrundverordnung (DSGVO) zu beachten. Denn die DSGVO bleibt das zentrale Regelwerk, wenn personenbezogene Daten verarbeitet werden. Denn der AI Act bzw. die KI-Verordnung regelt ausschließlich den Einsatz von KI-Systemen. Wichtig ist: Beide Rechtsrahmen schließen sich nicht aus, sondern ergänzen sich. Und was das nun für Unternehmen bedeutet? Sie brauchen eine klare Rechtsgrundlage für jede Datenverarbeitung, volle Transparenz gegenüber den betroffenen Personen und die Einhaltung aller Pflichten – etwa zur Datenlöschung. KI darf kein „Graubereich“ sein. Im Gegenteil: Wer hier sauber arbeitet, verschafft sich auch strategische Vorteile, etwa durch höhere Akzeptanz bei Nutzenden oder Wettbewerbsvorteile durch rechtssichere Innovation.
GW: Was ist aus Datenschutzsicht gefährlicher: eine schlecht trainierte KI oder eine, die zu viele Daten sammelt?
ED: Beides ist problematisch, aber aus Datenschutzsicht halte ich eine schlecht trainierte KI für gefährlicher. Denn sie kann falsche Entscheidungen treffen, diskriminieren oder bestehende Vorurteile verstärken, ohne dass das sofort sichtbar ist.
GW: Viele Firmen nutzen KI-Tools von außen – wie können sie sicherstellen, dass das trotzdem DSGVO-konform ist?
ED: Der wichtigste Schritt ist: Klarheit schaffen. Unternehmen sollten einen sogenannten „KI-Clearing-Prozess“ einführen – also ein standardisiertes Verfahren, mit dem neue KI-Tools geprüft und bewertet werden. Fragen, die hier beantwortet werden sollen: Welche Tools werden genutzt? Warum genau? Welche Daten fließen ein? Wann wird die Datenschutzbeauftragte eingebunden? Verantwortlichkeiten müssen geklärt sein – sowohl intern als auch gegenüber den Anbietern der Tools. Weiters darf nicht vergessen werden: DSGVO-Konformität ist kein Einmal-Check, sondern ein fortlaufender Prozess, der dokumentiert und regelmäßig überprüft werden muss.
GW: Du hast dich früh auf genau dieses Thema spezialisiert. Was hat dich motiviert, SCALELINE zu gründen und dein eigenes Ding zu machen?
ED: Ich liebe Technologie – schon immer. Ich war immer die, die neue Tools ausprobiert und sich schnell für digitale Entwicklungen begeistern konnte. Deshalb war für mich klar: Ich will in einem Bereich arbeiten, der innovativ ist, der sich entwickelt und wo ich aktiv mitgestalten kann.
Klassische Juristerei war mir persönlich zu starr. Datenschutz hingegen verbindet technisches Verständnis mit rechtlicher Verantwortung und genau das reizt mich. Mit SCALELINE habe ich mir den Raum geschaffen, moderne Datenschutzberatung neu zu denken: pragmatisch, technologieoffen und auf Augenhöhe mit den Unternehmen.
GW: Hast du den Eindruck, dass beim Thema Datenschutz oft noch nach alten Regeln gedacht wird – gerade wenn es um neue Technologien wie KI geht?
ED: Teilweise ja. Es gibt durchaus noch das Denken in alten Mustern – etwa, dass Datenschutz ein Innovationshemmnis sei. Dabei zeigt der AI Act genau das Gegenteil: Die EU ist offen für technische Neuerungen, aber sie setzt klare ethische Leitplanken.
Für mich ist der AI Act ein positives Signal: Wir verbieten nicht, sondern ermöglichen – allerdings zu Bedingungen, die unsere Grundwerte schützen. Das stärkt langfristig das Vertrauen in KI und sorgt dafür, dass sie gesellschaftlich akzeptiert wird.
GW: Kannst du eine KI für den „täglichen“ Gebrauch empfehlen?
ED: Absolut. Ich nutze selbst täglich ChatGPT. Sei es zur Vorbereitung von Workshops, zur Strukturierung von Projekten, einfach zur Ideenfindung oder auch einmal um ein Dinner mit Freunden zu planen und mir eine Einkaufsliste erstellen zu lassen. Besonders hilfreich finde ich sogenannte CustomGPTs. Das sind individuell trainierte Versionen von ChatGPT, die auf bestimmte Aufgaben spezialisiert sind. Ich habe mir beispielsweise ein eigenes CustomGPT erstellt, das mich bei der Erstellung von Content für LinkedIn unterstützt. Es kennt meinen Schreibstil, meine Themen und achtet gezielt auf die aktuellen Anforderungen des LinkedIn-Algorithmus. Dadurch kann ich schneller hochwertigen Content erstellen, der genau zu meiner Zielgruppe passt und spare dabei enorm viel Zeit. Natürlich achte ich immer darauf, keine sensiblen oder personenbezogenen Daten einzugeben. Aber richtig eingesetzt, ist KI ein echter Gamechanger – nicht nur für große Unternehmen, sondern auch für Selbstständige und Unternehmer:innen im Alltag.
GW: Wenn du nach vorne blickst: Wo siehst du uns als Gesellschaft in zehn Jahren im Umgang mit KI und Datenschutz?
ED: Ich bin überzeugt: In zehn Jahren wird KI ein selbstverständlicher Bestandteil unseres Alltags sein. Sei es in Unternehmen, im Bildungsbereich, in der Pflege oder vielleicht sogar im Haushalt, unterstützt durch Roboter. Die Technologie wird uns begleiten, Entscheidungen vorbereiten und Prozesse automatisieren.
Aber mit dieser zunehmenden Integration steigt auch die Verantwortung. Sowohl auf individueller als auch auf gesellschaftlicher Ebene. Der souveräne Umgang mit KI und Datenschutz wird zu einer Schlüsselkompetenz, die jede und jeder beherrschen sollte. Und das bedeutet auch: lebenslanges Lernen wirklich zu leben. Denn technologisches Verständnis ist keine einmalige Qualifikation mehr, sondern eine Fähigkeit, die wir stetig weiterentwickeln müssen. Schulen, Universitäten, Unternehmen und Weiterbildungseinrichtungen sind gefragt, genau diese Kompetenzen zu fördern – praxisnah, ethisch fundiert und zugänglich für alle. Nur so gelingt es uns, das Potenzial von KI sinnvoll zu nutzen.
Genau das war auch meine Motivation, gemeinsam mit einem Geschäftspartner ein eigenes Trainingskonzept zur praxisnahen Erfüllung der Anforderungen aus Artikel 4 des AI Act, der KI-Kompetenz, zu entwickeln. Unser Ziel ist es, KI-Kompetenz verständlich, rechtssicher und anwenderfreundlich zu vermitteln. Mehr dazu unter: www.ki-kompetenz.training.
GW: Und ganz persönlich: Was bedeutet für dich ein verantwortungsvoller Umgang mit KI – als Unternehmerin, Juristin und Mensch?
ED: Verantwortungsvoll mit KI umzugehen heißt für mich vor allem: bewusst entscheiden, welche Informationen ich teile, sowohl meine eigenen als auch die Daten anderer. Ähnlich wie bei sozialen Netzwerken überlege ich mir ganz genau, was ich eingebe und wem ich damit potenziell Zugang gebe.
Als Unternehmerin sehe ich es als meine Pflicht, Technologie nicht nur effizient, sondern auch ethisch einzusetzen. Als Juristin verstehe ich die gesetzlichen Rahmenbedingungen und helfe dabei, sie verständlich in die Praxis zu übersetzen. Und als Mensch finde ich: Wir sollten KI weder verteufeln noch blind vertrauen. Sondern lernen, sie zu hinterfragen, sinnvoll zu nutzen und dabei unsere Werte nicht aus den Augen zu verlieren.
Ich bin überzeugt: Niemand kann die Augen vor KI verschließen. Umso wichtiger ist es, dass wir den Umgang damit aktiv gestalten – verantwortungsvoll, transparent und mit gesundem Menschenverstand.
Medianachweis: Birgit Naimer Photography