Un contributo di Sophie Hundertmark
Sophie Hundertmark è un “esperta nell” uso pratico dell “intelligenza artificiale con particolare attenzione ai chatbot, alle strategie di AI e all” integrazione responsabile delle tecnologie. È ricercatrice e docente presso l’Università di Scienze Applicate e Arti di Lucerna e attualmente sta scrivendo la sua tesi di laurea nel campo dell’IA conversazionale presso l’Università di Friburgo. Come consulente, supporta aziende, amministrazioni e istituti scolastici nell’introduzione di soluzioni di intelligenza artificiale efficaci. Maggiori informazioni su Sophie Hundertmark su LinkedIn.
È stato utilizzato un CustomGPT per la creazione linguistica e stilistica, oltre che per la traduzione. Si basa sul modello linguistico GPT-5 di OpenAI ed è stato sviluppato dalla stessa Sophie Hundertmark.
Wenn ich in meinen Workshops oder Beratungsprojekten über ChatGPT spreche, spüre ich oft die Begeisterung in den Augen der Teilnehmenden. Die Möglichkeiten scheinen grenzenlos: schnell Texte schreiben, Ideen generieren, Prozesse beschleunigen. Gleichzeitig taucht aber immer wieder eine zentrale Frage auf: Wie steht es um den Datenschutz?
Genau darüber möchte ich in diesem Beitrag sprechen. Ich erkläre, wie ChatGPT technisch funktioniert, was mit den eingegebenen Daten passiert und warum wir hier sehr genau hinschauen sollten. Ich zeige euch Unterschiede zwischen sensiblen und nicht-sensiblen Daten, gebe Beispiele aus meiner Beratungspraxis und gehe auf das Thema Anonymisierung ein. Und ich stelle euch mit SwissGPT eine spannende Alternative vor, die besonders beim Thema Datenschutz punktet. Am Ende findet ihr eine ausführliche FAQ-Liste mit den häufigsten Fragen, die mir in diesem Zusammenhang gestellt werden.
Kurz gesagt, ich erkläre euch:
- wie ChatGPT funktioniert und was mit euren Daten passiert,
- warum der Umgang mit sensiblen Informationen heikel sein kann,
- welche Rolle Anonymisierung spielt,
- und wann es sinnvoll ist, auf sichere Alternativen wie SwissGPT zu wechseln.
Wie funktioniert ChatGPT eigentlich – und was passiert mit den Daten?
Um das Thema Datenschutz bei ChatGPT wirklich zu verstehen, müssen wir zuerst einen Blick darauf werfen, wie die Technologie funktioniert.
Die Grundlage: Large Language Models (LLMs)
ChatGPT basiert auf Large Language Models (LLMs). Das sind KI-Modelle, die mit riesigen Mengen an Textdaten trainiert wurden. Dazu gehören:
- Öffentlich verfügbare Texte aus dem Internet (z. B. Wikipedia, Blogs, Foren)
- Lizenzierte Inhalte (z. B. Bücher oder wissenschaftliche Artikel)
- Von Menschen erstellte Trainingsdaten (Texte, die speziell für das Training verfasst wurden)
Das Ziel: Das Modell soll Sprache verstehen und menschenähnlich Antworten generieren können.
Was passiert, wenn ihr ChatGPT nutzt?
Jedes Mal, wenn ihr eine Frage stellt oder einen Text eintippt, geschieht Folgendes:
- Eure Eingabe wird an die Server des Anbieters (z. B. OpenAI oder Microsoft) gesendet.
- Dort wird die Anfrage vom Modell verarbeitet und eine Antwort generiert.
- Die Antwort wird zurückgeschickt und auf eurem Bildschirm angezeigt.
Klingt simpel – hat aber große datenschutzrechtliche Implikationen.
Speicherung und Weiterverarbeitung von Daten
Hier liegt der Knackpunkt:
- Protokollierung: Viele Anbieter speichern Anfragen zumindest zeitweise, um Missbrauch zu verhindern oder die Qualität zu verbessern.
- Training: Manche Systeme nutzen Eingaben, um das Modell langfristig weiterzuentwickeln. Das bedeutet: Was ihr eingebt, könnte später indirekt im Verhalten des Modells sichtbar sein.
- Analyse durch Menschen: In bestimmten Fällen können Mitarbeitende Einträge prüfen, um Fehler oder Missbrauch zu erkennen.
Das bedeutet: Eure Eingaben verlassen euer System und liegen auf fremden Servern.
Beispiele aus der Praxis
Damit das greifbarer wird, hier ein paar Szenarien:
- Unkritisch:
- Ihr bittet ChatGPT um zehn kreative Ideen für ein Kindergeburtstag-Motto.
- Ihr lasst euch Synonyme für das Wort „innovativ“ vorschlagen.
- Ihr erstellt eine Liste mit Inspirationen für euer nächstes LinkedIn-Posting.
→ Hier sind keine sensiblen Daten im Spiel – kein Risiko.
- Heikel:
- Ihr ladet einen Vertragsentwurf hoch, um ihn „einfacher“ formulieren zu lassen.
- Ihr kopiert eine interne Kunden-E-Mail in den Chat und bittet um eine passende Antwort.
- Ihr fragt nach einer Strategie für euer Unternehmen und erwähnt konkrete Umsatzzahlen.
→ Diese Daten sind vertraulich. Sobald sie in ChatGPT eingegeben werden, können sie potenziell auf fremden Servern gespeichert sein.
Warum das Risiko real ist
Es gab bereits mehrere Vorfall-Beispiele in Unternehmen:
- Mitarbeitende haben versehentlich Kundendaten in ChatGPT eingetippt, um schnell eine Antwort zu generieren.
- In einem anderen Fall wurden interne Quellcodes von Software mit ChatGPT „optimiert“ – und damit vertrauliche Technik öffentlich preisgegeben.
Genau solche Situationen machen ChatGPT im professionellen Einsatz problematisch, wenn keine klare Datenstrategie existiert.
Unterschied zwischen "Nutzung" und "Training"
Wichtig ist auch zu verstehen:
- Manche Anbieter (z. B. OpenAI in bestimmten Tarifen) verwenden eure Eingaben nicht für Trainingszwecke – aber sie werden trotzdem technisch verarbeitet und gespeichert.
- Andere Anbieter behalten sich eine Weiterverwendung für Modellverbesserung vor.
Das heißt: Auch wenn Daten nicht direkt "wieder auftauchen", sind sie nicht mehr ausschließlich unter eurer Kontrolle.
Was sind eigentlich persönliche Daten – und was nicht?
Persönliche Daten sind alle Informationen, die sich direkt oder indirekt auf eine Person beziehen. Das reicht von Name, Adresse und Telefonnummer bis hin zu subtileren Angaben wie E-Mail-Adressen, IP-Adressen oder Kombinationen von Datenpunkten, die Rückschlüsse auf eine Person zulassen.
Nicht-persönliche Daten sind beispielsweise:
- allgemeine Fachtexte,
- statistische Werte ohne Personenbezug,
- frei verfügbare Informationen aus öffentlichen Quellen.
Die große Gefahr liegt darin, dass wir oft unbewusst persönliche Daten preisgeben, etwa wenn wir ein Dokument hochladen oder einen Chat mit internen Details füttern.
Warum ist Anonymisierung keine einfache Lösung?
Viele denken: "Kein Problem, ich anonymisiere meine Daten vorher." Das ist ein guter Ansatz – aber nicht immer narrensicher.
Denn:
- Anonymisierung muss bewusst und sorgfältig erfolgen.
- Schon kleine Details können reichen, um Personen wieder erkennbar zu machen.
- Automatische Tools helfen, sind aber niemals zu 100 % zuverlässig.
Ein Beispiel: Wenn ihr schreibt „Der CEO einer großen Schweizer Versicherung mit Sitz in Zürich“, ist es ziemlich offensichtlich, um wen es geht – auch ohne Namen.
Wann ist ChatGPT unbedenklich – und wann braucht es Alternativen?
Ich empfehle euch, zwei Szenarien klar zu unterscheiden:
- Unbedenkliche Use Cases (Testen, Kreativität, Brainstorming):
- Ideen für einen Blogpost sammeln
- Sprachvarianten ausprobieren
- Inspirationen für ein Eventkonzept holen
- Heikle Use Cases (Dauerhafter Einsatz mit sensiblen Daten):
- Kundenkommunikation mit personenbezogenen Informationen
- Bearbeitung interner Dokumente
- Analyse vertraulicher Geschäftsdaten
Vorteile von SwissGPT gegenüber ChatGPT
SwissGPT wurde speziell für datenschutzkritische Anwendungen entwickelt. Die wichtigsten Vorteile:
- Serverstandort Schweiz: Alle Daten bleiben innerhalb der Schweiz.
- Datensicherheit nach Schweizer Standards: Strenge Datenschutzgesetze bieten ein höheres Schutzniveau als viele internationale Anbieter.
- Keine Nutzung der Daten zum Training: Eure Eingaben fließen nicht in die Weiterentwicklung des Modells ein.
- Unternehmenstransparenz: Klare Regeln zum Umgang mit sensiblen Informationen.
Damit ist SwissGPT für viele Organisationen, die auf Datenschutz angewiesen sind, die deutlich sicherere Wahl.
Was wir von Kindern lernen können
In meinen Workshops mit Kindern fällt mir immer wieder auf: Sie sind oft erstaunlich gut über Datenschutz informiert. Sie wissen, dass man seinen echten Namen oder die eigene Adresse im Netz besser nicht preisgibt.
Interessanterweise sind oft ihre Eltern weniger sensibilisiert. Das zeigt mir, wie wichtig es ist, grundlegendes Wissen über Datenschutz aktiv in Unternehmen und Teams zu bringen.
Fazit: Chancen nutzen, Verantwortung übernehmen
ChatGPT ist ein mächtiges Werkzeug für Kreativität und Effizienz – aber nur, solange wir bewusst mit unseren Daten umgehen.
Für unverbindliches Testen oder kreative Anwendungen ist es ideal. Sobald es aber um sensible Informationen geht, braucht es Alternativen wie SwissGPT. Und auch das Thema Anonymisierung darf nicht auf die leichte Schulter genommen werden.
Weitere Fragen?
Gerne unterstütze ich euch beim sicheren Einsatz von KI. Ob als Sparring-Partnerin, in Workshops oder bei der Auswahl der passenden Technologie.
Wenn ihr Fragen habt oder das Thema vertiefen wollt, meldet euch gern direkt bei mir – ich freue mich auf eure Nachricht.
Am liebsten per WhatsApp Nachricht oder als E-Mail.
FAQ: ChatGPT und Datenschutz
1. Speichert ChatGPT meine Daten?
Ja, Eingaben können gespeichert und für Trainingszwecke genutzt werden – je nach Anbieter-Einstellungen.
2. Kann ich ChatGPT sicher im Unternehmen nutzen?
Nur, wenn keine sensiblen Daten verarbeitet werden oder wenn eine sichere Alternative wie SwissGPT gewählt wird.
3. Was sind sensible Daten?
Dazu gehören Namen, Adressen, Finanzdaten, Kundendetails oder interne Geschäftsinformationen.
4. Sind anonyme Daten wirklich anonym?
Nicht immer – oft lassen sich Personen über Kombinationen von Datenpunkten wieder identifizieren.
5. Darf ich ChatGPT für Kundenprojekte einsetzen?
Nur, wenn die Daten keine Rückschlüsse auf Personen zulassen und interne Richtlinien dies erlauben.
6. Wo werden die Daten von ChatGPT verarbeitet?
Bei OpenAI typischerweise auf Servern außerhalb der Schweiz bzw. der EU.
7. Welche Vorteile hat SwissGPT?
Server in der Schweiz, höhere Datenschutzstandards, keine Trainingsnutzung eurer Daten.
8. Wie schütze ich mich bei der Nutzung von ChatGPT?
Gebt niemals sensible oder vertrauliche Informationen ein. Nutzt es nur für kreative, unverbindliche Aufgaben.
9. Sind Kinder im Umgang mit Datenschutz wirklich besser informiert?
Ja, viele Kinder sind sensibilisiert, weil sie es in Schule und Alltag lernen – Erwachsene unterschätzen die Risiken oft.
10. Kann ich Daten selbst anonymisieren?
Ja, aber es erfordert Erfahrung und Aufmerksamkeit – automatische Lösungen sind nicht 100 % zuverlässig.
