Ein Beitrag von Sophie Hundertmark
Sophie Hundertmark ist Expertin für den praktischen Einsatz von Künstlicher Intelligenz mit Schwerpunkt auf Chatbots, AI-Strategien und verantwortungsvoller Technologieintegration. Sie ist Forscherin und Dozentin an der Hochschule Luzern und schreibt derzeit ihre Dissertation im Bereich Conversational AI an der Universität Fribourg. Als Beraterin begleitet sie Unternehmen, Verwaltungen und Bildungsinstitutionen bei der Einführung wirksamer KI-Lösungen. Mehr zu Sophie Hundertmark auf LinkedIn.
Zur sprachlichen und stilistischen Erstellung – ebenso wie zur Übersetzung – wurde ein CustomGPT eingesetzt. Dieses basiert auf dem Sprachmodell GPT-5 von OpenAI und wurde von Sophie Hundertmark persönlich entwickelt.
In den letzten Monaten erlebe ich in meinen Projekten immer wieder dieselbe Diskussion: Wird die künstliche Intelligenz uns Menschen bald ersetzen – oder bleibt sie ein Werkzeug, das uns unterstützt? Viele sind fasziniert von den Möglichkeiten, gleichzeitig aber verunsichert durch Schlagzeilen über Halluzinationen, Manipulationen und ethische Risiken.
Für mich ist klar: Kritisches Denken bleibt die wichtigste Kompetenz in Zeiten von KI. Nur wenn wir die Ergebnisse einer Maschine hinterfragen, können wir fundierte und verantwortungsvolle Entscheidungen treffen. Gleichzeitig zeichnet sich ab, dass die Zukunft nicht in einer reinen Automatisierung liegt, sondern in der Kollaboration von Mensch und Maschine. KI wird zu unserem Sparringspartner, Coach und Beschleuniger – niemals aber sollte sie völlig losgelöst von menschlicher Kontrolle agieren.
In diesem Beitrag zeige ich euch, warum kritisches Denken unersetzlich bleibt, wie sich die Mensch-KI-Kollaboration entwickeln wird und weshalb dieser Ansatz auch die einzige ethisch vertretbare Lösung ist.
Warum kritisches Denken wichtiger ist denn je
Künstliche Intelligenz beeindruckt durch ihre Geschwindigkeit und Präzision. Doch egal, wie leistungsfähig ein System wird: KI halluziniert, verzerrt Daten und spiegelt die Bias ihrer Trainingsgrundlagen wider. Das heisst, wir können uns niemals blind auf ihre Antworten verlassen.
KI-Halluzinationen sind unvermeidbar
Studien belegen, dass Halluzinationen in Large Language Models (LLMs) systembedingt unvermeidbar sind. Diese Systeme haben keine echte Verankerung in der Realität und unterscheiden nicht zwischen wahr und falsch. Genau deshalb brauchen wir Menschen die Fähigkeit, Ergebnisse zu überprüfen, kritisch einzuordnen und gegebenenfalls zu korrigieren.
Kritisches Denken als Gegengewicht
In Workshops und Beratungsprojekten erlebe ich oft, wie Unternehmen fasziniert von KI-Outputs sind – ohne zu hinterfragen, wie valide diese Ergebnisse wirklich sind. Kritisches Denken sorgt dafür, dass wir die Kontrolle behaltenund nicht in die Falle tappen, KI-Antworten für objektive Fakten zu halten.
Praxis-Tipp: Baut in euren Teams bewusst Reflexionsschleifen ein. Stellt immer die Fragen:
- Welche Datenbasis liegt dem Ergebnis zugrunde?
- Könnten Bias oder Manipulationen enthalten sein?
- Welche Konsequenzen hätte eine Fehlentscheidung?
Die Mensch-KI-Kombination als nachhaltige Lösung
Schon heute zeigt sich: Die spannendsten Anwendungsfälle entstehen nicht durch vollständige Automatisierung, sondern durch kluge Kombination.
Modelle der Zusammenarbeit
- Human-in-the-Loop (HITL): Menschen prüfen jede Entscheidung – unverzichtbar in Bereichen wie Medizin oder Recht.
- Human-on-the-Loop (HOTL): Menschen überwachen, greifen aber nur im Bedarfsfall ein – zum Beispiel in der Verkehrssteuerung.
- Human-out-of-the-Loop (HOOTL): Vollautonome Systeme – sinnvoll nur bei klar begrenzten Routineaufgaben.
Die grösste Chance liegt darin, KI als verlängerten Arm unserer Intelligenz zu sehen. Sie kann Daten analysieren, Muster erkennen und Vorschläge machen – wir Menschen bringen Kontext, Ethik und Werte ein.
KI als Sparringspartner statt Ersatz
In meinen Projekten mit Banken oder im Bildungsbereich hat sich gezeigt: Die besten Ergebnisse entstehen, wenn Mitarbeitende KI nicht als Bedrohung, sondern als Coach oder Assistenten wahrnehmen. Die Maschine liefert Input, die Menschen treffen die finale Entscheidung.
Die ethische Dimension der Kollaboration
Die Geschichte der KI-Ethik zeigt, wie schwierig es ist, zwischen Innovation und Verantwortung die Balance zu halten. Zu oft haben wirtschaftliche Interessen die Debatten über Fairness und Transparenz verdrängt.
Vom Idealismus zum Pragmatismus
Ursprünglich gab es grosse Hoffnungen, dass strenge ethische Leitlinien den Einsatz von KI regulieren würden. Doch in der Praxis zeigt sich: Unter Marktdruck setzen sich oft die schnelleren und profitableren Lösungen durch.
Das bedeutet aber nicht, dass Ethik überflüssig ist. Im Gegenteil: Nur eine Mensch-KI-Kollaboration mit klaren Regeln kann langfristig Vertrauen schaffen.
Verantwortung bleibt menschlich
Ob in der Medizin, im Journalismus oder im militärischen Kontext – Verantwortung darf nie an eine Maschine delegiert werden. KI-Systeme können Entscheidungen vorbereiten, aber die letzte Instanz muss immer der Mensch bleiben.
Bildung als Schlüsselkompetenz
Damit wir die Chancen von KI nutzen und gleichzeitig die Risiken kontrollieren können, brauchen wir AI Literacy – also Bildung, die kritisches Denken und technisches Verständnis verbindet.
Was Unternehmen tun können
- Mitarbeitende regelmässig zu KI-Kompetenztrainings einladen.
- Reflexion und Diskussion über KI-Outputs in den Alltag integrieren.
- Fachwissen aus Ethik, Recht und Technologie zusammenbringen.
Zukunft nur im Zusammenspiel
Wenn wir auf die aktuelle Entwicklung schauen, wird klar: Die Zukunft gehört nicht der Maschine allein, sondern der Zusammenarbeit zwischen Mensch und KI.
- Kritisches Denken bleibt unverzichtbar.
- KI ist am wertvollsten als Sparringspartner, nicht als Ersatz.
- Ethik muss in der Praxis gelebt und nicht nur diskutiert werden.
Ich bin überzeugt: Nur in dieser Kombination können wir die Potenziale von KI ausschöpfen und gleichzeitig sicherstellen, dass sie im Sinne unserer Gesellschaft wirkt.
Weitere Fragen?
Gerne unterstütze ich euch bei der Entwicklung eurer eigenen Custom GPTs oder bei der Frage, wie ihr Kontext clever in eure KI-Systeme integriert – selbstverständlich unter Berücksichtigung des Datenschutzes. Ich freue mich immer über eure Nachrichten.
Am liebsten per WhatsApp Nachricht oder als E-Mail.
Häufig gestellte Fragen (FAQ)
1. Warum ist kritisches Denken im Umgang mit KI so wichtig?
Kritisches Denken hilft uns, KI-Outputs zu hinterfragen, Fehler zu erkennen und fundierte Entscheidungen zu treffen. Ohne diese Fähigkeit besteht die Gefahr, falsche oder verzerrte Informationen ungeprüft zu übernehmen.
2. Kann KI jemals kritisches Denken ersetzen?
Nein. KI kann Daten analysieren und Muster erkennen, aber kritisches Denken ist eine menschliche Kompetenz, die auf Werten, Erfahrung und Kontext basiert.
3. Was bedeutet Mensch-KI-Kollaboration?
Mensch-KI-Kollaboration beschreibt die Zusammenarbeit von Menschen und künstlicher Intelligenz. Dabei nutzt der Mensch die Stärken der KI – Geschwindigkeit, Datenanalyse – bringt aber eigene Urteilsfähigkeit und ethisches Denken ein.
4. Welche Risiken entstehen, wenn wir KI unkontrolliert einsetzen?
Unkontrollierter KI-Einsatz kann zu Fehlentscheidungen, Halluzinationen, Manipulationen oder ethischen Konflikten führen. Ohne menschliche Aufsicht bleibt die Verantwortung unklar.
5. Was ist der Unterschied zwischen Human-in-the-Loop und Human-on-the-Loop?
- Human-in-the-Loop: Der Mensch prüft jede KI-Entscheidung.
- Human-on-the-Loop: Der Mensch überwacht, greift aber nur bei Bedarf ein.
Beide Modelle sichern, dass die Verantwortung beim Menschen bleibt.
6. Wie können Unternehmen kritisches Denken im Umgang mit KI fördern?
Durch Trainings, Workshops und Reflexionsschleifen. Mitarbeitende sollten lernen, KI-Ergebnisse zu hinterfragen und nicht nur blind zu übernehmen.
7. Was versteht man unter AI Literacy?
AI Literacy bedeutet KI-Kompetenzbildung. Sie umfasst technisches Wissen, kritisches Denken und ethisches Bewusstsein im Umgang mit KI-Systemen.
8. Warum ist eine Mensch-KI-Kombination nachhaltiger als reine Automatisierung?
Reine Automatisierung ignoriert ethische und gesellschaftliche Werte. Nur die Kombination von technischer Effizienz (KI) und menschlicher Verantwortung ist langfristig tragfähig.
9. Welche Rolle spielt Ethik in der KI-Nutzung?
Ethik sorgt dafür, dass KI-Systeme fair, transparent und verantwortungsvoll eingesetzt werden. Sie schützt vor Missbrauch und sichert das Vertrauen in die Technologie.
10. Wie sehe ich KI im Alltag am besten – als Werkzeug oder Partner?
Am sinnvollsten ist es, KI als Sparringspartner oder Coach zu betrachten. Sie liefert wertvolle Unterstützung, ersetzt aber niemals den Menschen in seiner Verantwortung.



