Ist KI neutral?
Im Rahmen eines Workshops zum Thema Künstliche Intelligenz (KI) haben wir spannende Einblicke gewonnen und unterschiedliche Sichtweisen auf KI kennengelernt. Besonders beschäftigt hat uns dabei eine Frage, die auch nach dem Workshop noch im Raum steht: Ist KI neutral?
Diese Frage betrifft uns alle – im Alltag, im Beruf und zunehmend auch im gesellschaftlichen Miteinander. In Zeiten, in denen KI nicht mehr nur als technisches Werkzeug dient, sondern immer stärker unser Denken und unsere Entscheidungen beeinflusst, ist es umso wichtiger, sich intensiv mit ihr auseinanderzusetzen.
Was ist KI – und warum ist Neutralität so relevant?
Unter dem Begriff Künstliche Intelligenz versteht man Computersysteme, die in der Lage sind, Aufgaben zu übernehmen, die normalerweise menschliche Intelligenz erfordern – zum Beispiel Sprache verstehen, Muster erkennen oder Entscheidungen treffen. Besonders im Fokus stehen dabei sogenannte Large Language Models (LLMs), wie zum Beispiel OpenAI/ChatGPT oder Perplexity. Diese Modelle generieren auf Basis riesiger Datenmengen innerhalb weniger Sekunden Texte – von einfachen Alltagstipps bis hin zu komplexen Erklärungen wissenschaftlicher oder gesellschaftlicher Themen.
Doch mit der wachsenden Verbreitung dieser Systeme stellt sich die Frage:
Können diese Technologien wirklich neutral agieren?
Neutralität bedeutet in diesem Zusammenhang: Unvoreingenommenheit, Objektivität und Gerechtigkeit. In einer Zeit, in der Algorithmen mitentscheiden, welche Inhalte wir sehen, welche Bewerbungen eine Chance haben oder welche Kredite genehmigt werden, ist es essenziell, dass diese Systeme keine Gruppen bevorzugen oder benachteiligen.
Wie funktionieren LLMs?
Um zu verstehen, ob KI neutral ist, muss man zunächst verstehen, wie sie „lernt“. Modelle wie ChatGPT werden mit riesigen Textmengen trainiert – aus Büchern, Websites, Foren, wissenschaftlichen Artikeln und vielem mehr. Die KI zieht aus diesen Daten statistische Muster und nutzt sie, um auf neue Eingaben passende Antworten zu generieren.
Doch: Diese Daten stammen aus der realen Welt – und die ist alles andere als neutral.
Zusätzlich wird ein Modell wie ChatGPT im sogenannten „Feintuning“ von Menschen bewertet:
• Welche Antwort ist hilfreicher?
• Welche Formulierung ist respektvoller?
• Welche Inhalte gelten als toxisch oder diskriminierend?
Das bedeutet, dass hinter jeder KI eine Vielzahl menschlicher Entscheidungen steckt. Die Auswahl der Daten, die Gewichtung von Antworten und die Definition von problematischen Inhalten – all das beeinflusst die „Persönlichkeit“ der KI. Und dabei fließen zwangsläufig gesellschaftliche, politische und kulturelle Prägungen ein.
Ein prägnantes Beispiel zeigt, wie gefährlich solche Verzerrungen sein können:
Fallbeispiel: Amazon und die Bewerbungs-KI
Amazon entwickelte ein KI-System, das Bewerbungen automatisch bewerten sollte – mit dem Ziel, schneller geeignete Kandidaten zu identifizieren. Doch das System bevorzugte systematisch männliche Bewerber. Der Grund: Die KI wurde mit historischen Daten aus früheren Bewerbungsverfahren trainiert – und diese spiegelten die männerdominierte Tech-Branche wider. Weil die meisten erfolgreichen Bewerbungen in der Vergangenheit von Männern stammten, übernahm die KI dieses Muster unbewusst. Weibliche Bewerbungen wurden daher häufig schlechter bewertet. Als Amazon das Problem erkannte, wurde das Projekt 2018 eingestellt.
Dieses Beispiel zeigt: Wenn KI mit verzerrten Daten trainiert wird, reproduziert sie diese Verzerrung – oft ohne dass es bemerkt wird.
Ich habe die KI selbst gefragt, ob sie denn neutral sei. Ihre klare Antwort lautete: Nein.
„Nein, ich bin nicht neutral, weil ich von Menschen erstellte Daten nutze, die oft Vorurteile enthalten. Außerdem treffen meine Entwickler Entscheidungen darüber, welche Daten ich verarbeite und wie ich funktioniere. Dadurch spiegeln meine Ergebnisse die gesellschaftlichen Werte, Ungleichheiten und Bias wider, die in den Trainingsdaten und im Design stecken. Außerdem beeinflusst der Kontext meiner Anwendung, wie meine Ergebnisse wahrgenommen werden – das macht Neutralität für mich unmöglich.“
Fazit – Der menschliche Blick bleibt unverzichtbar
Die Vorstellung, dass KI objektiv und unvoreingenommen ist, hält einer genaueren Analyse nicht stand. Auch wenn Systeme wie ChatGPT in beeindruckender Weise menschliche Sprache imitieren und scheinbar neutrale Antworten geben – sie beruhen auf Trainingsdaten, die von Menschen ausgewählt und bewertet wurden. Damit tragen sie automatisch gesellschaftliche Vorurteile in sich.
Das bedeutet nicht, dass KI per se schlecht oder gefährlich ist. Im Gegenteil – sie kann ein kraftvolles Werkzeug sein, um Prozesse zu erleichtern, Zugang zu Wissen zu ermöglichen oder kreative Impulse zu liefern. Aber sie darf nicht als „neutrale Instanz“ missverstanden werden. Denn dieser Irrglaube kann dazu führen, dass wir ihr blind vertrauen – und diskriminierende Muster unkritisch übernehmen.
Was also tun?
• Kritisch hinterfragen: Wer hat die KI trainiert? Mit welchen Daten? Für welchen Zweck?
• Menschliche Verantwortung bewahren: Entscheidungen mit gesellschaftlicher Tragweite sollten nie vollständig an KI delegiert werden.
Abschließend bleibt festzuhalten: KI ist nicht neutral. Und genau deshalb braucht es unseren reflektierten, menschlichen Blick – um mit ihr verantwortungsvoll und gerecht umzugehen.