top of page
F100_schwarz_rosa.png
Instagram Postings-8.png

Wenn KI Frauen bewusst schadet

24. Februar 2026

Künstliche Intelligenz kann so wunderbar sein: Sie korrigiert unsere Texte, hilft bei Ideen für den Geburtstag und kennt ziemlich gute Rezeptideen. Bis sie plötzlich sagt, dass „die Köchin“ gar kein Chef sein kann oder heimlich unsere Gesichter in nicht ganz jugendfreien Videos einsetzt. Oh ja – die liebe KI hat so ihre Fallen, und die treffen Frauen oft anders oder härter als Männer.


Du hast sicher schon den Begriff „Deepfake“ gehört. Klingt erstmal nach peinlichem Fake-Video von einem badenden Politiker. In Wahrheit droht hier eine deutlich ernstere KI-Realität: Deepfake-Technologie wird genutzt, um real wirkende, manipulierte Bilder und Videos zu erzeugen – besonders von Frauen in sexuellen Kontexten ohne ihr Einverständnis. Neueste Fälle erreichen gerade die Schlagzeilen: Die EU hat eine offizielle Untersuchung gegen den KI-Chatbot Grok von X (ehemals Twitter) eröffnet, weil er angeblich ungewollt sexualisierte Deepfakes von Frauen und sogar Minderjährigen generierte. 


Und das ist  leider kein Einzelfall: Studien zeigen, dass Deepfakes überwiegend Frauen betreffen – in nicht-einvernehmlichen, sexualisierten Kontexten, die massive psychische Folgen haben können. Diese Technologie ist kein Science-Fiction mehr, sondern Realität – und sie kann Ruf, Karriere und Selbstwertgefühl zerstören, bevor man „KI-Fehler“ sagen kann.


Sprache versus weibliche Stimme

Neben Deepfakes haben wir ein weiteres Problem, welches oft vernachlässigt wird. KI darf auch texten – was normalerweise super ist (endlich weniger peinliche Tipper!). Aber: Diese Systeme lernen von riesigen Datenmengen, die unsere bestehende Welt widerspiegeln – mit all ihren Vorurteilen. Das heißt:


  • Sie kann stereotype Rollenbilder reproduzieren („Manager = Mann, Pflegerin = Frau“).

  • In Übersetzungen kann sie Gender-Neutralität schlicht ignorieren oder falsche Geschlechterverteilungen erzeugen, besonders in weniger verbreiteten Sprachen.


Das ist kein technisches Eigenleben – das ist der Spiegel unserer Gesellschaft. Wenn wir also wollen, dass eine KI die Vielfalt weiblicher Stimmen hört, müssen wir sicherstellen, dass sie repräsentative und bewusste Daten bekommt. Sonst verschwindet die weibliche Sprache einfach im Algorithmus-Rauschen. 


Gender Bias – wenn KI „frauenspezifisch“ diskriminiert

Und jetzt wird’s auch noch politisch: Algorithmen entscheiden über Bewerbungen, Kredite oder Jobanalysen – und sie tun das auf Grundlage dessen, was sie gesehen haben. Wenn Historisch-Gespeichertes männlich dominiert ist, neigen KI-Modelle dazu, Frauen schlechter zu bewerten – weil die Daten es so vorgeben.


Das ist kein böser Roboter, der Frauen nicht mag. Es ist ein statistisches System, das sagt: „Hey, in den Daten sehen Männer öfter aus wie Führungskräfte – also bewerten wir dieses Profil höher.“ Boom: Geschlechterungleichheit fest codiert. Und das kann weitreichende Auswirkungen haben – vom Berufsleben bis zur Sichtbarkeit in Medien.


Und jetzt?

Bevor man jetzt denkt „Okay, KI ist böse“, atmen wir kurz durch: KI kann auch fantastisch für mehr Sichtbarkeit, bessere medizinische Diagnosen oder inklusivere Texte sein – aber nur, wenn wir sie bewusst bauen und nutzen. Fairere Daten, mehr Frauen in der Tech-Entwicklung und strenge Regularien könnten helfen, die Risiken abzufedern.nWichtig ist: KI ist kein Geschöpf mit eigener Moral. Sie spiegelt, was wir ihr geben. Und bisher geben wir ihr noch zu häufig unsere eigenen Biases mit. 


Text von Rebecca Stringa

Aktuelle Beiträge

Frauen, Gesellschaft

Gleichberechtigung klingt anders

Frauen, Familie, Gesundheit, Partnerschaft

Einsam, obwohl nie allein – wenn Mutterschaft isoliert

Frauen, Trends, Gesellschaft

„Natuerlich schoen“ – oder nur perfekt kontrolliert?

bottom of page