Meinung & Analyse Gegenwind

Smartphone, Smartphone in der Hand – Zeig mir die schönste Frau im Land

„ChatGPT, schreib einen Artikel zum Thema Künstliche Intelligenz.“ Ganz so einfach ist es dann doch nicht. Aber: Die KI kann uns bereits viel Arbeit im Alltag abnehmen. ChatGPT wird für viele zum Freund. Aber wie ehrlich ist so eine KI eigentlich?

In der Kolumne „Gegenwind“ gehen die Volontäre von Nordsee-Zeitung, Kreiszeitung Wesermarsch und Zevener Zeitung auf gesellschaftliche Debatten ein.

In der Kolumne „Gegenwind“ gehen die Volontäre von Nordsee-Zeitung, Kreiszeitung Wesermarsch und Zevener Zeitung auf gesellschaftliche Debatten ein. Foto: NZ-Grafik

Dass Frauen ihre Gesichter mit Filtern aufhübschen und ihre Körper mit Photoshop bearbeiten, ist in den sozialen Medien inzwischen normal. Weiß doch keiner, die meisten Abonnenten hat man ohnehin noch nie in natura gesehen. Aber zwischen den echten, bearbeiteten Gesichtern verbergen sich mittlerweile auch Personen, die es gar nicht gibt. Sie sind nicht bearbeitet, sondern frei erfunden. Erstellt von einer künstlichen Intelligenz.

Auffällig ist dabei, dass diese erfundenen Frauen perfekt sind. Gibt man einem KI-Bildergenerator die Anweisung, ein Bild von einer schönen Frau zu erstellen, sehen die Ergebnisse meistens so aus: schlank, sportlich, braune Augen. Oft blond, aber auch mal brünett. Was fehlt, ist Diversität. Bei Männern sieht es ähnlich aus. Groß und muskulös muss er sein – laut KI. Der Dreitagebart darf ebenfalls nicht fehlen. Aber wieso bedeutet Schönheit für die KI Perfektion?

Künstliche Intelligenz weiß nicht mehr, als wir

„Die KI macht das nicht böswillig“, sagt Dustin Klepper, einer der Gründer der Firma neuraflow in Bremerhaven. „Künstliche Intelligenz hat kein Empfinden, sie gibt nur das wieder, was ihr beim Pre-Training beigebracht wurde“, erklärt er. Bei diesem Training werde die Künstliche Intelligenz mit Wissen „gefüttert“. Sie wird angelernt. „Die KI ist ein Spiegel der Gesellschaft“, sagt Pascal Nobereit, ebenfalls Gründer von neuraflow. „Sie geht immer der Frage nach, welches Ergebnis gerade am wahrscheinlichsten ist.“ Die KI weiß also eigentlich nur das, was ihr von den Menschen „beigebracht“ wurde.

Künstliche Intelligenz kann auch mal falsch liegen

„Wenn man die KI auf Bücher von 1945 trainieren würde, würde sie deren Inhalt als richtig erachten“, erklärt Klepper. Stellt man also eine Frage, sucht die KI das wahrscheinlichste Ergebnis aus allen Antwortmöglichkeiten raus. Und das ist das Idealbild: sportlich, gepflegt, perfekt. Und noch etwas haben die Bilder gemeinsam: Sie zeigen keine Diversität, also keine Vielfalt.

„Da hat Google schon einmal nachjustiert, um ihre KI Gemini diverser zu machen“, erzählt Klepper. „Der Eingriff der Entwickler war aber zu viel.“ So habe die KI etwa einen Wehrmachtssoldaten mit dunkler Hautfarbe erstellt, als nach einem Nazi gefragt wurde. Fragte man nach einem afrikanischen Stamm, bekam man eine asiatische Familie. „Also wurde diese Änderung wieder rückgängig gemacht“, erklärt Klepper.

Steigt in Hollywood bald die Arbeitslosenrate?

Die täuschend echt aussehenden KI-Bilder könnten auch den Filmstars zum Verhängnis werden, denn wenn eine KI heute kleine Filmchen generieren kann, könnten bald auch Blockbuster möglich sein. Dass Künstliche Intelligenz auch in der Lage ist, erotische Filme mit berühmten Gesichtern zu erstellen, ist ebenfalls bekannt. Dafür gibt es sogar extra KI-Pornografikgeneratoren im Internet. Müsste es nicht also verboten werden, diese KI überhaupt weiterhin zu benutzen?

„Die Technologie ist nicht kontrollierbar“, sagt Nobereit, „und jeder hat sie“, fügt er hinzu. Schauspieler wären in Zukunft also arbeitslos – das kann sich zumindest Klepper vorstellen. Einerseits fände er die Vorstellung auch interessant, zu sehen, was durch Technik heutzutage möglich gemacht werden kann. „Ich finde es aber auch besonders, mal ins Theater zu gehen“, erzählt er. „Da sieht man noch, was der Mensch selbst auf die Beine stellen kann.“

Wenn Künstliche Intelligenz zu halluzinieren beginnt

Die KI kann aber auch falschliegen. Wenn es ihr beispielsweise an Kontext fehlt, könne sie zu „halluzinieren“ beginnen. Dabei kommt die KI zu einem Ergebnis, das zwar überzeugend wirken kann, aber falsch ist. Hierbei können die Ergebnisse nicht mit den angelernten Trainingsdaten gerechtfertigt werden.

Also: Wie ehrlich ist KI eigentlich? Antwort: Nur so ehrlich, wie der Mensch, der sie füttert.

Feenke Hornbostel

Volontärin

Feenke Hornbostel ist in Bremerhaven geboren und in Schiffdorf aufgewachsen. Seit März 2024 ist sie Volontärin bei der NORDSEE-ZEITUNG in Bremerhaven.

nach Oben