Künstliche Intelligenz

Von Künstlicher Intelligenz (englisch: AI – Artifical Intelligence) spricht man, wenn Technologien menschliches Denken und Lernen imitieren. Programme wie ChatGPT produzieren Texte, die klingen, als seien sie von einem Menschen verfasst worden. Wenn Sie der KI Aufforderungen schreiben – sogenannte Prompts – und Antworten bekommen, fühlt sich das wie Chatten zwischen zwei Menschen an. Ist es aber nicht.

Programme wie ChatGPT können Ihnen einiges an Arbeit abnehmen. Die KI kann E-Mails formulieren, Texte zusammenfassen, Dinge erklären und sogar beim Programmieren helfen.

Aber: Die KI macht auch Fehler. Die Datengrundlage bilden Texte aus dem Internet. Diese können Falschinformationen oder auch Sexismus, Rassismus oder andere Diskriminierungsformen enthalten. Diese werden in den Antworten von ChatGPT dann reproduziert.

Außerdem sind viele Fragen ungeklärt, zum Beispiel, wer das Urheberrecht an Texten hat, die auf anderen Texten basieren oder auch, wer die Verantwortung für Inhalte und Entscheidungsempfehlungen trägt, die die KI generiert.

Daher ist ein verantwortungsbewusster Umgang mit KI wichtig. Prüfen Sie Ergebnisse, die ein Programm liefert, generell kritisch. Fragen Sie sich: Sind die Antworten von ChatGPT wirklich plausibel? Vergleichen Sie sie mit zuverlässigen Quellen (Gegenchecks). Geben Sie keine persönlichen oder sensiblen Daten ein.

Info-Grafiken aus unserer Social-Media-Kampagne

  • Frage: „Was ist dein Problem, wenn du nichts mehr selber schreiben musst.“ Mit Symbol eines neuen Textdokuments und dem Hinweis „Für Sie generiert“
  • Text: „Programme wie ChatGPT können dir viel Arbeit abnehmen. Aber sie generieren auch Falschinformationen und können diskriminierend sein. Denn ihre Datengrundlage bildet gesellschaftliche (Miss-)Verhältnisse ab. Künstliche Intelligenz ist politisch. #echtjetzt

Diskriminierung durch KI

Künstliche Intelligenz erstellt Texte und Bilder anhand vorhandener Daten. Wenn diese Daten Diskriminierung oder Voreingenommenheiten enthalten, wird dies oft von KI-Systemen reproduziert.

Es kommt zum algorithmischen Bias – der algorithmischen Voreingenommenheit. Dieser entsteht durch Fehler oder Verzerrungen in der Datengrundlage oder aufgrund von Fehlern in den Design- und Trainingsprozessen der KI durch Entwickler:innen.

KI »lernt«, indem sie ihre Informationen und Datengrundlage auf Muster und logische Verbindungen analysiert und daraus Schlussfolgerungen zieht. Ein Beispiel dafür, wie dies zu Diskriminierung durch KI führen kann, sind datenbasierte Bewerbungsverfahren. Wenn einzelne Personengruppen in bestimmten Berufen unterrepräsentiert sind, könnte die KI daraus schließen, dass diese aufgrund ihres Geschlechts, ihrer Herkunft oder sonstiger Merkmale weniger gut für diese Berufe geeignet sind. Ihre Jobchancen wären geringer.

Wenn Sie Inhalte von einer KI wie Texte oder Bilder erstellen lassen, stellen Sie sich die Frage: Weisen die generierten Inhalte diskriminierende Muster auf? Oder werden nur bestimmte Personengruppen repräsentiert? Sie können die Inhalte dann selbst verändern oder durch angepasste Eingabeaufforderungen (Prompts) neu generieren lassen.

Info-Grafiken aus unserer Social-Media-Kampagne

  • Text: "Breaking the bias. Wie diskriminierend sind KI-Programme?"
  • Text: "Von Künstlicher Infelligenz (KI) spricht man, wenn Maschinen menschliche Fähigkeiten imitieren. Zum Beispiel logisches Denken, Lernen, Planen und Kreativität. Dafür verarbeitet die KI alle ihr verfügbaren Datensätze in Sekundenschnelle. So enstehen neue Informationen, Texte und Bilder. Aber auch Antworten auf Fragen und Handlungsempfehlungen."
  • Text: "Wenn die KI ein diskriminierendes Muster erlernt hat, wird sie dieses überall reproduzieren. Zum Beispiel auf sozialen Plattformen, bei Suchanfragen oder der Bild-und Textgenerierung. Das kann zur Benachteiligung und zur Verstärkung von Vorurteilen führen. Etwa gegenüber Frauen, People of Color oder anderen Gruppen."
  • Text: "Hinterfrage und überprüfe die von der KI generierten Bilder und Texte immer darauf, ob die Inhalte diskriminierend sind. Wenn das der Fall ist, kannst du sie entweder selbst verändern oder sie durch angepasste Eingabe-aufforderungen (Prompts) neu generieren lassen."
  • Text: "Künstliche Intelligenz ist politisch. #echtjetzt"

Bildmanipulationen erkennen

Haben Sie schon mal auf Social Media ein Bild gesehen, von dem Sie nicht wussten, ob es echt ist oder nicht? Mit der KI kann jede:r täuschend echte Bilder konstruieren. Viele wirken aber nur auf den ersten Blick echt. Umso wichtiger ist es, genau hinzuschauen – am besten auch auf die Details im Hintergrund.

So erkennen Sie, ob ein Bild mithilfe von KI generiert worden ist:
  • Zoomen Sie auf Details: Untersuchen Sie Bilder genau, weil in der Vergrößerung oft Unstimmigkeiten und Fehler sichtbar werden. Oft passen Übergänge nicht oder sind stark verschwommen.
  • Achten Sie auf falsche Körperproportionen: Derzeit generiert die KI häufig noch Bilder mit deformiert wirkenden Gliedmaßen. Besonders Hände, Beine, Ohren und Mundwinkel wirken oft merkwürdig.
  • Schauen Sie sich Stellen mit Text genau an: Manchmal sind auf Bildern Texte zu sehen, z.B. auf Plakaten oder Straßenschildern. Zoome an Texte heran und schauen Sie sie sich an. Wenn die Texte keinen Sinn ergeben, aus beliebigen Buchstabenkombinationen bestehen oder stark verschwommen sind, kann das Bild KI generiert sein.

Bleiben Sie informiert: Die KI entwickelt sich ständig weiter und Fehler werden laufend ausgebessert. Daher ist es wichtig, informiert zu bleiben.

Insight-Video aus unserer Social-Media-Kampagne

Quelle: Lokaler Server
Formate: video/mp4
Foto von Dr. Katja Berg vom JFF-Institut für Medienpädagogik mit Zitat "Die Technik kommt nicht über uns, wir gestalten die Technik!"

»Die Technik kommt nicht über uns, wir gestalten die Technik!«

Laut Dr. Katja Berg hat die Entwicklung von Künstlicher Intelligenz das Potenzial zu einem gesellschaftlichen Paradigmenwechsel. Nur wenn Menschen und die Gesellschaft als Ganzes in der Lage sind, kompetente und fundierte Entscheidungen zu treffen und diese Entscheidungen kritisch zu reflektieren, überlassen wir die Technikgestaltung der Zukunft nicht wenigen Monopolisten und können dazu beitragen, KI menschenzentriert und gemeinwohlorientiert zu gestalten.
Dr. Katja Berg ist wissenschaftliche Mitarbeiterin des JFF- Institut für Medienpädagogik. Sie war an Studien beteiligt, die gezeigt haben, dass Emotionen das Bild und die Bewertung von KI sowie die Bereitschaft, sich mit dieser auseinanderzusetzen, stark prägen.

Seit mittlerweile 75 Jahren begleitet das JFF – Institut für Medienpädagogik in Forschung und Praxis die Medienaneignung von Menschen in unterschiedlichen Lebensphasen in einer besonderen Verbindung aus Theorie, Forschung und Praxis. Beratung, Evaluation, Workshops und eigene Veröffentlichungen: Das JFF bietet Medienpädagogik in allen Formen aus einer Hand.

Weiterführende Links & Literatur