Bild: erstellt mit imagen von Google

Das könnte Sie auch interessieren...

Bias: Wie objektiv ist KI?

Künstliche Intelligenz (KI) ist im Begriff, unsere Arbeits- und Lebenswelten grundlegend zu transformieren und wird schon bald ein integraler Bestandteil unseres Alltags sein. Trotz ihres Potenzials birgt KI jedoch Risiken. Eine besondere Herausforderung stellen Verzerrungen, Vorurteile und Stereotype dar, die sich aus den Daten ergeben, mit denen die KI trainiert wurde. Diese systemimmanenten Verzerrungen, bekannt als Bias, können in der Folge zu gesellschaftlichen Problemen, wie die Verstärkung von Diskriminierung, sozialen Ungleichheiten, Vorurteile, Sexismus und Rassismus führen. Diese Unterrichtseinheit zielt darauf ab, Schülerinnen und Schüler am Beispiel bildgenerierender KI für Bias zu sensibilisieren, das eigene KI-Nutzungsverhalten zu reflektieren und eine kritische Nutzung zu fördern.

 
 

Kompetenzen

Fachkompetenz
Die Lernenden

  • identifizieren und analysieren Bias und Diskriminierungsformen in KI-Systemen anhand von realen Beispielen
  • verstehen die Auswirkungen von Verzerrungen in KI In Hinblick auf Gesellschaft und sozialer Ungleichheiten
  • entwickeln ein Grundverständnis für ethische Prinzipien und Herausforderungen im Kontext künstlicher Intelligenz

Methodenkompetenz
Die Lernenden

  • setzen kritische Denkansätze ein, um Vorurteile und Bias in KI-generierten Inhalten zu erkennen und zu hinterfragen
  • arbeiten in Kleingruppen, um spezifische Diskriminierungsschwerpunkte zu untersuchen und Lösungsansätze zu erarbeiten
  • nutzen digitale Werkzeuge und Plattformen, um KI-Systeme hinsichtlich ihrer Diskriminierungspotenziale zu überprüfen?

Sozialkompetenz
Die Lernenden

  • erleben Wertschätzung in der Gruppe
  • werden für die Bedürfnisse der anderen sensibilisiert

Selbstkompetenz
Die Lernenden

  • fördern durch Gruppenarbeit ihre Kommunikations- und Kooperationsfähigkeit im Austausch über komplexe Themen
  • entwickeln Empathie und ein tieferes Verständnis für die Auswirkungen von Diskriminierung in technologiegestützten Systemen
  • üben kritisches Reflexionsvermögen und ethisches Urteilsvermögen im Umgang mit Technologie und deren gesellschaftlichen Konsequenzen
  • entwickeln Verantwortungsbewusstsein für ihr Handeln und die Gesellschaft
 
 

Didaktisch-methodischer Kommentar

KI-Modelle enthalten in der Regel ungleiche Datensätze – also eine ungleiche oder verzerrte Darstellung von Informationen in den Daten. Das kann bedeuten, dass bestimmte Gruppen oder Merkmale über- oder unterrepräsentiert sind, was zu Verzerrungen oder Vorurteilen in den Ergebnissen der KI führen kann. Der vorliegende Unterrichtsentwurf greift die Thematik von Verzerrungen (Bias), Vorurteilen, Sexismus und Diskriminierung in KI-Systemen auf und verfolgt das Ziel, Schülerinnen und Schüler für diese Probleme zu sensibilisieren. Die Lernenden erkennen, wie wichtig es ist, kritisch mit Technologie umzugehen und ethische Fragen in den Vordergrund zu rücken.

Der komplette didaktisch-methodische Kommentar zum Herunterladen:

 
 

Hintergrundinformationen für die Lehrkraft

  • Gründe für Bias
  • Probleme durch KI-Bias
  • Notwendigkeiten und Handlungsempfehlungen
  • Lösungsansätze

Die kompletten Hintergrundinformationen zum Herunterladen:

 
 

Lehrmaterialien

Arbeitsblatt 1: Analyse von KI-Systemen auf Bias

Entwickeln von Prompts und Analyse der Ergebnisse, Erstellen eines Leitfadens für die Anwendung bildgenerierender KI, PDF (857 KB)

Arbeitsblatt 3 inkl. Infotext: Wie kann KI-Bias reduziert werden?

Auswertung/Anlayse eines Videos/Texts und Verfassen eines Briefs mit Lösungsvorschlägen, PDF (843 KB)

So entsteht Bias in KI

Infotext für Schülerinnen und Schüler, PDF (1.14 MB)

Bias: Wie objektiv ist KI?

Alle Unterrichtsmaterialien, ZIP (10.59 MB)

 
 

Mediensammlung

Impressum  DruckenWebcode: lug1003585Barrierefreiheit Symbol für GebärdenspracheSymbol für Leichte Sprache