If you're seeing this message, it means we're having trouble loading external resources on our website.

Wenn du hinter einem Webfilter bist, stelle sicher, dass die Domänen *. kastatic.org und *. kasandbox.org nicht blockiert sind.

Hauptinhalt

Wie die Voreingenommenheit von KI unser Leben beeinflusst: Lektionsplan

Was sind die Auswirkungen der Voreingenommenheit von KI?
Common sense education

Wie die Voreingenommenheit von KI unser Leben beeinflusst: Lektionsplan

Klassen 6-12
20 Minuten
Genau wie Menschen kann auch künstliche Intelligenz Fehler machen. Das kann bedeuten, dass sie einfach nur Tomaten mit Äpfeln verwechselt. Aber die Auswirkungen von KI-Fehlern sind oft viel gravierender. KI-Tools können dazu führen, dass schädliche Stereotypen und Ungerechtigkeiten in der Gesellschaft weiterverbreitet werden. In dieser Unterrichtseinheit denken die Schüler kritisch über Voreingenommenheit von KI nach und untersuchen, wie sie sich auf die Welt auswirkt.
Ein Roboter neben einer Waage der Gerechtigkeit

Ziele

  • Verstehe, dass die Voreingenommenheit von KI Menschen auf unterschiedliche Weise beeinflussen kann.
  • Denke über die negativen Auswirkungen von KI-Vorurteilen nach.

Vokabular

  • Voreingenommenheit der KI – wenn ein KI-Tool eine falsche oder problematische Entscheidung trifft, weil es aus Trainingsdaten gelernt hat, die nicht alle Menschen, Orte und Dinge korrekt berücksichtigt haben
  • Trainingsdaten – die Informationen, die einer KI zur Verfügung gestellt werden, damit sie lernt, wie bestimmte Aufgaben zu erledigen sind

Was du brauchst

Schritt für Schritt

  1. Frage: Was ist Voreingenommenheit von KI? Wie kommt es dazu? (Folie 4)
  2. Präsentiere die Folien 5-6 und erkläre, dass Voreingenommenheit bei KI auftritt, wenn ein KI-Tool eine falsche oder problematische Entscheidung trifft, weil es aus Trainingsdaten gelernt hat, die nicht alle Menschen, Orte und Dinge richtig berücksichtigt haben. Und Trainingsdaten sind die Informationen, die einer KI gegeben werden, damit sie lernt, wie sie eine bestimmte Aufgabe erledigt.
  3. Erkläre: Voreingenommenheit von KI wirkt sich darauf aus, wie zuverlässig, fair und vertrauenswürdig KI-Tools sind. Und sie können sich auch auf Einzelpersonen oder Gruppen auswirken, selbst wenn sie sich gar nicht dafür entschieden haben, das Werkzeug zu benutzen. Werfen wir einen Blick auf ein Szenario (Folie 7).
  4. Verteile das Arbeitsblatt Trick-or-Treat KI und lies das Skript durch (Folien 8-9).
  5. Erkläre den Schülern, dass der Bonbon-Automat mit Voreingenommenheit einer KI arbeitet und dass sie die Möglichkeit haben werden, darüber nachzudenken, wie sich diese Voreingenommenheit der KI auf andere auswirkt.
Bitte die Schüler, die Fragen mit einem Partner zu beantworten, und fordere sie dann auf, sich gegenseitig auszutauschen. Verwende die Folien 10-18, um die Diskussion zu leiten, oder verwende die Lehrerversion des Arbeitsblatts.
  1. Präsentiere Folie 19 und lass die Schüler darüber nachdenken, was Menschen tun können, wenn sie Voreingenommenheit von KI bemerken oder erleben.
  2. Was soll Frau Igwe tun, wenn sie von diesem Problem erfährt?
  3. Was können die Erfinder des Bonbon-Automaten tun, um ihr Produkt für alle fairer zu machen?
  4. Erkläre: Voreingenommenheit von KI zu melden kann Unternehmen helfen, ihre Produkte zu verbessern. In diesem Fall könnten die Erfinder des Bonbon-Automaten daran arbeiten, mehr Trainingsdaten hinzuzufügen, damit er möglichst viele verschiedene Arten von Halloween-Kostümen besser erkennen kann (Folie 20).
  5. Frage: KI wird anhand von realen Daten trainiert, die ihr von Menschen zur Verfügung gestellt werden, und wenn diese Daten voreingenommen (oder unvollständig) sind, kann auch die KI voreingenommen sein. Was sind einige der negativen Auswirkungen und Folgen von Voreingenommenheit von KI? (Folie 21)
Fordere die Schüler auf, zu antworten, zeige dann Folie 22 und gehe auf einige der negativen Auswirkungen ein.
  • Unfaire Behandlung: Wenn ein KI-Tool voreingenommen ist, könnte es Entscheidungen treffen, die für bestimmte Gruppen von Menschen ungerecht sind.
  • Fortbestehende Stereotypen: Wenn ein KI-Tool aus Daten lernt, die Stereotypen enthalten (z.B. Rasse oder Geschlecht), kann es Entscheidungen treffen, die auf diesen vorgefassten Meinungen basieren.
  • Chancenungleichheit: Voreingenommenheit von KI kann auch die Chancen einiger Menschen einschränken, indem sie eine andere Gruppe ungerechtfertigt bevorzugt.
  • Fehlinformationen: Wenn ein KI-Tool aus voreingenommenen Informationen lernt, kann es am Ende falsche oder unvollständige Informationen erstellen und verbreiten.
Wenn es die Zeit erlaubt, ist dies eine gute Gelegenheit, ein Echtes Beispiel für die negativen Auswirkungen von Voreingenommenheit von KI mit anzuschauen und zu diskutieren.
  1. Erkläre: Das Wissen über Voreingenommenheit von KI kann uns helfen, kritisch zu denken und verantwortungsbewusst zu handeln, wenn wir KI einsetzen. Wenn wir bemerken, dass Voreingenommenheit von KI einen negativen Einfluss auf jemanden oder etwas hat, können wir helfen, indem wir es dem Unternehmen melden (Folie 23).

Willst du an der Diskussion teilnehmen?

Noch keine Beiträge.
Verstehst du Englisch? Klick hier, um weitere Diskussionen auf der englischen Khan Academy Seite zu sehen.