If you're seeing this message, it means we're having trouble loading external resources on our website.

Wenn du hinter einem Webfilter bist, stelle sicher, dass die Domänen *. kastatic.org und *. kasandbox.org nicht blockiert sind.

Hauptinhalt

Realistische Erwartungen setzen

Ein kurzer Überblick über die Dinge, die große Sprachmodelle gut können, und die Dinge, die sie nicht so gut können - bis jetzt.

Was kann ich erwarten?

Große Sprachmodelle wie ChatGPT von OpenAI sind Computerprogramme, die auf riesigen Datensätzen trainiert wurden, um Bedeutung aus Text zu extrahieren und Sprache zu produzieren. Diese Modelle können einige Dinge sehr gut, aber sie haben auch einige Einschränkungen!
Du würdest wahrscheinlich kaum versuchen, einen Schraubenzieher zu benutzen, um einen Nagel einzuschlagen, oder? Wenn wir LLM-basierte Chatbot-Tools für Aufgaben einsetzen, für die sie entwickelt wurden, erzielen wir viel bessere Ergebnisse!

Was machen LLMs gut?

Gut: Sprachverarbeiter

Große Sprachmodelle sind hervorragend in der Lage, Bedeutungen aus Sprache zu extrahieren. Sie "verstehen" den Text nicht im menschlichen Sinne, aber sie können ihn aufnehmen und ihm einen Sinn geben, auch wenn er nicht ganz klar geschrieben ist. Sie sind mit so vielen Daten trainiert worden, dass sie gelernt haben, Muster zu erkennen und aus diesen Mustern die Bedeutung von Wörtern im Kontext abzuleiten.
Das Vereinfachen und Zusammenfassen langer, komplexer Texte ist eine der Superkräfte der KI. Sie ist gut darin, die wichtigsten Erkenntnisse zu extrahieren, aber es ist immer eine gute Idee, zu überprüfen, ob sie kritische Punkte übersehen hat!

Gut: Textgenerator

Große Sprachmodelle sind auch gut im Generieren von Text. Sie können auf eine Eingabeaufforderung hin einen Absatz oder sogar einen ganzen Artikel schreiben, der so klingt, als wäre er von einem Menschen geschrieben worden - einem Menschen mit wirklich guten Grammatikkenntnissen!

Gut: Brainstorming Partner

Lehrerinnen und Lehrer nutzen LLMs bereits, um sich Ideen für ihren Unterricht einfallen zu lassen! Mit einer klaren Anfrage und ein paar Beispielen können LLMs mehrere Variationen von Ideen generieren, wie zum Beispiel mögliche Klassenaktivitäten, interessante Thesen oder Entwürfe für Quizfragen.

Worin sind LLMs nicht so gut?

Nicht so gut: Sie erfinden Dinge!

Große Sprachmodelle können zwar Sprache zu allgemeinen Themen gut verarbeiten, geben aber manchmal falsche Informationen, die oft so aussehen, als würden sie sich etwas ausdenken. In der KI- und LLM-Branche nennt man dies "Halluzinationen". Dies kann aus einer Reihe von Gründen geschehen:
  • Fehlerhafte Trainingsdaten: Die riesigen Datensätze, auf denen LLMs trainiert werden, können Millionen von Wörtern enthalten, und sie stammen oft aus einer Vielzahl von Quellen, darunter Artikel, Bücher, das Internet und sogar Beiträge in sozialen Medien. Wenn die Trainingsdaten Ungenauigkeiten enthalten, erbt das Modell diese Fehler. Wenn die Trainingsdaten unübersichtlich oder inkonsistent sind, kann die KI Muster ableiten, die eigentlich nicht existieren, oder Informationen falsch interpretieren.
  • Alte Trainingsdaten: Es kann lange dauern, Daten zu sammeln, mit denen ein Modell trainiert werden kann, und es braucht Zeit, um das Training tatsächlich vorzunehmen. LLMs können nicht einfach mit "allem, was neu im Internet ist", "aktualisiert" werden. Das Modell weiß also nichts über Dinge, die in der jüngeren Vergangenheit passiert sind - manchmal sogar bis zu zwei Jahre in der Vergangenheit. Wenn die Trainingsdaten eines LLMs keine Grundlage für eine faktenbasierte Antwort bieten, wird das LLM halluzinieren. Einige Suchmaschinen arbeiten daran, die Modelle mit dem Internet zu verbinden, aber du solltest nicht davon ausgehen, dass jedes Modell, mit dem du zu tun hast, diese Fähigkeit hat.

Nicht so gut in Mathe!

Große Sprachmodelle führen von sich aus keine Berechnungen durch. Wenn LLMs gebeten werden, Mathematische Aufgaben zu lösen, generieren sie diese auf die gleiche Weise wie Text: probabilistisch. Aus diesem Grund können sie manchmal Fehler machen, wenn sie mit einfachen arithmetischen oder auch fortgeschrittenen mathematischen Konzepten arbeiten.
Fehler können auch auftreten, wenn das Modell aufgefordert wird, Text zu erstellen, der Zahlen oder Berechnungen enthält. Wenn die Trainingsdaten falsche Berechnungen enthalten, kann das Modell diese Fehler wiederholen. Zum Beispiel könnte das Modell sagen, dass 3(4+2)=14.

Nicht so gut: gefälschte Websites und andere „Halluzinationen“

Wie bereits erwähnt, kann ein LLM, wenn er nicht über die Daten verfügt, die er für eine korrekte Antwort benötigt, eine überzeugende Antwort erfinden - diese "Halluzinationen" kommen häufig vor:
  • Gefälschte Websites: Es kann auf eine URL verweisen, die in Wirklichkeit gar nicht existiert.
  • Falsche Websites: Es kann ein Link zu einer Website angegeben werden, die nichts mit dem Thema zu tun hat.
  • Falsche Zitate: Es könnte eine Arbeit als Quelle angegeben werden, die nie existiert hat, oder es könnte behauptet werden, dass zwei echte Autoren, die nie zusammengearbeitet haben, Koautoren einer Studie sind - oder es könnten falsche Namen für Autoren oder falsche Titel für Artikel, Forschungsstudien oder Bücher erfunden werden!

Nicht so gut: Kein tiefes Verständnis für spezielle Konzepte

Während große Sprachmodelle Sprache zu allgemeinen Themen gut verarbeiten können, sind sie nicht immer so effektiv, wenn es um die Details von hochspezialisierten Konzepten geht. Zum Beispiel können sie Schwierigkeiten haben, die Feinheiten eines komplexen medizinischen Verfahrens genau zu erkennen und zu erklären. Wenn sie dazu gedrängt werden, fangen sie an, Dinge zu erfinden (siehe unten).

Nicht so gut: Es fehlt der Kontext

Das mag offensichtlich klingen, aber die Modelle haben nicht alle Informationen über dich und dein Umfeld.Wenn du ein Schüler oder eine Lehrkraft in einer Schule bist, weiß das Modell nicht, wie die Unterrichtsreihenfolge in dieser Woche aussieht, wer einen schlechten Tag hat oder dass du eine Idee in Naturwissenschaften nie richtig verstanden hast. Es kann also Ideen vorschlagen oder Texte erstellen, die für dich oder deine Klasse keinen Sinn ergeben.

Fazit: Traue nicht! Prüfe!

LLMs sind spezielle Produktivitätswerkzeuge: Lerne, wie du sie nutzen kannst, um produktiver zu sein. Frag sie nicht nach Antworten auf Dinge, die sie nicht wissen können, sonst erfinden sie Dinge. Arbeite mit ihnen zusammen, aber verlasse dich nicht darauf, dass sie etwas schaffen.
Vorgewarnt ist gewarnt: Der einzige Weg, sich vor den Halluzinationen eines LLM zu schützen, besteht darin, alles, was es dir erzählt, auf seine Richtigkeit hin zu überprüfen.
Das Fazit: Insgesamt sind große Sprachmodelle gut darin, Sprache zu verstehen, Text zu erzeugen und Fragen zu beantworten. Sie haben jedoch Schwierigkeiten, komplexe Konzepte und Argumentationen zu verstehen. Sie haben auch kein "Urteilsvermögen".
Mit der weiteren Entwicklung dieser Modelle können und werden sie sich jedoch in diesen Bereichen verbessern!

Willst du an der Diskussion teilnehmen?

Noch keine Beiträge.
Verstehst du Englisch? Klick hier, um weitere Diskussionen auf der englischen Khan Academy Seite zu sehen.