Neue Daten zeigen, welche Studiengänge den Chatbot am häufigsten nutzen – und wo er für Studierende eine „Krücke“ sein könnte.
Ob gut oder schlecht: KI-Tools sind seit der Einführung von ChatGPT Ende 2022 in der akademischen Landschaft zunehmend zur Realität geworden. Anthropic untersucht, wie das in Echtzeit aussieht.
Am Dienstag, kurz nach der Einführung von „Claude for Education“ , veröffentlichte das Unternehmen Daten darüber, für welche Aufgaben Universitätsstudenten seinen KI-Chatbot „Claude“ verwenden und welche Hauptfächer ihn am häufigsten einsetzen.
Um die Privatsphäre der Nutzer zu wahren, nutzte Anthropic Clio , das Datenanalysetool des Unternehmens, und analysierte 574.740 anonymisierte Konversationen zwischen Claude und Nutzern der kostenlosen und Pro-Version mit E-Mail-Adressen aus dem Hochschulbereich. Alle Konversationen schienen sich auf Studieninhalte zu beziehen.
Welche Arten von Schülern verwenden Claude?
Das Unternehmen stellte fest, dass Informatikstudenten mit fast 37 % die größte Gruppe der Claude-Benutzer stellten, während die Nutzung unter Studenten der Wirtschaftswissenschaften, Gesundheitswissenschaften und Geisteswissenschaften deutlich geringer ausfiel.
Dies ist nicht überraschend, da Programmierstudenten bereits Kenntnisse über KI-Tools haben und Claude sich selbst als Programmierassistent bezeichnet. Basierend auf internen Tests empfehlen unsere Experten Claude jedoch im Vergleich zu anderen Chatbots nicht für die Programmierung.
Wofür verwenden die Schüler Claude?
Anthropic kategorisierte die Gespräche der Studierenden mit Claude in vier Typen, die alle gleichermaßen vertreten waren: Direkte Problemlösung, Direkte Ergebniserstellung, Gemeinsame Problemlösung und Gemeinsame Ergebniserstellung. Die ersten beiden Typen beziehen sich auf die Suche nach Antworten auf eine Frage oder die Anforderung fertiger Inhalte, während die zweiten beiden Typen auf den Dialog der Studierenden mit Claude zur Problemlösung und Inhaltserstellung verweisen.
Fast die Hälfte aller Gespräche fiel in die Kategorie „Direkt“. Das deutet darauf hin, dass die Studierenden „mit minimalem Engagement nach Antworten oder Inhalten suchten“. In 39 % der Gespräche nutzen die Studierenden Claude offenbar, um fachübergreifende Lerninhalte zu erstellen und zu verbessern, beispielsweise durch das Entwerfen von Übungsfragen, das Bearbeiten von Aufsätzen oder das Zusammenfassen von akademischem Material. In der nächstgrößeren Gruppe (34 %) bitten die Studierenden Claude um die Erklärung technischer Aufgaben oder um Lösungen, beispielsweise beim Debuggen von Code oder beim Aufschlüsseln mathematischer Probleme.
Die Studierenden nutzten Claude auch, um Daten zu analysieren, Tools zu entwickeln, Forschung zu entwerfen, technische Diagramme zu erstellen und Inhalte zu übersetzen.
Die Nutzung variierte auch je nach Fach: MINT-Studierende nutzten Claude meist zur Problemlösung und für gemeinsame Anfragen, während Studierende der Geisteswissenschaften, Wirtschaftswissenschaften und Gesundheitswissenschaften sowohl kooperierten als auch direkte Ergebnisse anstrebten. Studierende im Bildungsbereich, einer kleineren Kategorie, zu der wahrscheinlich auch Lehrer gehören, nutzten Claude in fast 75 % der Gespräche zur Inhaltsgenerierung, beispielsweise zur Erstellung von Unterrichtsplänen und anderen Unterrichtsmaterialien.
Die Ergebnisse liefern auch Erkenntnisse darüber, wie Studierende KI zum Schummeln einsetzen könnten – ein weit verbreitetes Problem in Bildungseinrichtungen. Anthropic markierte Anfragen, die nach Antworten auf Multiple-Choice-Fragen zum maschinellen Lernen und Antworten auf Englisch-Testfragen verlangten, sowie Anfragen, Texte umzuschreiben, damit sie nicht von Plagiatsprüfern erkannt würden.
Dennoch zeigen mehrere Beispiele, wie ein Anwendungsfall sowohl auf Betrug als auch auf routinemäßige Studienvorbereitung hindeuten kann. „Beispielsweise könnte ein Gespräch zur direkten Problemlösung auf Betrug bei einer Hausprüfung oder auf die Überprüfung der eigenen Arbeit in einem Probetest abzielen“, bemerkt Anthropic. „Ob ein kollaboratives Gespräch Betrug darstellt, hängt möglicherweise auch von den spezifischen Kursrichtlinien ab.“
Anthropic stellte außerdem klar, dass es zur Gewissheit den Bildungskontext kennen müsse, in dem Claudes Antworten verwendet wurden.
Akademische Vorteile (und Kosten)
Die Verwendung von Claude weist auf mehrere Realitäten im Zusammenhang mit KI und Bildung hin – einige mit mehr Potenzial als andere.
Das Unternehmen adaptierte die Bloom-Taxonomie , ein Bildungsrahmenwerk, das kognitive Prozesse als einfach (niedrigere Ordnung) oder komplex (höhere Ordnung) einteilt, um zu verstehen, was Claudes Anwendungen für die Kompetenzentwicklung der Schüler bedeuten.
Insgesamt zeigen die Daten, dass Studierende Claude bei fast 40 % der Abfragen zum Erstellen und bei 30 % zum Analysieren verwenden. Beides gelten als komplexe kognitive Funktionen, und die Studierenden nutzten Claude in insgesamt 70 % der Fälle, um sie auszuführen.
„Es gibt berechtigte Bedenken, dass KI-Systeme den Schülern als Krücke dienen und die Entwicklung grundlegender Fähigkeiten hemmen könnten, die für das Denken höherer Ordnung erforderlich sind“, warnt der Bericht von Anthropic.
Obwohl es keine Möglichkeit gibt, zu sagen, ob die Verwendung von Claude das kritische Denken der Schüler vollständig ersetzt, fügt das Unternehmen hinzu, dass es plant, seine Forschung fortzusetzen, um „besser zu erkennen, welche [Interaktionen] zum Lernen beitragen und kritisches Denken entwickeln.“
Aber es ist nicht alles schlecht. Laut Anthropic legt die Nutzung von Claude durch Pädagogen zur Erstellung von Lehrmaterialien nahe, dass pädagogische Ansätze zur KI-Integration wahrscheinlich von einer fachspezifischen Ausrichtung profitieren würden. Die Möglichkeit, die Unterschiede in der Nutzung von Claude durch Studierende verschiedener Fachrichtungen abzubilden, könnte in Zukunft zu weiteren Erkenntnissen in diesem Bereich führen.
KI eignet sich hervorragend zur Personalisierung – beispielsweise zur Anpassung von Unterrichtsplänen und zur besseren Betreuung einzelner Schüler hat sich als vielversprechender Anwendungsfall herausgestellt. „Während herkömmliche Websuchen in der Regel nur direkte Antworten ermöglichen, ermöglichen KI-Systeme eine viel größere Vielfalt an Interaktionen und damit neue Lernmöglichkeiten“, kommentiert Anthropic die Ergebnisse und argumentiert, dass Claude beispielsweise zur Erklärung philosophischer Konzepte oder Muskelanatomie oder zur Erstellung umfassender Chemie-Lernmaterialien eingesetzt werden könnte.
In der Praxis hängt die Qualität der Chatbot-Ergebnisse jedoch stark von den Trainingsdaten ab. Fachspezifische KI kann zwar die Genauigkeit insgesamt verbessern, aber Halluzinationen sind immer möglich. Chatbots verfälschen auch regelmäßig Nachrichtenartikel . Nutzer sollten die Ergebnisse von Chatbots stets auf ihren Wahrheitsgehalt überprüfen, indem sie sicherstellen, dass alle Zitate echt und nicht nur eingebildet sind.
Mehr lesen: Fikfap: Was ist das?
Wie geht es weiter?
Anthropic merkte an, dass es „mit einem Lernmodus experimentiert, der die sokratische Methode und das konzeptionelle Verständnis gegenüber direkten Antworten betont“, und dass es Partnerschaften mit Universitäten eingeht.
Möchten Sie mehr Geschichten zum Thema KI lesen? Melden Sie sich für unseren wöchentlichen Newsletter „Innovation“ an.