Ausbilder beeilen sich, „Aufgaben zu überarbeiten“, um auf ChatGPT zu antworten – EdSurge News

Ausbilder beeilen sich, „Aufgaben zu überarbeiten“, um auf ChatGPT zu antworten – EdSurge News

Quellknoten: 2791028

Seit der Veröffentlichung von ChatGPT vor etwas mehr als sechs Monaten haben Studenten dies getan schnell herausgefunden wie Sie den kostenlosen KI-Chatbot dazu bringen, ihre Hausaufgaben für sie zu erledigen. Das hat bei Lehrern an Schulen und Hochschulen zu einer Welle von Aktivitäten geführt, ihre Aufgaben zu ändern, um ihnen den Umgang mit dieser neuen Technologie zu erschweren – und dabei hoffentlich menschlicher zu werden.

Doch diese „Aufgabenüberarbeitungen“, wie manche Dozenten sie nennen, umzusetzen, erweist sich als Herausforderung, und was funktioniert, hängt stark vom Thema und der Art der Aufgabe ab.

EdSurge hat mit Professoren verschiedener Disziplinen gesprochen, um herauszufinden, was sie versuchen, wenn sie Sommerkurse unterrichten oder sich auf den Herbst vorbereiten. Der Wettlauf, künstliche Intelligenz auszutricksen, ist im Gange, während Pädagogen versuchen zu verhindern, dass das kommende Semester, wie ein Professor es ausdrückte, zu einem „Semester“ wird.Hausaufgaben-Apokalypse"

Viele K-12-Lehrer und Hochschulprofessoren haben sich dafür entschieden einfach verbieten die Verwendung von ChatGPT und anderen neuen KI-Chatbots beim Erledigen von Aufgaben. Einige dieser Dozenten verwenden Tools, die versuchen, von Bots geschriebene Texte zu erkennen, wie etwa GPTZero und ein neues Tool von Turnitin. Aber selbst die Hersteller dieser Erkennungstools geben dies zu funktionieren nicht immer, und sie können sogar beschuldigen fälschlicherweise von Menschen geschriebene Aufgaben als durch KI erzeugt. Und einige Schulen haben es versucht Blockieren Sie KI-Chatbots von ihren Schulnetzwerken und -geräten aus, aber Experten sagen, dass dies praktisch unmöglich ist, da Schüler problemlos über ihre Smartphones oder über die vielen Dienste, die KI integriert haben, aber nicht auf der Liste verbotener Tools stehen, auf die Technologie zugreifen können.

Aber viele Pädagogen sind bereit, die Arbeit mit KI auszuprobieren, anstatt sich einfach zu wünschen, dass es sie nicht gäbe. Eine aktuelle Umfrage unter 1,000 K-12-Lehrern ergab, dass 61 Prozent ChatGPT vorhersagten wird „legitime Bildungszwecke haben, die wir nicht ignorieren können“."

Authentizität hinzufügen

Einige Lehrexperten sehen in KI einen Funken, um Lehrkräfte zu motivieren, Aufgaben interessanter und „authentischer“ zu gestalten, wie Bonni Stachowiak, Dekanin für Lehre und Lernen an der Vanguard University of Southern California, argumentierte ein aktueller EdSurge-Podcast.

Als Tim Bajkiewicz das jedoch hörte, sagte er, er fühle sich zu Unrecht kritisiert – denn für ihn sei dieser Rat schwieriger zu befolgen, als viele vielleicht glauben. Zum einen unterrichtet Bajkiewicz, Professor für Rundfunkjournalismus an der Virginia Commonwealth University, mehr als 200 Studenten pro Klasse. Und er unterrichtet diese Kurse online und asynchron, was bedeutet, dass die Studierenden den Stoff in ihrem eigenen Tempo durchgehen, anstatt sich jemals zur gleichen Zeit und am gleichen Ort zu treffen. Mit anderen Worten: Es gibt nicht einmal einen Zoom-Klassenraum, in dem sie zusammenkommen.

All das macht es für ihn zu einer Herausforderung, Studenten auf eine Weise kennenzulernen, die einfacher wäre, wenn er beispielsweise 20 Studenten gleichzeitig persönlich unterrichten würde. Und er kann Aufgaben nicht einfach in Einzelgespräche mit Schülern umwandeln, um zu sehen, ob sie mit dem Stoff Schritt halten, oder die Schüler sogar im Unterricht schreiben lassen, während er ihnen bei der Arbeit zusehen kann.

Bajkiewicz sagt, er verbringe Zeit damit, seine Aufgaben für einen Einführungskurs in Massenkommunikation, den er unterrichtet, anzupassen, da er glaubt, dass einige seiner Schüler bereits ChatGPT nutzen, um sich die Arbeit zu ersparen.

Beispielsweise klangen bei einer kürzlichen Hausaufgabe einige der eingegangenen Hausaufgaben nicht wie typische Studentenarbeiten, an die er gewöhnt war. Also ließ er diese Aufgaben durch ein KI-Erkennungstool laufen, das feststellte, dass sie wahrscheinlich von Bots geschrieben wurden.

„Schüler dazu zu bringen, etwas zu schreiben, war schon immer eine so solide Form der Beurteilung – wahrscheinlich eines der größeren Werkzeuge, die wir in unserem Toolkit haben“, sagt er. „Wir müssen uns jetzt ernsthaft fragen: Wann ist es sinnvoll, Studierende schreiben zu lassen?“

Als Reaktion darauf gab Bajkiewicz den Studenten die Möglichkeit, eine Aufgabe als Audioaufnahme einzureichen, und zwar mit einem Tool, für das der Campus bereits eine Lizenz hatte, in der Hoffnung, dass das Spielen schwieriger und einfacher zu erkennen wäre, ob die Studenten ihre eigene Arbeit machten.

Die Aufgabe bestand darin, eine Zusammenfassung und Reaktion auf einen ihnen zugewiesenen Film zu geben, den bahnbrechenden Dokumentarfilm „Nanook of the North“ aus dem Jahr 1922. Da es sich jedoch um einen Klassiker handelt, verfügen ChatGPT und andere Tools über zahlreiche Informationen darüber, da viele dieser Tools auf aktuellen Internetdaten trainiert wurden.

„Einige davon klangen wirklich nach Drehbuch“, sagt Bajkiewicz über die Audioaufgaben, die er bekam, und er fragt sich, ob einige Schüler einfach eine Antwort von einem Chatbot angefordert haben, die sie dann laut vorgelesen haben. „War das etwas, das aus der KI kam? Ich weiß es nicht“, fügt er hinzu.

Mit anderen Worten: Die authentischer gestaltete Zuordnung ist mit einem KI-Erkennungstool teilweise schwieriger zu überprüfen.

Was ist mit Schreibkursen?

Viele College-Kurse sind darauf ausgelegt, eine Schreibanforderung zu erfüllen, das heißt, sie sollen die Studierenden darauf vorbereiten, ihre Ideen schriftlich festzuhalten, teilweise auch, um sie auf die Kommunikation am Arbeitsplatz vorzubereiten.

Derek Bruff, Berater und stellvertretender Gastdirektor am Center for Excellence in Teaching and Learning an der University of Mississippi, kürzlich gebloggt über seine Versuche, eine Aufgabe für einen Schreibkurs zu aktualisieren, um auf die Anwesenheit von ChatGPT zu reagieren. (Bruff hat den Begriff „Assignment Makeovers“ möglicherweise mit seiner Reihe von Blogbeiträgen geprägt, die durch das Ansehen der Fernsehsendung „Extreme Makeover: Home Edition“ inspiriert wurden.)

Die Aufgabe, die er überarbeitete, stammte aus einem Kurs, den er 2012 über die Geschichte der Mathematik und Kryptographie hielt und der eine Campus-Schreibanforderung erfüllte. Für die Aufgabe forderte er die Studierenden auf, über den Ursprung und die Auswirkungen eines Codes oder Verschlüsselungssystems ihrer Wahl zu schreiben, um ihre Antwort in einem Blogbeitrag für den akademischen Blog zu verfassen Wunder & Wunder, und um es zur möglichen Veröffentlichung an den Blog zu senden. Damals sagte er zu den Studenten: „Der technische Teil Ihres Beitrags kommt der Art des Schreibens, die Mathematiker machen, am nächsten. Seien Sie also klar, präzise und prägnant.“

Wenn er sich die Aufgabe heute anschaut, wird ihm jedoch klar, dass ChatGPT und andere KI-Tools besonders gut im technischen Schreiben sind. Und er weist darauf hin, dass die Studenten sogar so tun konnten, als würden sie ihm nebenbei Entwürfe vorlegen, wie er es verlangte, die nicht von den Studenten verbessert wurden, sondern dadurch, dass das Tool dazu aufgefordert wurde, den einen oder anderen Punkt zu klären.

Die Tatsache, dass Studenten die Wahl haben, über welches Kryptographie-Tool sie schreiben möchten, gibt ihnen eine gewisse intrinsische Motivation, die Aufgabe tatsächlich selbst zu erledigen, argumentiert er. „Aber“, schrieb er, „für Studenten, die eine einfache Möglichkeit suchen, ihre Aufgabe zu erledigen, bietet KI dies auf jeden Fall.“

Eine überraschende Sache, die Bruff herausgefunden hat, als er versuchte, den Auftrag neu zu gestalten, und im Gespräch mit Kollegen, sagte er kürzlich in einem Interview mit EdSurge, ist, dass er sich besonders viel Mühe gegeben hat, Anweisungen für den Auftrag zu geben – also zu erklären, welche Art von Arbeit er bekommen musste eine gute Note – könnte es Schülern in dieser Ära von ChatGPT leichter machen, zu schummeln. Die Angabe klarer Rubriken und Erwartungen soll die Benotung transparenter und fairer machen und Gruppen, einschließlich der Projekt „Transparenz im Lernen und Lehren“. Befürworter der Idee. Aber Bruff sagt: „Je transparenter ich in der Aufgabenbeschreibung bin, desto einfacher ist es, diese Beschreibung in ChatGPT einzufügen, damit es die Arbeit für Sie erledigt.“ Da liegt eine tiefe Ironie.“

Eine mögliche Überarbeitung, sagt er, besteht darin, die Studierenden zu bitten, ihre Aufgabe in einem Tool wie Google Docs zu verfassen und das Dokument dann mit dem Professor zu teilen, damit er oder sie im Revisionsverlauf nachsehen kann, ob es verfasst oder einfach eingefügt wurde alles auf einmal.

Er sagt jedoch, dass es bei diesem Ansatz Kompromisse gibt, darunter auch Fragen der Privatsphäre der Studierenden. Außerdem fügt er hinzu: „Wenn ich wüsste, dass mein Professor mir beim Schreiben über die Schulter stünde, würde ich wahrscheinlich erstarren.“

Die Herausforderung, Programmieren zu lehren

Die vielleicht anspruchsvollsten Aufgabenüberarbeitungen werden in Kursen über Computerprogrammierung stattfinden.

Sam Lau, der diesen Herbst eine Stelle als Assistenzprofessor für Datenwissenschaft an der University of California in San Diego antritt, ist von KI begeistert, räumt aber ein, dass es „ziemlich schwierig“ sein wird, seinen Kurs über Einführungsinformatik zu unterrichten.

Um ihm bei der Vorbereitung zu helfen, war er kürzlich Co-Autor eines Post für O'Reillys Radar-Blog über „Programmieren im Zeitalter von ChatGPT unterrichten“. Für den Beitrag interviewten er und ein Kollege 20 Informatikprofessoren, um zu erfahren, wie sie ihre Aufgaben neu gestalten.

Er sagt, er wisse, dass Programmierer zunehmend KI-Tools wie verwenden GitHub-Copilot einen Bot Code schreiben zu lassen. Aber er fragt sich, wie Schüler jemals die Grundlagen des Programmierens lernen sollen, wenn sie nie lernen, selbst zu programmieren?

Lau ist jedoch optimistisch. Er sagt, seine Theorie sei, dass Schüler, selbst wenn sie Tools verwenden, die ihnen beim Schreiben von Code helfen, dennoch die Grundlagen erlernen, indem sie den Code für die Aufgabe erstellen und „überlegen müssen, was programmiert werden muss“.

Dennoch weiß er, dass einige Informatikprofessoren möchten, dass ihre Einführungsschüler das Programmieren ohne KI-Unterstützung lernen. Für diese empfiehlt er eine Aufgabe, die er von Zachary Dodds, einem Informatikprofessor am Harvey Mudd College, kennengelernt hat.

In der Aufgabe werden die Schüler aufgefordert, Computercode für einen zufälligen „Spaziergang“ entlang einer Zahlenlinie zu schreiben. Anschließend werden die Schüler gebeten, einen zweiten Zufallsläufer zu programmieren, der sich auf Kollisionskurs mit dem ersten befindet. Ein Teil der Aufgabe besteht darin, dass die Schüler eine Geschichte über diese beiden Charaktere erfinden und erklären, warum sie auf dem Weg sind. Ein Schüler könnte zum Beispiel sagen, dass es sich um zwei Ameisen auf einem Baumstamm handelt und die eine der anderen sagt, wo das Essen ist, oder dass es sich um zwei Freunde handelt, die versuchen, zum Lebensmittelgeschäft zu gehen. Die Idee besteht darin, einer ansonsten alltäglichen Programmieraufgabe ein spielerisches Element zu verleihen.

Könnte KI im Wesentlichen dazu verwendet werden, sowohl die Geschichte als auch den Code zu erfinden?

Nun ja, gibt Lau zu. „Irgendwann stellt sich als Dozent die Frage, wie weit die Schüler gehen werden“, sagt er. „Wenn sie bereit sind, so weit zu gehen, denken und glauben wir nicht, dass wir versuchen sollten, Zeit damit zu verbringen, diese Studenten dazu zu bringen, ihre Aufgaben zu erledigen.“

Ein Balanceakt

Das Beste, was Lehrer tun können, ist vielleicht, ihre Aufgaben so interessant oder ungewöhnlich zu gestalten, dass die Schüler zwar schummeln könnten, dies jedoch mit größerem Aufwand verbunden wäre. Schließlich könnten die meisten Schlösser an Häusern geknackt werden, aber irgendwann akzeptieren wir ein Gleichgewicht zwischen der Leichtigkeit, mit der der Hausbesitzer zu seinem Haus gelangt, und der Herausforderung, die es für einen Kriminellen mit sich bringen würde, einzubrechen.

Ethan Mollick, außerordentlicher Professor für Management an der University of Pennsylvania, hat den Begriff „Hausaufgaben-Apokalypse“ geprägt. Eine seiner wichtigsten Empfehlungen: Probieren Sie a Klassenzimmer umgedreht, bei dem Studierende Vorlesungen per Video ansehen und die Unterrichtszeit mit aktiven Lernübungen verbringen.

„Es gibt Licht am Ende des KI-Tunnels für Pädagogen, aber es werden Experimente und Anpassungen erforderlich sein“, schreibt er in seinem Newsletter. Eine nützliche Sache. „In der Zwischenzeit müssen wir realistisch sein, wie viele Dinge sich in naher Zukunft ändern werden, und jetzt mit der Planung beginnen, was wir als Reaktion auf die Hausaufgaben-Apokalypse tun werden.“

Bruff, der Lehrberater, sagt, sein Rat an jeden Lehrer sei, bei den Schülern keine „Wir-gegen-die-Mentalität“ zu hegen. Stattdessen, so schlägt er vor, sollten Lehrkräfte zugeben, dass sie auch noch Strategien und Grenzen für neue KI-Tools ausarbeiten, und mit den Schülern zusammenarbeiten, um Grundregeln dafür zu entwickeln, wie viel oder wie wenig Tools wie ChatGPT zur Erledigung von Hausaufgaben verwendet werden können.

Was denken Studierende?

Johnny Chang, ein angehender Doktorand an der Stanford University, organisiert eine bevorstehende Online-Veranstaltung Konferenz zum Thema KI in der Bildung in der Hoffnung, mehr Studentenstimme in Gespräche über Lehre und KI einzubringen.

Er schlägt vor, dass Dozenten, was auch immer sie mit ihren Aufgaben tun, um sich an ChatGPT und andere Tools anzupassen, die Schüler um Input bitten sollten – und bereit sein sollten, ihre Aufgaben ständig zu überarbeiten, da die Technologie so schnelllebig ist.

„Was Sie derzeit entwerfen, könnte veraltet sein, sobald Studenten aufspringen und eine Lücke finden“, sagt er.

Zeitstempel:

Mehr von Ed Surge