Ein Bot als Herausforderung: ChatGPT

Seit November 2022 gibt es (gefühlt) kaum ein anderes Thema als ChatGPT sowohl in den klassischen Medien als auch auf Social Media. Eine Zusammenschau.

Vielleicht täuscht mich das Gefühl, aber es scheint, als gäbe es aktuell in der Bubble der Lehrenden-Community ein beherrschendes Thema: ChatGPT von OpenAI. Im November 2022 veröffentlicht ist der Prototyp eines Chatbots innerhalb der ersten Woche um eine Million Nutzer*innen reicher (Quelle: Wikipedia).

Quelle: Pixabay

Ähnlich wie das immer weiterlernende KI-basierte Übersetzungswundertool DeepL lernt ChatGPT anhand von Text, der von Menschen produziert worden ist, wobei die Quellen sehr vielfältig sind: Social Media, Bücher, geschriebene und gesprochene Sprache… Durch einen Algorithmus lernt der Chatbot die Funktionsweise menschlicher Sprache und schafft es damit, die menschliche Sprache relativ naturgetreu nachzuahmen. Man stellt eine Frage und ChatGPT antwortet. Noch sind nicht alle Antworten richtig, aber die Trefferquote ist hoch.

Schock oder Chance?

Man kann die Trefferquote nun als erschreckend oder als erstaunlich hoch bezeichnen. Fakt ist, dass das System weiterhin lernt und durch die hohe mediale Aufmerksamkeit auch zusätzlich noch trainiert wird. Etwas Besseres als die hohe mediale Berichterstattung in unterschiedlichen medialen und gesellschaftlichen Bereichen hätte dem Chatbot wohl nicht passieren können. Das zeigt auch der Wikipedia-Artikel deutlich, in dem Anwendungen und Kritik zusammengefasst sind. Eine kleine Auswahl an Berichten, die wahllos zusammengestellt ist und sich einfach erweitern ließe:

Unterschiedliche Medien, unterschiedliche Perspektiven, unterschiedliche Zugänge. Der Tenor scheint ähnlich: Unsicherheit. Ein Gefühl der Angst. Aber auch eine Chance. Und eine Herausforderung. Prognosen sind schwierig. Niemand wagt einen wirklichen Blick in die Zukunft, alles ist vage. Das liegt aber auch daran, dass wir nicht in die Zukunft blicken können, wenn wir noch gar nicht richtig in der Gegenwart angekommen sind.

ChatGPT und die Schule

Auch in der Bubble der Lehrer*innen ist ChatGPT angekommen. Zahlreiche Blogbeiträge von führenden und meinungsbildenden Köpfen finden sich zum Thema:

Noch ein Beitrag zum Thema?

Wenn ChatGPT schwafeln kann, dann kann ich das auch. Bis jetzt. Was mich an der Diskussion um ChatGPT so verwundert (ärgern tut’s mich schon lange nicht mehr), ist der Umstand, dass wir schon wieder mit einer Diskussion beginnen, die irgendwie seltsam ist. Künstliche Intelligenz kann Texte übersetzen und schreiben, kann Bilder gestalten, kann mit uns nun auch einen Dialog führen. Es wird immer schwieriger zu erkennen, ob wir mit Menschen interagieren oder mit Maschinen. Das ist schon richtig. Dieses Thema beschäftigt uns schon lange und neue Fragen tun sich auf – wie beispielsweise die Frage nach dem Urheberrecht von durch AI geschaffenen Texten oder Bildern (siehe Welche Regeln gelten für die Erzeugnisse Künstlicher Intelligenz? oder auch „Künstliche Kreativität“? – Schutz von KI und ihrer Werke durch Urheberrecht). Dass AI uns dabei helfen kann, faktenbasierte Multiple-Choice-Quizze zu beantworten, ist wenig überraschend. Wenn wir Aufgaben so stellen, dass sie auch tatsächlich von einer Maschine gelöst werden kann, dann soll es so sein.

Kein Jammern, sondern Umdenken ist gefragt

Wie lange diskutieren wir nun schon über die 4C’s (oder 4K’s), also collaboration, communication, critical thinking und creativity. Wie lange hatten wir Zeit uns mit DeepL und seinen Auswirkungen zu beschäftigen? Wie lange beschweren wir uns nun schon, dass „diese neuen“ Anwendungen dazu führen, dass die Lernenden sich nun auf diese Anwendungen verlassen und nichts mehr lernen. Ja, warum sollten sie es sich auch schwerer machen als notwendig? Wir haben in der Pandemie gesehen, dass Lernende ihre Aufgaben und Klausuren im Fremdsprachenstudium mit DeepL übersetzt haben. Die Aufgaben (als Performanzen) waren durchwegs gut (mit den normalen AI-basierten Problemen bei Homonymen beispielsweise), bei der Präsenzklausur zeigte sich aber die fehlende Kompetenz in einer AI-freien Performanz.

Es ist eine neue Kompetenz zu wissen, wann ich mich wie auf ein Programm verlassen kann und was ich wissen und können muss. Kein Faktenwissen mehr zu haben, weil „man eh alles googeln kann“, klingt verlockend. Aber die Quellen, die ich ergoogle, auf ihre Relevanz, Richtigkeit und Aktualität zu überprüfen, bedarf eines Basiswissens. Sonst kann mir ein (AI generierter) Text wirklich jedes Geschwafel und jede Meinung als Faktum verkaufen. Wenn ich alle meine Texte übersetzen lasse, anstatt sie selbst zu schreiben, dann leiden meine produktiven Sprachkompetenzen. Wenn ich mich zudem auf die Richtigkeit des Programms verlasse, ohne die Ergebnisse zu überprüfen, dann bringe ich dem Programm im schlimmsten Fall sogar noch was Falsches bei.

AI zeigt Schwächen unseres Bildungssystems und der Gesellschaft auf und die Faszination für das Maschinelle unterstützt unsere pragmatischen Zugänge. Die Leistungsgesellschaft ist nun mal output-orientiert. Der Weg ist nicht immer das Ziel. Der Prozess wird nicht immer ausreichend berücksichtigt. Solange wir uns dem beugen, brauchen wir uns über AI nicht beschweren. Danke an dieser Stelle Beat Döbeli Honegger für den Beitrag Die Frage «Wie verhindern wir die Nutzung von X in Kompetenznachweisen?» ist legitim, hat aber nur dritte Priorität.

Rob Lennon zeigt uns, wie man die Prompts, also die Anfragen, die man an ChatGPT stellt, besonders gut formulieren kann, um zu den besten Ergebnissen zu kommen:

Im österreichischen Schulfach Digitale Grundbildung lässt sich zum Beispiel fragen, wieso Rob Lennon diese Parameter nennt und welche noch fehlen sollten. Gerade zum Prompt-Schreiben finden sich auch noch weitere Ideensammlungen, wie bei Neuroflash.

Es ist aber nicht alles blöd…

… Diskussionen wie die aktuell geführten können uns weiterbringen, weil sie Reflexionen auslösen. Diese müssen aber auf einer sachlichen, objektivierten Ebene geführt werden. Schwarzweiß, Entweder-Oder bringt uns nicht weiter. Ein kühler Kopf und klarer Blick sind notwendig, um diesen aktuellen Entwicklungen entgegenzutreten und sie zu akzeptieren. Sie werden nicht einfach wieder verschwinden. Sie sind gekommen, um zu bleiben, auch wenn der Hype sicherlich nachlassen wird.

Bin ich dafür oder dagegen?

Ich seh dem Ganzen relativ gelassen entgegen, überdenke aber auch gerade meine Klausuraufgaben (vor allem essayistische Formate, die ich gerne gebe) in ihren Formulierungen und in den Perspektiven, die eingenommen werden müssen. Welche Fragen könnte eine Maschine beantworten. Wie gehe ich damit um? Ist es dann ein Plagiat? Ist es eine eigene geistige Leistung? Für mich nicht. Ich schreibe aus diesem Grund bei Klausuren auch immer den Zusatz „in Ihren eigenen Worten“ in die Aufgabenstellung. Das macht das Copy-&-Pasten schwierig. Das schließt für mich, zumindest aktuell noch (bis zum ersten Anlassfall wahrscheinlich) auch KI-generierte Texte aus. Es sind ja nicht die eigenen Worte des Prüflings. In der Zwischenzeit lese ich die spannenden Beiträge meiner Kolleg*innen und danke für ihre Überlegungen, die meine eigenen voranbringen und neue Blickwinkel ermöglichen.

Ich bin weder dafür, noch dagegen. Ich kann’s nicht ändern, aber ich kann’s zu meinem Vorteil nutzen. Es geht um das Kritisch-Sein und Kritisch-Bleiben. Das sollten wir wieder lernen. Die Stimmungs- und Panikmache, die medial gerade (vor allem in traditionellen Medien) zu spüren ist (zumindest aus meiner subjektiven Perspektive), ist auf keinen Fall zielführend und sollte auch nicht richtungsweisend sein. Keep calm and drink tea (oder was auch immer).

Ergänzung

Der Twitter-Handle @learnGPT gibt Tipps, wie man mit ChatGPT umgehen kann oder soll:

Egal, ob Fan von KI oder AI oder nicht. Diese Tipps alleine sind auch über den Bereich des Bots hinaus interessant und wertvoll. Danke an @lernenmitki für den Hinweis und die vielen weiteren Retweets zum Thema.

Einen interessanten Thread hat Florian Aigner (@florianaigner) zum Thema eröffnet:

Exkurs

Das Thema AI fasziniert anscheinend gerade auf vielen Ebenen. Die Artikel, Programme und Reaktionen zum Thema scheinen wirklich unterschiedliche Bereiche zu erobern – ein paar weitere Texte, die aktuell in meinen Timelines aufgetaucht sind und die die Aktualität des Themas für mich einfach noch weiter unterstreichen.

Weiterführendes

  • Alle in diesem Blogbeitrag genannten Beiträge finden sich gesammelt im Wakelet, das auch weiterhin um Beiträge zu ChatGPT ergänzt wird.
  • Eine zweite Sammlung auf Wakelet beschäftigt sich mit Artificial Intelligence im Allgemeinen.

Beispielprompts

Es gibt mittlerweile zahlreiche Ideen, wie man ChatGPT in den Unterricht (methodisch) einsetzen kann. Hier eine kleine Sammlung, die mit Rob Lennon (@thatroblennon) beginnt:

Diese Ideen finde ich gut – sie gehen nämlich methodisch an die Sache ran und ermöglichen einen Perspektivenwechsel, der in eine kritische Reflexion überführt werden kann.

Einige inhaltliche Anregungen zu Prompts finden sich auf MetaversePost.

3 Gedanken zu „Ein Bot als Herausforderung: ChatGPT

  • Januar 25, 2023 um 10:50 am
    Permalink

    Auch wenn man sich schon ein wenig mit dem Hype vertraut ist, diese Sammlung ist eine wertvolle Erweiterung und lässt einem nicht los, bis alle Links getestet wurden. Ich kann es auch anders sagen: „Ich verliere mich in der Tiefe und werde Chat GPT brauchen, um die Keywords zu filtern.“
    DANKE, liebe Elke.

    Antwort
  • Januar 7, 2023 um 4:09 am
    Permalink

    Gute Analyse, vielen Dank. Wir haben im Sentient Syllabus Project begonnen Resourcen und Analysen zum Thema KI in der Hochschule (oder besser: Hochschule im KI Zeitalter) zu erstellen. Dass ein Umdenken notwendig ist, ist klar. Wie das aber konkret aussehen kann, da ist noch viel zu tun. Ich hoffe unsere Ansätze helfen. Resourcen via http://sentientsyllabus.org und Analysen auf https://sentientsyllabus.substack.com Herzlichen Gruss!

    Antwort
  • Januar 5, 2023 um 6:22 am
    Permalink

    Das mit den „eigenen Worten“ hat mich auf eine Idee gebracht. Zukünftig müssen alle Präsenzarbeiten eine Schüllers digital erfasst werden. Eines KI kann nämlich auch Stil und Wortschatz analysieren. Dann lassen sich auch Hausarbeiten auf einfache Weise dahingehend bewerten, ob sie tatsächlich selbst geschrieben sind.
    Wenn die Welt komplexer wird, müssen die Analysegeräte ebenfalls komplexer werden.

    Antwort

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert