ChatGPT schreibt Geschichten übers Radfahren

  • Nachdem regelmäßig Sorgen geäußert werden, ChatGPT werde dafür sorgen, dass Schüler keine eigenen Leistungen mehr erbringen werden, wollte ich mal ausprobieren, inwiefern das Elektronenhirn denn überhaupt brauchbare Gedichte oder Kurzgeschichten schreiben kann. Einfach mal so just for fun:

    Okay, hatte ich mit meinen Englischkenntnissen wahrscheinlich nicht so schön hinbekommen. Nun eine Kurzgeschichte mit absurden Zielvorgaben:

    Geschichten ohne Happy End kann ChatGTP allerdings nicht leiden:

    Obwohl das Ding nicht versteht, was es schreibt, sondern mehr oder weniger nur Wahrscheinlichkeiten berechnet, wie Sätze funktionieren, find ich’s schon recht beeindruckend. Das ist tatsächlich definitiv besser als der Kram, den ich damals im Englischunterricht in der Schule abgeliefert habe.

  • Ich hatte ja schon mal im Thread "Wann kommt das 9-Euro-Ticket? ein Beispiel dafür gezeigt, dass ChatGPT ganz brauchbare Leserbriefe schreiben kann.

    Das funktioniert vor allem dann gut, wenn man das Ergebnis anschließend noch ein wenig verfeinert.

    Ullie
    5. Februar 2023 um 13:32

    Das ist der Link zum ChatGPT formulierten Leserbrief.

  • ChatGTP hat bei mir im Deutschunterricht der Oberstufe bereits 10 Punkte in der letzten Deutschklausur erhalten.

    Ich musste wegen einer fehlerhaften Epochenabgrenzung Punkte abziehen; Orthografie, Aufbau, Grammatik und Syntax waren ebenso überdurchschnittlich gut.

    Die spontane Idee eines Schülers, ein Sonett über "Käse und Kommunismus" zu verfassen, wurde sogar bravourös gemeistert: Inhalt und Form waren überzeugend.

    „Zeigen wir dem staunenden Ausländer einen neuen Beweis für ein aufstrebendes Deutschland, in dem der Kraftfahrer nicht nur auf den Autobahnen, sondern auf allen Straßen durch den Radfahrer freie, sichere Bahn findet.“ (Reichsverkehrsministerium, 1934)

  • ChatGTP hat bei mir im Deutschunterricht der Oberstufe bereits 10 Punkte in der letzten Deutschklausur erhalten.

    Ich musste wegen einer fehlerhaften Epochenabgrenzung Punkte abziehen; Orthografie, Aufbau, Grammatik und Syntax waren ebenso überdurchschnittlich gut.

    Die spontane Idee eines Schülers, ein Sonett über "Käse und Kommunismus" zu verfassen, wurde sogar bravourös gemeistert: Inhalt und Form waren überzeugend.

    Das bezeugt doch im Wesentlichen die gute Qualität des im Internet Geschriebenen? Denn das ist m.W. die "Lernquelle" von ChatGPT.

  • Oder es verfasst schon jetzt scharfsinnige Beiträge unter Synonym.

    Das habe ich mich schon manches Mal gefragt bei Diskussionsforen. Ins Extrem gesteigert: Könnte es sein, dass du der einzige Mensch bist, der an diesem Diskussionsforum beteiligt ist?

    Ich vermute allerdings, dass so ein KI-Programm nicht in der Lage ist, quasi wie ein Perpetuum mobile die Energie, hier anstatt der Energie, die neuen Beiträge und Gedankengänge alleine aus sich selbst zu schöpfen, plus dem einen Teilnehmer in dem Diskussionsforum, der tatsächlich ein Mensch ist.

    Aber wer weiß?

  • Künstliche Intelligenz (KI) birgt Gefahren hinsichtlich möglicher Desinformationskampagnen, da KI-Systeme darauf ausgelegt sind, große Mengen an Daten zu verarbeiten und Muster in ihnen zu erkennen. Desinformationsersteller könnten KI-Systeme nutzen, um gezielte Kampagnen zu erstellen und zu verbreiten, die auf bestimmte Zielgruppen abzielen und ihre Meinungen und Überzeugungen beeinflussen könnten. Durch die Verwendung von Deep Learning-Algorithmen könnten Desinformationsersteller sogar personalisierte Desinformationskampagnen erstellen, die auf das individuelle Nutzerverhalten zugeschnitten sind.

    Eine weitere Gefahr von KI im Zusammenhang mit Desinformationskampagnen ist die Möglichkeit, Deepfakes zu erstellen. Deepfakes sind manipulierte Medieninhalte wie Videos oder Bilder, die mithilfe von KI erstellt werden. Sie können verwendet werden, um politische Kandidaten, Prominente oder andere öffentliche Personen in peinliche oder kompromittierende Situationen zu bringen. Da Deepfakes oft sehr überzeugend sind und schwer von echten Medieninhalten zu unterscheiden sind, könnten sie dazu beitragen, die öffentliche Meinung zu manipulieren und Desinformationskampagnen zu verstärken.

    Schließlich besteht eine weitere Gefahr darin, dass KI-Systeme selbst lernen können, Desinformationskampagnen zu erstellen. Durch die Verwendung von generativen Modellen können KI-Systeme automatisch Texte, Bilder oder Videos erstellen, die sich wie authentische Medieninhalte anfühlen, aber tatsächlich Desinformationen enthalten. Dies könnte zu einem Anstieg der automatisierten Desinformationskampagnen führen, die schwer zu erkennen und zu bekämpfen sind. Es ist daher wichtig, dass Forscher und Entwickler von KI-Systemen geeignete Schutzmaßnahmen ergreifen, um die Verwendung von KI für Desinformationskampagnen zu verhindern.

    Wird künstliche Intelligenz wie ChatGPT zum Propagandawerkzeug?
    Gezielte Desinformationskampagnen bedrohen Demokratien weltweit. Intelligente Sprachmodelle könnten diese Gefahr künftig deutlich verschärfen. Eine Wunderwaffe…
    www.faz.net
  • Da Deepfakes oft sehr überzeugend sind und schwer von echten Medieninhalten zu unterscheiden sind, könnten sie dazu beitragen, die öffentliche Meinung zu manipulieren und Desinformationskampagnen zu verstärken.

    Es gibt ein ganz einfaches Mittel gegen Deepfakes: Noch mehr Deepfakes.

    Wenn das ganze Internet und jedes Smartphone erst mit Deepfakes von jedem und allem überschwemmt sind, wird niemand mehr glauben was er dort sieht. Olaf Scholz als Drag Queen? Fake. Olaf Scholz umarmt Putin? Fake. Olaf Scholz schüttelt Olearius die Hand? Fake.

    Solange Dummheit als plausible Erklärung ausreicht, sollte man keinen Vorsatz annehmen.

  • Es gibt ein ganz einfaches Mittel gegen Deepfakes: Noch mehr Deepfakes.

    Wenn das ganze Internet und jedes Smartphone erst mit Deepfakes von jedem und allem überschwemmt sind, wird niemand mehr glauben was er dort sieht. Olaf Scholz als Drag Queen? Fake. Olaf Scholz umarmt Putin? Fake. Olaf Scholz schüttelt Olearius die Hand? Fake.

    Du setzt aber voraus, dass die Menschen daran interessiert sind, tatsächlich ihre Medienkompetenz anzuwenden, um die Wahrheit zu erkennen Lügen zu entlarven.

    Ich behaupte: Das sind sie gar nicht. Das Netz ist heute schon durchflutet von Falschinformationen, von einseitigen Darstellungen und Berichten, in denen entscheidende Aspekte womöglich nicht den Raum finden, den sie verdient hätten (und nein, damit möchte ich so genannte Qualitätsmedien gar nicht ausklammern). Aber die Leute glauben es trotzdem, weil es eben das eigene Weltbild unterfüttert — und weil solche Falschinformationen beinahe immer darauf abzielen, eine einfache Lösung für komplizierte Sachverhalte in einer komplexen Welt anzubieten. Daran will man glauben.

    Mit etwas Medienkompetenz lassen sich die meisten Falschinformationen, die mir täglich in den gesellschaftlichen Netzwerken begegnen, recht einfach entlarven — noch: Die drei Sätze auf einem knalligen Sharepic, das durch irgendwelche AfD-nahen Facebook-Gruppen gereicht wird, entlarve ich im Handumdrehen auf dem Smartphone während ich auf dem Klo sitze. Wenn aber umfangreichere Berichte auftauchen, etwa die angebliche Enthüllung über Nordstream 2 oder die so genannten Twitter-Files, dann kostet es mich deutlich mehr Zeit, angemessen darauf zu antworten. Und erstens liest das dann keiner, weil’s zu lang ist, und zweitens kostet es mich womöglich über eine halbe Stunde, meine Einlassung darauf zu tippen.

    Das steht dann in keinem Verhältnis mehr. Und mit einer künstlichen Intelligenz, die Texte zwar noch längst nicht im Sekundentakt fabriziert, aber nicht weit davon entfernt ist, wird es umso leichter, neue Geschichten zu stricken, die sich wie ein wohlig-warmer Mantel um das verunsicherte Gemüt des Empfängers legen.

    Und ein Foto mit Scholz oder Putin fiele da gar nicht so sehr auf: Wer ohnehin fest daran glaubt, unsere ganze Welt wäre eine Simulation unter der Knute von Klaus Schwab, findet auch für ein solches Foto einen würdigen Platz in der eigenen Gedankenwelt.

    Insofern ist es wirklich bedauerlich, dass unsere Welt zwar wahnsinnige technologische Fortschritte macht, wir aber als Gesellschaft längst nicht mithalten können. Als meine Eltern geboren wurden, gab es noch nicht einmal das Farbfernsehen. Als ich Anfang dieses Jahrtausends auf die gymnasiale Oberstufe besuchte, war es uns immer noch streng verboten, das Internet zur Recherche zu nutzen oder Hausaufgaben am Computer zu erstellen. Und selbst heute werden allzu häufig (aus durchaus nachvollziehbaren Gründen) elektronische Geräte auf dem Schulgelände komplett verboten. Wo soll also Medienkompetenz erlernt werden — vom technischen Verständnis der so genannten neuen Medien, um in der rasend schnell vorpreschenden IT-Branche mithalten zu können, mal ganz zu schweigen?

  • Nun gab es Desinformationskampagnen allerdings auch schon vor Erfindung des Internets. B**D, Murdoch, Hearst, Hugenberg, ...

    Mit der BILD war man aber nur zehn Minuten nach dem Kauf konfrontiert und musste sich eventuell in der Mittagspause mit Kollegen noch mal darüber unterhalten.

    Den albernen Sharepics mit Falschinformationen ist man heutzutage beinahe rund um die Uhr ausgesetzt, sobald man das Smartphone einschaltet. Die Algorithmen der gesellschaftlichen Netzwerke sorgen mittlerweile mit einer gewissen Verlässlichkeit dazu, auch den größten Unsinn in die Timelines zu spülen — Zorn und Wut wirken als Interaktionsträger nunmal deutlich stärker als Freude und Glück.

  • Zitat

    Den albernen Sharepics mit Falschinformationen ist man heutzutage beinahe rund um die Uhr ausgesetzt, sobald man das Smartphone einschaltet.

    Äh? Nein! Fakebook und Twitter sind keine Autostartprogramme des Betriebssystems ...

  • Und weiter zum Thema Falschinformationen: der am 1.9.2022 wieder aufs Gleis gesetzte Nachtzug Hamburg-Stockholm, der bis jetzt in einer bunten Mischung aus Wagen unterwegs war (nämlich den einzigen, die eine Zulassung für Dänemark hatten), wird ab dem heutigen 28.2.2023 komplett aus Wagen der schwedischen Staatsbahn SJ bestehen. Aus diesem Anlass kommen Verkehrssenator Tjarks und der schwedische Botschafter zum Bahnhof Altona.

    NDR und Hamburger Abendblatt behaupten hingegen unisono, heute werde nach 28 Jahren Pause der erste Nachtzug überhaupt von Hamburg-Altona nach Stockholm starten.

    Die Leute sind weder in der Lage, die Pressemeldung der SJ bis zum nächsten Absatz zu lesen (da steht die Vorgeschichte drin) noch ins eigene Archiv zu gucken.

    Die Tagesschau hat auch ein Jahr lang wahrheitswidrig behauptet, die von der DB 2016 an die ÖBB verkaufen Schlafwagen mit Baujahr 2003-2006 seien "museumsreif" gewesen, auch von "durchgelegenen Pritschen" war die Rede. Alle internen und externen Hinweise und Korrekturaufforderungen haben nichts geholfen (so wie bei Fakebook & Co), sondern erst als die einjährige Vorhaltefrist abgelaufen war, verschwand der geschäftsschädigende Unfug von der Website.

  • Äh? Nein! Fakebook und Twitter sind keine Autostartprogramme des Betriebssystems ...

    Das nicht, nein, aber die Leute verbringen einen wesentlichen Teil ihrer Screen Time mit solchen Anwendungen.

    Und weiter zum Thema Falschinformationen

    Das sehe ich zwar als Falschinformation an, hinter der womöglich eine gewisse Agenda steckt, aber ich denke nicht, dass diese Falschinformation auf eine politische Spaltung der Gesellschaft abzielt. Insofern halte ich das für ärgerlich, aber nicht gesellschaftszersetzend.

    Wobei natürlich diese eingestreuten Narrative mit museumsreifen Schlafwagen, die eigentlich jünger als ein ICE 3 sind, natürlich durchaus die Verkehrswende torpedieren. Über dieses Phänomen, dass Radfahrer rote Ampeln „missachten“, Kraftfahrer rote Ampeln hingegen „übersehen“ (und das überdies meistens nur aufgrund der tiefstehenden Sonne oder anderer Widrigkeiten), hatten wir ja auch schon mal gesprochen. Und irgendwo verläuft da natürlich auch die Schwelle, ab der solche Formulierungen oder Falschinformationen tatsächlich zu einer wirtschaftlichen oder politischen Gefahr werden, etwa wenn die Debatte um aussterbende Innenstädte beinahe allein mit der Problematik fehlender Parkplätze bespielt wird, aber leider gänzlich außer Acht gelassen wird, dass die Zeit der großen Warenhäuser als Anker der Innenstadt womöglich einfach vorbei ist… das kann eine Stadt auf kommunaler Ebene tatsächlich nachhaltig beschädigen.

  • ChatGPT kann auch ein Gedicht über den Münchner Bürgermeister schreiben; ich teile mal das Ergebnis, weil ich es ganz nett finde :)

  • Dann überlassen wir der KI in der nächsten Ausbaustufe doch alle weiteren Planungen zu einer sicheren Radinfrastruktur. Oder schafft die KI diese dann etwa ab?