:strip_exif():quality(75)/medias/2651/b73f73c4c19644e365716821e0f9a91f.jpeg)
Die Wikipedia-Redaktion steht vor einer neuen Herausforderung: Ein Ansturm von falschen Inhalten, die von künstlicher Intelligenz (KI) wie ChatGPT generiert werden, bedroht die Glaubwürdigkeit der Online-Enzyklopädie. Um dieser Bedrohung entgegenzuwirken, haben engagierte Wikipedia-Nutzer das WikiProject AI Cleanup ins Leben gerufen. Dieses Projekt vereint Freiwillige, die sich der Aufgabe widmen, Wikipedia-Artikel auf KI-generierte Falschinformationen zu untersuchen und diese zu bearbeiten oder zu löschen.
Wie erkennt man KI-generierte Inhalte?
Ilyas Lebleu, einer der Initiatoren des WikiProject AI Cleanup, erklärt, dass sein Team die Krise erkannt hat, als sie auf Sätze stießen, die sich unnatürlich anfühlten, als wären sie von einem Chatbot verfasst. Um ihre Vermutung zu bestätigen, testeten sie diese Sätze mit ChatGPT und stellten fest, dass die Ergebnisse stark an die fraglichen Wikipedia-Einträge erinnerten.
"Wir fanden einige Sätze, die typisch für KI-generierte Texte sind, und das half uns, schnell eine Reihe erschreckender Beispiele zu finden, die tatsächlich von KI erstellt wurden", erklärt Lebleu. "Daraufhin beschlossen wir, dieses organisierte Projekt zu starten, um unsere Techniken und Erkenntnisse zu bündeln."
Ein erschreckendes Beispiel: Die nicht existierende Festung
Ein besonders erschreckendes Beispiel ist der Artikel über die osmanische Festung namens Amberlisihar, die angeblich im 15. Jahrhundert erbaut wurde. Der Artikel war detailliert und umfasste den Standort und die Bauwerke der Festung. Nach eingehender Überprüfung stellte sich jedoch heraus, dass Amberlisihar nie existiert hat! Alle Informationen im Artikel waren frei erfunden und mit einigen wahren Informationen vermischt, um den Artikel glaubwürdig erscheinen zu lassen. Dieser Fall zeigt deutlich, wie KI eingesetzt werden kann, um falsche Informationen zu verbreiten und die Glaubwürdigkeit von Wikipedia zu untergraben.
Nicht nur neue Artikel betroffen
Der Missbrauch von KI beschränkt sich nicht auf neue Artikel. Auch viele alte Artikel wurden mit KI-generierten Texten aktualisiert, sogar solche, die bereits von der Wikipedia-Redaktion geprüft wurden. Es stellt sich die Frage, wie KI-generierte Inhalte in bereits existierende Artikel gelangen können, selbst wenn diese bereits von erfahrenen Wikipedia-Nutzern bearbeitet wurden.
Gründe für den Missbrauch von KI
Obwohl Lebleu und andere Redakteure die genauen Gründe für den Missbrauch von KI nicht kennen, können wir Vermutungen anstellen. Wikipedia ist eine offene Plattform, auf der jeder zum Redakteur werden kann. Diese Offenheit macht die Plattform anfällig für Manipulationen. Auch der zunehmende Einsatz von KI in der Bildung spielt eine Rolle. Viele Universitäten verbieten ihren Studenten inzwischen die Verwendung von Wikipedia als Informationsquelle für ihre Aufgaben, da die Gefahr besteht, dass KI-generierte Inhalte unkritisch übernommen werden.
Der Kampf gegen KI-generierte Falschinformationen geht weiter
Der Kampf gegen den Missbrauch von KI ist ein Marathon, kein Sprint. Das Team von Wikipedia hat allerdings klargestellt, dass sie entschlossen sind, die Plattform für ihre Nutzer zu schützen. Sie werden weiterhin mit neuen Methoden und Strategien kämpfen, um KI-generierte Inhalte zu erkennen und zu entfernen. Die Wikipedia-Redaktion setzt dabei auf die Unterstützung der Community und den Einsatz von technologischen Werkzeugen, um die Glaubwürdigkeit der Plattform zu wahren. Die Zukunft von Wikipedia hängt davon ab, ob es gelingt, den Missbrauch von KI einzudämmen und die Plattform für alle Nutzer sicher und verlässlich zu halten.