Ein Jahr Chat GPT – noch nie ist eine Tech-Anwendung schneller bei den Usern angekommen. Und die rasante Entwicklung auf dem Gebiet der generativen künstlichen Intelligenz geht immer weiter. Bilder können immer besser und in nie dagewesener Qualität generiert werden, Sprachaufnahmen, die täuschend echt klingen, können immer leichter selbst produziert werden. Das bringt viele Chancen etwa beim Thema Barrierefreiheit, aber eben auch jede Menge Freiraum für die so genannten Deep Fakes mit sich. Selbst Profi-Faktenchecker*innen kommen längst an ihre Grenzen. Und auch beim ChatGPT-Entwicklungsunternehmen OpenAI ist im Hinblick auf den aktuellen Führungs-Poker nicht klar, in welche Richtung sich die mächtige Maschine entwickeln soll – es geht um Gemeinwohl und Vorsicht versus Kommerzialisierung und Risiko.
Im Sommer zeigte eine EU-weite Umfrage im Auftrag der Bertelsmann-Stiftung, dass 54 Prozent der Befragten in den vergangenen Monaten häufig oder sogar sehr häufig verunsichert waren, ob Informationen im Internet wahr sind oder nicht. Gefragt ist deshalb mehr denn je die so genannte Media Literacy, also unsere eigene Medienkompetenz. Und das nicht nur bei jüngeren Menschen, die immer mehr Nachrichten und Clips über Plattformen wie TikTok konsumieren, sondern auch bei Jahrgängen, die noch gelernt haben, dass jede Nachricht und jedes Video ja nur echt sein kann.
Die Tech- und Medienwelt hat erkannt, dass dringender Handlungsbedarf besteht. Aber es ist nicht leicht, schnelle und einfache Tools zu entwickeln, die eine so genannte „Provenienzforschung“ in Sekunden ermöglicht. Wer hat das Bild aufgenommen, in welchem Zusammenhang? Informationen dazu könnten bald über ein digitales Wasserzeichen oder einen digitalen Fingerabdruck in den sozialen Netzwerken geliefert werden. Content-Authentifizierung ist eines der drängendsten Zukunftsthemen – auch, um der noch stärkeren Spaltung über die so genannten Echokammern auf den Plattformen entgegen zu wirken. Hier sollten die Betreiber noch stärker in die Pflicht genommen werden.
Die EU ist hier beispielsweise mit dem Digital Services Act oder der neuen KI-Regulierung aktiv. Bei Sheconomy können Sie lesen, wie dies von EU-Politikerin Katarina Barley und Prof. Dr. Alena Buyx, Vorsitzende des Deutschen Ethikrates, beurteilt wird. Auch das Thema Media Literacy wird von der EU adressiert. Die Regulierung hinkt noch stärker als sonst der Technik hinterher. Deshalb sind wir selbst mehr denn je gefragt, unser Verhalten in den sozialen Netzwerken zu prüfen. Aber vielleicht liegt hier auch eine Chance, die Nutzung generell wieder etwas zu reduzieren und genauer zu schauen, welche vertrauenswürdigen Quellen der eigene Feed abbilden sollte. Nicht sofort der ersten Empörung nachgeben und auf den „Teilen“-Button klicken. Andere Menschen im Zweifel um Rat fragen, sich selbst stetig weiterbilden. Vertrauen ist gut, Media Literacy ist besser.