Wie muss eine geeignete Regulierung für Anwendungen der Künstliche Intelligenz (KI) aussehen? Sollte es spezielle Regelungen für die Medienbranche geben? Darüber haben Dr. Katarina Barley, Vizepräsidentin des Europäischen Parlaments, Dr. Alena Buyx, Vorsitzende des Deutschen Ethikrats und Professorin für Ethik und Dr. Wolfgang Kreißig, Vorsitzender der Direktorenkonferenz der Landesmedienanstalten (DLM) in Deutschland vor kurzem im Rahmen der Medientage München diskutiert.
Einerseits, so betonte Ethikrat-Präsidentin Buyx, seien die niedrigschwellige Verfügbarkeit von Informationen und die demokratische Teilhabe der Menschen via digitale Plattformen „ein riesiger Fortschritt“, andererseits ließen sich die Instrumente benutzen zur Manipulation und als „Fake-News-Schleudern“. Medien- und Meinungsvielfalt sichern, die Demokratie schützen und Desinformation einhegen: Das seien die großen Aufgaben nicht nur in Zeiten digitaler Medien generell, sondern vor allem angesichts der rasanten Entwicklung von KI. Einig war sich das Panel darin, dass der Faktor Mensch beim Einsatz von Künstlicher Intelligenz unverzichtbar sei.
„Der risikobasierte Ansatz der EU ist supersmart“ (Prof. Alena Buyx)
Buyx erklärte die „ethische Faustformel“ für Künstliche Intelligenz: „Anwendungen der KI sollten menschliche Handlungs- und Entfaltungsmöglichkeiten erweitern und nicht verringern. KI darf den Menschen nicht ersetzen.“ Katarina Barley bekräftigte: „Wir brauchen den menschlichen Faktor und gut ausgebildete Journalistinnen und Journalisten“. Dies sei wichtig gerade in Zeiten der Unsicherheit aufgrund von Krisen und angesichts der Menge an Nachrichten aus unterschiedlich verlässlichen Quellen.
Der Anspruch an das Vertrauen in Medien steige, so Kreißig. Nun gelte es, eine gemeinsame Haltung zu entwickeln und Ziele zu formulieren, wie mithilfe von Künstlicher Intelligenz Vielfalt und Qualität gesichert und Prozesse effektiver gestaltet werden können. Einfluss darauf wird künftig die KI-Regulierung der Europäischen Union haben – durch den geplanten Artificial Intelligence Act, der KI-Anwendungen je nach Risiko unterschiedlich streng regulieren soll. Ein Vorhaben, das die Ethik-Professorin Buyx begrüßt: „Der risikobasierte Ansatz der EU ist supersmart.“ Vorgesehen sei eine Gesetzgebung, die sich an den Gefährdungsstufen von KI orientiere.
Vier Klassifizierungen seien vorgesehen, erläuterte Barley. So könnten gefährliche KI-Anwendungen verboten werden und Hochrisikoanwendungen eine Einsatzerlaubnis erfordern. Bei geringem Risiko genüge ein Label. Unbedenkliche KI könne einfach verwendet werden. „Wir sind davon überzeugt, dass Künstliche Intelligenz Regeln braucht“, sagte die Vizepräsidentin des Europäischen Parlaments. Diese Regeln wolle die EU aber bewusst abstrakt und offen halten. Der DLM-Vorsitzende Kreißig sprach sich für ergänzende gemeinsame Standards in den Unternehmen aus. Das Problem der gesellschaftlichen Polarisierung und Filterblasenbildung löst das allerdings noch nicht. Vorstellbar sei eine öffentlich-rechtliche Social-Media-Plattform als Gegengewicht zu internationalen Konzernplattformen wie X und TikTok. Buyx: „Wie so eine Plattform aussieht, ist mir als Ethikerin egal, aber wir brauchen das dringend. Wir müssen da etwas anbieten, das braucht vielleicht seine Zeit, aber das kann wachsen. Wenn wir es nicht versuchen, sagen wir ja ‚Macht doch, was ihr wollt mit unserer Debattenkultur‘, und das geht echt nicht.“
„Nicht Anpassungswillige werden ihre Jobs verlieren“ (Prof. Yasmin Weiß)
Im Rahmen der Medientage erklärte KI- und Bildungsexpertin Prof. Dr. Yasmin Weiß von der Technischen Hochschule Nürnberg an anderer Stelle, dass KI derzeit täglich für Disruptionen im Alltag von Beschäftigten aller Branchen führen könnte. „Ja, KI wird Menschen ersetzen. Sie wird aber nur diejenigen Menschen ersetzen, die nicht bereit sind, Veränderungen in Wirtschaft und Gesellschaft anzunehmen und sie als Chance zu begreifen. Nicht-Anpassungswillige werden tatsächlich ihre Jobs verlieren“, so Weiß. Menschen in allen Teilen der Arbeitswelt stünden nun vor der Aufgabe, das Lernen neu zu lernen und damit ein neues Mindset zu entwickeln: Ein Vogel, der auf einem Ast sitze, habe deshalb keine Angst davor, dass dieser Ast abbricht, weil er wisse, dass er fliegen könne. Übertragen bedeute dies, dass die Menschen die Disruptionen durch KI bestehen würden. Sie müssten die Technik zwar nicht im Detail verstehen, aber bereit sein, diese Technik verstehen und beherrschen zu lernen.
„In künftigen Stellenanzeigen müssten also Menschen beschrieben werden, die Veränderung gestalten wollen. Wir sollten nicht diejenigen suchen, die die besten Abschlüsse haben“, sagte Weiß. Veränderungen durch KI-Anwendungen müssten durch eine transparente Prozess- und Ergebniskommunikation begleitet werden. Führungskräfte sollten Leitplanken beim Einsatz der KI im Unternehmen gemeinsam mit den Mitarbeitenden erarbeiten und durch diese Art der Partizipation Berührungsängste abbauen und kreative Potenziale freisetzen. Yasmin Weiß ermutigte den Sektor Bildung und Lehre, Wissensvermittlung auf KI aufzubauen. Das würde bedeuten, dass Studierende beispielsweise selbst erleben, wie sie Aufgaben mit und ohne Einsatz von KI lösen könnten.
„Die Chancen für KI-gestützte Text-to-Speach-Applikationen sind größer, als die Gefahren“ (Leonie Engel)
Schließlich berichtete Leonie Engel von ElevenLabs, welche Einsatzmöglichkeiten sich für KI-gestützte Text-to-Speach-Applikationen ergeben könnten. Ihr Unternehmen, das 2022 gegründet wurde, beschäftige sich vor allem mit der Synchronisation von Medieninhalten in verschiedene Sprachversionen – inklusive des synthetischen Klonens von Stimmen. Trotz potenzieller Gefahren, die sich aus dem Klonen ergeben könnten, sollten diese Tools frei und öffentlich zugänglich sein, forderte Engel: „Ich denke, dass die Chancen, die in solchen KI-Anwendungen stecken, deutlich größer sind als die Gefahren. Die Überwindung von Sprachbarrieren und eine Unterstützung der kreativen Arbeit der Medienbranche sehe ich als unschätzbaren Benefit dieser Technologie – Wissen kann damit für deutlich mehr Menschen innerhalb kürzester Zeit verfügbar gemacht werden.“
Sie selbst stelle sich jedoch auch die Frage, inwieweit durch das Klonen von Stimmen persönliche Eigenschaften und das Selbstwertgefühl von Menschen tangiert würden, zeigte sich Leonie Engel nachdenklich. Möglicherweise müsse man sich mit der Tatsache auseinandersetzen, dass eine Stimme kein persönliches Eigentum mehr sei, sondern in der KI aufgehe. Gleichzeitig resümierte sie, dass KI in den nächsten Jahren wohl viele Aufgabenfelder erschließen werde. Es gebe aber auch Bereiche, in die KI nicht vordringe. So bleibe etwa eine Schwachstelle von KI, dass sie im Bereich der Sprachgenerierung nur wenig Raum für die Emotionalisierung des Gesagten biete. Vielleicht werde das für lange Zeit der gravierendste Unterschied zur menschlichen Stimme bleiben.