„Wie hast du’s mit der Ethik?“ – Gretchenfrage an die KI

Warum wir Medienmacher:innen ethische Maßstäbe brauchen, bevor wir uns auf die verführerischen Vorteile der generativen KI einlassen.

Vielleicht erinnern Sie sich an die Frage, mit der das (gut)gläubige Gretchen den Doktor Faust auf seine Werte abklopft: „Nun sag, wie hast du's mit der Religion?“. Als würde sie ahnen, dass sich das Charisma des verführerischen Unbekannten, einem Pakt mit dem Teufel verdankt. Nun ist natürlich eine KI, die mit uns spricht, kein Liebespartner - doch ein Objekt der Begierde ist sie allemal. Folgt man den Diskursen auf LinkedIn, könnte man den Eindruck gewinnen, dass jene Wirtschaftstreibende, die sich eine gewinnbringende Beziehung mit der KI erhoffen, jede Vorsicht fallen lassen. Und das ist bedenklich. Schließlich hat die neue Technologie die Kraft, unsere Gesellschaft radikal zu verändern. Doch ihr eigentliches Wesen, ihre Mechanismen und Fähigkeiten, sowie ihre Wirkung auf diejenigen, die sie nutzen, müssen wir erst noch verstehen.

Ist mein GPT empathisch?
„Warum kann die KI Empathie so gut simulieren? Und warum unterscheidet das menschliche Gehirn nicht zwischen künstlicher und echter Empathie?“, lauteten entsprechend die Fragen, die KI-Expertin Sabine Singer in ihrer unterhaltsamen Keynote der Diskussionsrunde „Ethische Kummunikation und KI – Wie geht das zusammen?“, veranstaltet vom PR-Ethik-Rat am 20. Februar 2024, voranstellte. Neue GPTs, also Generative Pre-trained Transformers oder umgangssprachlich „Chatbots“, agieren nicht nur erstaunlich höflich, sondern scheinbar auch mitfühlend. Sie dienen sich als Gehilfen an, die uns Arbeit abnehmen und in kreativen Prozessen unterstützen. Noch sind sie jung (ChatGPT ging erst vor 15 Monaten an den Start, Google Gemini gar erst vor einigen Wochen). Und doch hören wir bereits von Chatbots, die in ihren Antworten einen erstaunlichen Gender-Bias an den Tag legen oder in großem Ausmaß Data-Mining betreiben.

„Jede:r von uns, der oder die promptet“, so Sabine Singer zu diesem Thema, „trainiert durch seine Eingaben die Modelle der KI.“ Open-AI's Megarechner, auf dem GPT 3, 3.5, 4 und 5 trainiert wird, heißt wie der antike Titan Prometheus. Amazon nennt analog sein Large Language Model Olympus, in Anlehnung an den Sitz der griechischen Götter. Doch wenn wir ein potentiell allwissendes, „gottgleiches“ Weltwissen schaffen, so der Grundkonsens des Podiums, sollte es in unserem Interesse liegen, Einfluss darauf zu nehmen, welche Informationen es sammelt und zu verstehen, nach welchem Schema es sie ausspielt.

 

Die vom PR-Ethik-Rat veranstaltete Podiumsdiskussion „Ethische Kommunikation und KI – wie geht das zusammen?“, fand am 20. Februar 2024 in den Räumen der apa statt. V.l.n.r.: Andrea Heigl, Sabine Singer, Katharina Schell, Michaela Wein.


Virtual Storytelling. Investigative Recherche. Bildungsjournalismus. Datenvisualisierung. Content Creation. Re-Creation historischer Events: In diesen Bereichen kann generative KI (GenAI) Journalist:innen bereits sinnvoll unterstützen, so Expertin Sabine Singer.

 

Leitfaden des PR-Ethik-Rats
Und genau an dieser Stelle kommt der bereits 2008 gegründete österreichische PR-Ethik-Rat ins Spiel, laut Eigendefinition ein „Organ der freiwilligen Selbstkontrolle heimischer PR-Fachleute“. Bereits im August 2023 formulierte er in einem Leitfaden vier Prinzipien zum verantwortungsvollen Einsatz von generativer KI in der PR: 

  • Transparenz
  • Faktentreue
  • Aufmerksamer Umgang mit sensiblen Daten
  • Bias-Awareness.

Auf diesen Säulen fußen wiederum zwei maßgebliche Grundforderungen an Kommunikator:innen und Multiplikator:innen: Seid euch eurer Verantwortung bewusst! Und: die klassischen Prinzipien der Ethik gelten auch im Umgang mit KI.

Mit Andrea Heigl moderierte die stellvertretende Vorsitzende des Rates die Diskussion, während Ratsmitglied Michaela Wein insbesondere über ihren Fachbereich Onlinekommunikation und Social Media Auskunft gab – der ebenso wie der Qualitätsjournalismus in traditionellen Medien derzeit eine gewaltige KI-Transformation durchläuft. Aus diesem Bereich konnte apa-Vize-Chefredakteurin Katharina Schell berichten, welche Auflagen sich die Nachrichtenagentur hausintern auferlegt, um ihre Standards zu gewährleisten. Ein Beispiel: „ChatGPT ist kein Recherchetool und wer es dennoch zur Recherche verwendet, versteht nichts von der Funktionsweise dieses Werkzeugs, das Wortfolgen nach ihrer Häufigkeit kombiniert.“ Auch Katharina Schell verortete einen teils „sinnentleerten und hirnlosen Hype“ rund um KI. Viel wesentlicher, als bestimmte Tools haben zu wollen, sei doch, sie zu verstehen. Gerade im Medienbereich sei „KI-Literacy“ gefordert, also ein Basisverständnis, wie ein bestimmtes Ergebnis zu Stande gekommen sei.

 

 

Mutige Neugier & notwendige Skepsis
„Starke Seilschaften“ könnten dazu beitragen, dass sich Medienschaffende der rasanten technischen Entwicklung nicht „ausgeliefert“ fühlten, erklärte abschließend Sabine Singer, selbst Mitglied der Plattform Women in AI Austria. Aber auch „mutige Neugier“ gepaart mit einer gesunden Skepsis. Schließlich stehe uns 2024 ein Megawahljahr bevor: „Ihr werdet das Künstliche und das Nicht-Künstliche bald nicht mehr unterscheiden können“, so Singer. Darum: Genau hinschauen. Fakten checken. Und sich nicht von Deepfakes verführen lassen.

Übrigens: Die Sorgfaltsregeln, die für den traditionellen Qualitätsjournalismus gelten, gelten für den Bereich Corporate Publishing erst recht. Schließlich will eine Agentur wie Egger & Lerch sicherstellen, dass ihre Kunden auch morgen noch hinter den Bildern und Botschaften stehen können, die sie heute mit unserer Hilfe veröffentlichen.

Leitfaden des österreichischen PR-Ethik-Rates: Vier Prinzipien zum Einsatz von generativer KI in der PR


. . . . . . . . . . . . . . . . . . . . . . . . . . .

Das könnte Sie auch interessieren: