Franziska Busse, wie vertrauenswürdig ist Künstliche Intelligenz?
[Anmerkung der Redaktion: in Arbeitsstunden gerechnet hat die Übertragung des Audio-Files in dieses Transkript mit Hilfe des KI-Tools definitiv Zeit eingespart. Ein Selbstläufer war es nicht. Vor allem hat die KI konsequent die genderinklusive Aussprache ignoriert, d.h. statt “Verbraucher:innen” mit Pause gesprochen, nur “Verbraucher” ausgegeben. Es brauchte also in jedem Fall noch die menschliche redaktionelle Nacharbeit.]
Anne Wasmuth: Herzlich willkommen zu einer neuen Kontaktaufnahme. Mein Name ist Anne Wasmuth und ich bin heute mit Franziska (Franzi) Busse im Gespräch. Hallo! #00:00:29-9#
Franziska Busse: Hallo, guten Morgen und vielen dank für die Einladung. #00:00:33-1#
Anne Wasmuth: Sehr gerne. Du hast in Würzburg deinen Bachelor in Medienkommunikation gemacht und anschließend an der freien Universität Berlin Medien und Politische Kommunikation studiert. Mehr verrate ich jetzt erst noch nicht zu dir, sondern hole ein bisschen aus. Wir werden heute über künstliche Intelligenz sprechen. Im Mai 2022 hat meine Kollegin Katharina Mittenzwei in Folge 59 mit Franziska Schirrmacher von der FAU bereits über KI gesprochen. Von heute in der Rückschau angehört, wirkte das Gespräch trotzdem mehr wie Zukunftsmusik, also mehr so ein Thema für forschende Spezialisten, sehr weit weg für uns. Nur wenige Monate danach, im November 22, wurde ChatGPT für die allgemeine Öffentlichkeit vorgestellt. Es ist also genau ein Jahr her mit Veröffentlichung dieser Folge, die wir heute aufnehmen. ChatGPT, die meisten wissen es, ist ein KI-Modell, das natürliche Sprache, also eben ganz normale Sprache, kein Programmiercode, sondern so, wie wir im Alltag sprechen, versteht und auf Fragen und Aufgaben antworten kann. Ich frage zum Beispiel nach einem Rezept für Kürbissuppe und ich bekomme ein Rezept für Kürbissuppe als Antwort oder ich frage nach einer Formel, zum Beispiel wie kann ich ein Ergebnis einer Multiplikationsaufgabe in Exel automatisch aufrunden und ich bekomme die Formel als Antwort etc. pp. Dieser Schritt, also diese Zugänglichmachung von dieser KI hat unglaublich viel ausgelöst. Dem Thema KI war praktisch nicht mehr zu entkommen, KI ist viel konkreter geworden in unserem Alltag. Enthusiasmus auf der einen, Risikowarnung auf der anderen Seite und dazwischen nehme ich heute zum Teil auch eher ein Gefühl der Ermüdung oder der Überforderung war, also nach dem Motto, KI lass mich damit in Ruhe, was interessiert mich das? Das ist viel zu komplex.
KI-Systeme lernen täglich dazu. Wir wollen das auch.
Also genug Anlass und soweit der großen Vorrede, sich mit einer Expertin zu unterhalten, die du Franzi in diesem Zusammenhang bist. Du gehörst nämlich heute zum Team des Think Tank iRhigtsLab. Dieser unabhängige Think Tank ist eine Denkfabrik oder Ideenschmiede für die digitale Welt. Ihr gestaltet öffentliche Diskurse, verknüpft Forschung und Praxis, versucht komplizierte Dinge auf einfache Art und Weise zu erklären und begleitet Digitalisierungsprozesse. Das tut ihr in ganz unterschiedlichen Projekten und eins davon war zum Beispiel die inhaltliche Ausgestaltung der App Stadt, Land, Datenfluss des deutschen Volkshochschulverbandes. Diese App soll unter anderem Datenkompetenz für alle Bürgerinnen schaffen, also das hat jeder von uns natürlich auf dem Handy. Also das Portfolio ist unglaublich vielfältig und dazu gehört auch das Projekt ZVKI, indem du wissenschaftliche Mitarbeiterin bist. Diese Abkürzung steht für Zentrum für vertrauenswürdige künstliche Intelligenz. In diesem Zentrum sind mehrere Partner zusammengeschlossen. Du kannst es am allerbesten erzählen. Wer seid ihr, was tut ihr, was sind eure Ziele und Aufgaben in diesem Projekt? #00:03:55-7#
Franziska Busse: Ja, vielen Dank für die Vorstellung, war alles sehr richtig. Das ZVKI ist ein Projekt, das ist gefördert durch das BMUV [Ergänzung der Redaktion: Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz] und wir haben dadurch diese Verbraucherschutz-Perspektive, dadurch auch als Projekt und beschäftigen uns mit der Frage, wie KI-Systeme so gestaltet werden können, dass sie eben vertrauenswürdig und gemeinwohl orientiert sind und uns, uns Bürger:innen und Verbraucher:innen und der Gesellschaft zugute kommen. Und, wie du meintest, es ist ein Verbundprojekt. Also ich arbeite bei iRights.Lab und dann sind im ZVKI noch zwei Fraunhofer Institute dabei, das Frauenhofer AISEC [Fraunhofer-Institut für Angewandte und Integrierte Sicherheit] und Frauenhofer IAIS [Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme] und die Freie Universität Berlin. Die Projektpartner forschen an technischen Grundlagen dazu wie so Kriterien vertrauenswürdiger KI technisch umgesetzt werden können und in Zukunft auch überprüfbar gemacht werden können. #00:04:55-6#
Anne Wasmuth: Das heißt, du bist neutral? #00:04:59-3#
Franziska Busse: Ja, beziehungsweise überparteilich oder unparteiisch, würde ich auch sagen. Das ZVKI ist auch nationale Schnittstelle für verschiedene Zielgruppen und Akteur:innen, also sowohl Wirtschaft als auch Wissenschaft, Zivilgesellschaft und Politik. Und in dem Kontext veranstalten wir zum Beispiel auch Fachkonferenzen, veröffentlichen Paper, begleiten da zum Beispiel das ganze Thema rund um Regulierung von KI-Systemen, also jetzt die KI-Verordnung, die auf europäischer Ebene verhandelt wird und das machen wir aber eben auch immer aus dieser Perspektive und Brille des Verbraucher:innenschutzes. Und unsere zweite Schiene oder unsere zweite große Zielgruppe sind Bürger:innen und Verbraucher:innen selbst, die wir eben über vertrauenswürdige KI aufklären und fragen da rund um, zum Beispiel auch im Kontext von ChatGPT, was da Herausforderungen sind und wie man dem begegnen kann. Und da haben wir auch verschiedene Angebote, zum Beispiel auch einen Podcast, der am 09.11., veröffentlicht wird, die erste Folge oder natürlich auch Social Media Kanäle mit eigenen Formaten und kleinen Erklärfilmen oder wir geben Workshops und sind auf Veranstaltungen. #00:06:10-2#
Anne Wasmuth: So sind wir letztlich auch ein bisschen auf dich gekommen bei diesem Stichwort “Verbraucher:innen”. Das passt nämlich gut zu uns als Bildungszentrum, weil wir Stützpunkt Verbraucherbildung tatsächlich sind. Das heißt, wir bieten immer wieder Veranstaltungen unter anderem zu digitalen Medien und Datensicherheit an, einfach auch Veranstaltungen, die neutrale, überparteiliche Informationen bieten sollen. Und noch was anderes in deinem Lebenslauf hat dich prädestiniert für dieses Gespräch: Du bist Schafkopf-Spielerin… #00:06:41-9#
Franziska Busse: Ja. #00:06:42-9#
Anne Wasmuth: Ja, also absolut fränkisches Kulturgut, was du betreibst. Das kommt, Du bist vor den Toren Nürnbergs geboren, stimmt’s? #00:06:52-3#
Franziska Busse: Ja, das stimmt. Ich bin in der Nähe von Nürnberg aufgewachsen und lebe inzwischen in Berlin, aber das Schafkopfen will ich natürlich beibehalten und hab hier in Berlin natürlich auch meine Schafkopfrunde. #00:07:03-0#
Anne Wasmuth: Ich habe mir von ChatGPT auch nochmal die Schafkopfregeln erklären lassen und das klang alles relativ valide, so wie ich sie auch in Erinnerung hatte. Tatsächlich hadere ich bei ChatGPT aber immer wieder und immer noch. Ich habe natürlich versucht, mir die Arbeit zu dieser Folge möglichst einfach zu machen und mir die Moderation durch die KI schreiben zu lassen. Aus meiner Sicht ist das total in die Hose gegangen. Ich hatte gleich zwei Themen. Das erste, darf ich das überhaupt? Also so mit dienstlicher Adresse etc. also da war gleich so ne Schranke im Kopf und habe mir gedacht, Halleluja, Digitalisierung, Medienkompetenz in Deutschland, ich mach lieber gar nicht erst mit. Ist das ein Problem, mit dem ihr auch bei den Projekten zu tun hat? Also erst einmal die Frage des Zugangs überhaupt? #00:07:53-9#
Franziska Busse: Ja, es ist, es ist auch ein Teilaspekt unserer Arbeit. Grundsätzlich schauen wir uns viel auch an, welche gesellschaftlichen Auswirkungen verschiedene KI-Systeme haben. Zum Beispiel bei ChatGPT, das meintest du schon, ist eben auch ein Problem, dass die Daten, die wir da eingeben oder wenn man eine Moderation sich schreiben lässt, muss man ja Fragen stellen, und du meintest auch mit der Dienstadresse, das sind alles Daten, die OpenAI dann für das Training weiterverwendet werden kann. Alles, was ich in die Textfelder eingebe, kann irgendwie weiter verwertet werden und deswegen finde ich das gar nicht unbedingt so eine Schranke im Kopf, sondern schon einen legitimen Punkt, dass man sich überlegen muss, einfach ob man bestimmte Daten reingeben möchte, vor allem personenbezogene Daten von sich selbst oder auch von von anderen Personen oder Kolleg:innen. #00:08:43-4#
Anne Wasmuth: Mhm, ja, und du hast es jetzt schon gesagt, das zweite war tatsächlich, wie spreche ich mit der KI? Im Kopf bekommt diese künstliche Intelligenz ja sowas menschenähnliches. Also, ich versuche, freundlich zu sein, ich bitte um etwas. Das schlägt sich auch in der Abbildung von KI nieder, also meistens doch irgendwo ein Bild eines vermenschlichen Roboters. Welche Vorstellung, welches Bild sagt ihr, ist eigentlich das, was man vermitteln muss? #00:09:15-4#
Franziska Busse: Eben das Gegenteil von so einem vermenschlichen Roboter, würde ich sagen. Grundsätzlich sind KI-Systeme einfach Modelle, also mathematische oder statistische Modelle, die jetzt im Falle von ChatGPT die Outputs erstellen oder generieren, die irgendwie unseren menschlichen Sinnzusammenhängen oft entsprechen oder grammatikalisch auch sehr hochwertig sind. Es beruht nicht darauf, dass ChatGPT irgendeine Form von Sprachverständnis hat, sondern auf der speziellen Trainingsweise, wie solche großen KI-Modelle trainiert werden. Die greifen eben zum Beispiel unter anderem auf unzählige Datenmengen aus dem Internet zurück und werden mit diesen Datenmengen auch trainiert und leiten daraus wiederum dann Regeln ab, nach denen sie diese Outputs generieren, und deswegen sind die dann so menschenähnlich oder der menschlichen Sprache ähnlich. Genau, aber explizit steckt da kein Bewusstsein oder irgendeine Form von größerem Verständnis dahinter. #00:10:21-4#
Anne Wasmuth: Mhm, also sind trotzdem diese Bilder, die man so sieht, wenn in den Medien über KI gesprochen wird, das stimmt eigentlich nicht, wenn man dann halt so einen Roboter sieht oder so was, weil, im Endeffekt ist es einfach nur ein Algorithmus, der gut mit Datensätzen umgehen kann, oder? #00:10:38-7#
Franziska Busse: Ja, genau, du hast es gut auf den Punkt gebracht. Ja. #00:10:42-4#
Anne Wasmuth: Und um auch nochmal bei ChatGPT zu bleiben, wenn ich also sage “ChatGPT lügt”, weil eben manche ausgegebenen Texte auch wirklich ausgesprochenen Unsinn behaupten, dann stimmt die Aussage dann in sich eigentlich nicht, oder? #00:10:57-6#
Franziska Busse: Nee, ja, richtig, weil “ChatGPT lügt” würde ja eine Intention irgendwie beinhalten. Das ist ja was, was ein Mensch mit Absicht macht, um irgendwie was zu verschleiern oder so, und ChatGPT kann in dem Sinne ja gar nicht lügen, weil es keine Absicht oder irgendwas dahinter steckt, sondern es sind einfach falsche Outputs, die in dem Moment erstellt werden, eben weil da auch kein Sprachverständnis vorhanden ist. #00:11:25-4#
Anne Wasmuth: Mhm, du hast jetzt gesagt, Zentrum für vertrauenswürdige KI. Was ist denn nicht vertrauenswürdige KI? #00:11:35-0#
Franziska Busse: Ja, ist eine gute Frage, die auch gar nicht so einfach zu beantworten ist, weil so der Begriff oder das Konstrukt Vertrauenswürdigkeit ist ja allgemein und komplex ist, und da müsste man noch verschiedene Kriterien herunterbrechen. Aber es gibt verschiedene Kriterien der vertrauenswürdigen KI, wenn man so will, zum Beispiel KI-Systeme transparent sind, je nach Anwendungsbereich und Kontext oder, dass sie Privacy gewährleisten oder möglichst nachhaltig erstellt und eingesetzt werden. Würde sagen, nicht vertrauenswürdig sind KI-Anwendungen, die auf solche Kriterien oder wo die Entwickler:innen und Entscheidungsträger:innen, die so ein KI-System einen Auftrag geben und erstellen, solche Kriterien überhaupt nicht berücksichtigen oder keine Maßnahmen ergreifen, um zum Beispiel KI vermittelte Diskriminierungen möglichst gering zu halten oder um den Ressourcenverbrauch von KI-Systemen abzuwägen mit dem Nutzen, den solche Systeme haben. Oder nicht vertrauenswürdig würde ich auch KI-Anwendungen ansehen, die unter prekären Arbeitsbedingungen zum Beispiel erstellt werden. #00:12:51-9#
Anne Wasmuth: Habe ich da eine Chance, als Verbraucherin das irgendwie erkennen zu können? #00:12:58-6#
Franziska Busse: Aktuell nicht, meines Wissens nach, weil es noch nicht, wie zum Beispiel bei Waschmaschinen, wo es dann irgendwie ein TÜV-Siegel gibt, oder generell bei technischen Geräten, gibt es bei KI-Anwendung noch nicht. Also oft weiß ich als Verbraucher:in nicht mal, dass dort und dort eine KI-Anwendung eingesetzt wird. Also zum Beispiel auch bei vielen Anwendungen auf unseren Smartphones sind KI-Methoden integriert und das weiß ich in der Regel gar nicht. In dem Fall von ChatGPT weiß ich jetzt, dass da, dass es eine KI-Anwendung ist. Aber auch da ist irgendwie vieles nicht bekannt über die Anwendung an sich. Also, ich weiß als Verbraucher nicht unbedingt, unter welchen Bedingungen, unter welchen Arbeitsbedingungen es hergestellt wurde oder niemand weiß konkret, was die Datengrundlagen alles umfasst oder inwieweit da Maßnahmen ergriffen wurden, um KI vermittelte Diskriminierungen möglichst zu verringern. Also ich würde sagen, man kann das als Verbraucher:innen gerade oft nicht abschätzen oder hat gar nicht die Möglichkeit dazu. #00:14:07-6#
Anne Wasmuth: Wahrscheinlich auch, weil die Entwicklung einfach noch zu frisch ist, dass da noch keine Regularien oder Zertifikate oder irgendwas existieren, oder? Also, es ging ja ganz groß durch die Medien im Frühjahr, dass führende KI-Pioniere eine Stellungnahme zu den Risiken durch künstliche Intelligenz veröffentlicht haben und diese in ihrer Dramatik eigentlich kaum zu überbieten. Also, es hieß da drin, ich zitiere: “Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmasses sein, wie etwa Pandemien und Atomkrieg.” [vgl. https://www.safe.ai/statement-on-ai-risk, abgerufen zuletzt am 14.11.2023] Man denkt, diese Menschen unter ihnen der CEO von OpenAI, zu denen ja eben ChatGPT gehört, die müssten es eigentlich wissen. Was ist dran an diesen Warnungen? Was ist Fakt, was ist aber auch Mythos? #00:15:00-0#
Franziska Busse: Ja, also, ich glaube, ich weiß, auf welchen Brief du anspielst. Der ging durch die Medien Anfang des Jahres. Ich sehe den sehr kritisch. Also erstens ja einfach irgendwie seltsam, wenn Sam Altmann, der federführend, also einfach eine federführende Position hat sozusagen in der Entwicklung von KI-Anwendungen, auf einmal ein Entwicklungsstopp fordert. Und ich würde es eher so interpretieren, dass es wie so eine Seite der gleichen Medaille ist. Also zum einen gibt es so diese Allheils- oder Heilsversprechen, dass KI-Anwendungen uns unterstützen und immer besser werden und überhaupt. Und auf der anderen Seite dann eben dieser offene Brief, wo KI als ein ganz großes Gefahr für für Menschen und Menschenleben konstruiert wird. Aber im Endeffekt sagt ja auch dieser Brief aus, dass KI-Systeme eben sehr mächtig sozusagen sind, und das ist ja auch wiederum Werbung für solche KI-Anwendungen. Das wäre meine Interpretation, und auch ein Entwicklungsstopp von einem halben Jahr wird ja nichts ändern. Dann haben wir eine Pause von sechs Monaten. Aber die Entwicklung stoppt ja nicht einfach so dadurch und es wird eben auch regulatorisch eh schon seit Jahren auch vor allem auf EU-Ebene viel überlegt, wie man KI-Anwendungen und den Einsatz und die Entwicklung regulieren kann, und auf der EU-Ebene wird da auch gerade eine KI-Verordnung verhandelt. Genau. #00:16:34-0#
Anne Wasmuth: Mhm, ich würde gerne nochmal zurück zu meinem gescheiterten Versuch, die Moderation für diesen Podcast schreiben zu lassen. Zwei Möglichkeiten. Lag es an mir oder an der KI? Worauf ich hinaus will, was nützt eine KI, wenn ich sie nicht bedienen kann? In diesem Fall war meine Medienkompetenz in Hinblick aufs Prompten, also der Anweisung oder Eingabe an die KI, wahrscheinlich ausbaufähig, und das ist ja jetzt nur ein Beispiel, und es gibt so unendlich viele andere KI-Anwendungen neben diesem Textmodell. Was für Fachwissen brauche ich eigentlich im Umgang mit KI oder welches Wissen oder welche Kompetenzen brauche ich im Zusammenhang mit KI? Auch vielleicht, wenn man so an zukünftige Arbeitswelten denkt? #00:17:25-9#
Franziska Busse: Ich glaube, was es auf jeden Fall braucht ist sozusagen eine kritische Reflexion, einfach auch von den Ergebnissen oder generell, ob ich jetzt in dem Kontext ein KI-System nutzen sollte oder nicht oder wie ich mit den Ergebnissen davon umgehe. Also, ich glaube, das ist eigentlich so, oder sehe ich als sehr relevanten Skill ein oder diese Reflexionsfähigkeit dazu haben und sich beizubehalten. Also eben zum Beispiel, wenn man sich eine Moderation von KI-Anwendung schreiben lässt, es nicht unhinterfragt zu übernehmen – hast du ja auch nicht gemacht –, sondern zu überprüfen. Im Zweifelsfall sind da falsche Inhalte enthalten oder falsche Fakten oder es können auch diskriminierende Inhalte da drin vorhanden sein, dass man das einfach nicht unhinterfragt übernimmt. Von der Nutzung an sich macht das auf jeden Fall auch Sinn, wenn man mit Tools arbeiten möchte, das einfach zu üben oder da einen Workshop zu besuchen oder sich Erklärvideos anzuschauen, zum Beispiel zu Prompting. Das ist jetzt überhaupt nicht mein Fachgebiet aber da gibt es ja auch 1000 Tipps und Tricks, und “DOs und DON’Ts” und Webseiten und Erklärvideos. Das kann man auf jeden Fall machen und würde ich auch empfehlen. Und im schulischen Kontext ist es natürlich auch super wichtig als Lehrkraft irgendwie diese Themen und auch neue KI-Tools zu begleiten. Und auch nicht nur damit, dass man das halt gemeinsam übt mit den Schüler:innen, sondern eben genau auch diese Reflexion dazu immer einbaut, oder Themen, gesellschaftliche Themen, die damit zusammenhängen, wie zum Beispiel auch im Fall von ChatGPT die möglichste Verbreitung von Desinformation. #00:19:07-5#
Anne Wasmuth: Also nur weil es künstliche Intelligenz heißt, kann ich nicht einfach davon ausgehen, das funktioniert dann schon irgendwie alles und im Unterschied, wie wenn ich jetzt eine Textverarbeitungs-Schulung mache, wo ich klar “mach es so, mach es so, mach es so, wenn du das machst, passiert das”, braucht man noch viel stärker, sozusagen bei KI diesem Metaebene? #00:19:27-5#
Franziska Busse: Ja, genau, wobei ich glaub auch immer, abhängig von dem jeweiligen Tool, das ich benutze. Natürlich, das kann man vielleicht so pauschal gar nicht sagen. Ja, und vielleicht darf ich auch noch ergänzen, dass je nach Aufgabe auch Sinn machen kann, ja keine KI-Anwendung zu benutzen. Also nur weil ich es theoretisch kann, erleichtert es meine Arbeit ja vielleicht gar nicht unbedingt. #00:19:52-1#
Anne Wasmuth: Absolut, also, die Erfahrung kann ich jetzt nur bestätigen, was diese Moderation angeht. Was ich trotzdem spannend finde, um nochmal bei diesem Tool ChatGPT zu bleiben, ist, dass KI ja so eine Funktion als Lerncoach auch übernehmen kann. Also, ich frage was, ich kriege eine Antwort, und dann geht es immer weiter. Also es hört nich einfach nur so auf, oder? #00:20:19-5#
Franziska Busse: Ja, das stimmt, kann man als sogenannten Lernbegleiter auf jeden Fall auch nutzen, eben unter den Bedingungen, die ich gerade gesagt habe, dass man die Ergebnisse auch immer reflektiert oder dass man weiß, dass alles, was man eingibt auch wiederum verwendet werden kann für das Training dieses KI Modells. Aber wenn man irgendwie Verständnisschwierigkeiten hat, so mathematsiche Aufgaben oder so, kann man tatsächlich auch nachfragen, das Tool, was jetzt der Fehler war. Und das kann auch dabei helfen, seine eigenen Leistungen zu verbessern oder sein Wissen aufzubauen. #00:20:57-0#
Anne Wasmuth: Ja, was ja schon spannend ist, wie du sagst, so wann benutze ich KI und wann benutze ich sie nicht? Das ist ja im Moment auch noch so ein Findungsprozess, ein Entwicklungsprozess, ein Transformationsprozess, wie das so weitergehen wird. Noch ist es halt zum Teil sehr mühselig, sehr anstrengend, zum Teil ist man sehr positiv überrascht oder sehr erstaunt. Was sind so Auswirkungen von KI auf Arbeit und Beschäftigung, die jetzt schon wahrnehmbar sind, oder was wir noch in naher Zukunft noch mehr haben werden? Gibt's da Berufe oder Branchen, die ganz besonders betroffen sein werden und manche weniger? #00:21:39-9#
Franziska Busse: Also, 100-prozentig kann ich das nicht beantworten oder absehen. Ich würde vielleicht auf so einer Metaebene da nur einwerfen, dass ja nicht KI-Tools oder KI-Anwendungen darüber entscheiden, welche Jobs jetzt wegfallen, sondern das sind am Ende ja immer menschliche Arbeitgeber und Arbeitgeberinnen, die entscheiden, wie sie KI-Tools einsetzen oder auch, ob sie für bestimmte Berufe mehr KI-Anwendung oder statt bestimmten Menschen lieber KI-Anwendung einsetzen möchten, in Anführungszeichen. Und vielleicht noch als Ergänzung, was diesen Aspekt betrifft, ob jetzt Arbeitsplätze wegfallen oder nicht und, dass Menschen darüber entscheiden, gerade ging ja auch durch die Medien drei der Hollywood Drehbuchautorinnen und auch Schauspielerin, wo es ja auch genau um diese Fragen ging, also werden Jobs gekürzt und vor allem auch die Bezahlung gekürzt dadurch, dass Produzentinnen oder so jetzt Drehbuchaufgaben an Maschinen abgeben oder an KI-Systeme. Und dafür haben auch die Drehbuchautor:innen gestreikt und letztendlich damit ja auch gewonnen, haben ein Abkommen erkämpft, was auch ihre Arbeitsplätze sichert. Genau, und das ist ganz gut, dass ja nicht das KI-System entscheidet jetzt, welche Arbeitsplatz wegfällt, sondern ja Menschen das irgendwie aushandeln müssen. #00:23:09-8#
Anne Wasmuth: Das führt ganz gut zu meiner nächsten Frage. Du hast in der Vergangenheit auch als Referentin für Medienbildung gearbeitet, das heißt, du kennst dich aus mit Strategien gegen Desinformation und Hate Speech. Das ist als Thema, finde ich wahnsinnig wichtig und ich habe mich gleich gefragt, welche Rolle KI dabei spielt oder spielen kann, und ChatGPT selber sagt dazu, ich zitiere: “Nein, ich kann und werde keine Hate Speech oder andere Formen von beleidigenden, diskriminierenden oder schädlichen Inhalten erstellen oder fördern. Mein Zweck ist das nützliche und respektvolle Informationen bereitzustellen.” Das heißt, wie funktioniert das? Woher hat die KI die Information, was nützlich, was respektvoll ist? Ist es das, was du gerade sagst? Ist es am Ende dann doch der Mensch? #00:24:02-9#
Franziska Busse: Ja, genau richtig, das ist im Grunde der Mensch. Also Menschen haben sozusagen gelabelt oder Feedback gegeben, welche Inhalte Hate Speech enthalten oder Gewalt oder diskriminierende Sprache, Texte und das rückgemeldet, und dadurch wird das rausgefiltert in den Outputs und Ergebnissen von ChatGPT. KI-Systeme können ja zum Beispiel im Fall von ChatGPT Text erstellen, aber es gibt auch KI-Anwendungen, die Bilder erstellen können oder Videos, die werden auch Deepfakes genannt. Genau, und da gibt es durchaus die Gefahr, das ist auch schon so passiert, dass Menschen ja dann Inhalte erstellen können, die nicht die Wahrheit zeigen, sondern irgendein künstlich erstelltes Bild sind, um damit auch diese Informationen zu verbreiten oder öffentliche Diskurse zu beeinflussen in den sozialen Medien. Ich habe da so einen Fall im Kopf, ich weiß nicht mehr leider den Namen, aber es war ein AfD-Abgeordneter, der ein Bild erstellt hat mit Männern sozusagen oder sogenannten Migrationshintergrund und die irgendwie so wut verzerrte Gesichter hatten, und damit hat er fremdenfeindliche Propaganda verbreitet. Genau das ist natürlich auch deshalb noch mal eine neue Herausforderung, jetzt mit KI-Anwendungen, weil durch dieses System einfach für mehr Menschen in kürzerer Zeit viel mehr so Fake-Inhalte generiert werden können. Es geht einfach damit schneller und die Qualität von den Inhalten ist auch oft schon sehr gut, also von so Bildern oder Deepfakes. #00:25:43-0#
Anne Wasmuth: Ja, man sieht es ja, dass irgendwann Videos einfach so entstehen können, ohne echte Schauspieler. Das Video und das Audio noch besser zusammenkommt, also die Qualität der Produkte wird immer besser. Gibt es da Strategien, wie man da gut vorgehen kann oder wie man das entlarven kann? #00:26:02-5#
Franziska Busse: Ja, auf jeden Fall, also so ohne jetzt weitere Informationen oder Kontext, ist es in vielen Fällen tatsächlich nicht mehr möglich unbedingt zu erkennen, ob jetzt ein Bild oder Video KI generiert oder nicht, also von der KI erstellt wurde oder von den Menschen. Einfach, weil die Qualität immer besser wird. Und deswegen so viele Tipps, wie das man so gucken soll, ob da zum Beispiel sechs Finger auf einem Bild sind, helfen jetzt gar nicht mehr unbedingt viel weiter und auch in der Zukunft wahrscheinlich nicht mehr. Es gibt aber trotzdem Strategien, die auch so bei herkömmlichen Desinformation und Fake News geholfen haben, die auch nach wie vor gültig sind. Also zum Beispiel, wenn ein Text oder Bild oder Video sehr starke Emotionen oder Wut auslöst oder Angst, ist das immer schon mal ein guter Indikator, um den Inhalt eben weiter zu prüfen. Und dann kann man natürlich schauen, von wem kommt eigentlich dieses Bild oder Video? Wer steckt dahinter? Sind das seriöse Nachrichtenseiten oder irgendwelche dubiosen Anbieter? Man kann auch Internetrecherchen machen und gucken, ob zum Beispiel ein Video schon in anderen Kontexten auch geteilt wurde oder nur bei diesem Social Media Kanal geteilt wird oder eben nur bei unseriösen Quellen geteilt wird. Und kann auch bei so fact checking Seiten gucken, ob die schon vielleicht Artikel haben zu so einem Video oder Bild und das Einordnen. Also diese ganzen Tools nach Quellenrecherche kann man nach wie vor supergut anwenden. #00:27:42-4#
Anne Wasmuth: Das heißt, immer wachsam sein, kritisch sein, immer auf die Quelle schauen und nicht alles gleich glauben, was einem da vorgesetzt wird. #00:27:55-9#
Franziska Busse: Genau, dass ist eigentlich der wichtigste Typ, nicht unbedingt alles gleich glauben und auch nicht unbedingt alles gleich weiterleiten und so eine Sekunde durchatmen und überlegen, warum bin ich jetzt gerade so aufgelöst oder wütend? Und sollte ich nicht vielleicht kurz nachrecherchieren, ob das wirklich so ist? #00:28:15-8#
Anne Wasmuth: Man kennt ja diese Diskussion jetzt auch von YouTube oder anderen Social Media Kanälen, wo es auch ganze Firmen gibt, wo Menschen sitzen, die Videos rausfiltern, wo Gewalt gezeigt wird und was zum Teil ja auch kritisch ist, weil auch Videos, die Kriegsverbrechen dokumentieren dadurch vielleicht getilgt werden. Also, es ist ja eine wahnsinnig schwierige, verantwortungsvolle und wirklich komplexe Sache. Also, wenn mir ChatGPT das so antwortet, dann hört sich das so einfach an und so klar, aber so in der in der Folge, so einfach und so klar ist es eigentlich gar nicht, oder? #00:29:00-8#
Franziska Busse: Ja, voll, weil wer entscheidet, was jetzt als Gewalt zählt und was nicht oder als schädlicher Inhalt zählen da zum Beispiel schon Brustnippel dazu oder nicht? Ja, das ist auch so ein Deutungsraum, der sich ja verschieben kann je nachdem wer der KI-Hersteller ist oder wer da entscheidet, was als Hate Speech und Gewalt gilt und was nicht. #00:29:26-5#
Anne Wasmuth: Also, ich habe versucht, das Tool so ein bisschen zu provozieren, und hab nach bekannten Zitaten von Adolf Hitler gefragt und da hat die KI dann die Arbeit verweigert, also keine Auskunft unter dieser Nummer sozusagen. Das heißt, da haben Menschen vorher schon entschieden, nein, dazu geben wir keine Inhalte raus. In dem Moment, da ist es ja ein Tool, das ist ja ein geschlossenes System noch. Wir haben auch schon KI mit Internet-Verknüpfung, wo man auch eine Quelle hinterlegen könnte oder eine Primärquelle, wo man dann so diesen Kontext auch setzen müsste, weil sonst wäre es ja schon schwierig, wenn man eigentlich bestimmte Sachen, die ja passiert sind, die zu unserer Geschichte gehören, mit denen, mit der wir uns auseinandersetzen müssen, wo wir auch einfach die Ursprünge kennen müssen, gerade wenn heute bestimmte Menschen bestimmte Dinge wieder sagen und das für sagbar halten, dass man dann nochmal sagen kann, hier “nein”, also das muss man ja trotzdem kennen.
Ganz anderes Thema. Euer Think Tank schreibt, dass eure Arbeit ein nachhaltiges Selbstverständnis zugrunde liegt. Du hast jetzt ja auch vorhin schon mal erwähnt, wie wichtig das ist, auch dieser Nachhaltigkeitsgedanke. Jetzt habe ich erst vor kurzem gelesen, dass künstliche Intelligenz tatsächlich ein unglaublicher Stromfresser ist. Auf der anderen Seite stehen vielleicht Einsparungen, die sich den Einsatz von KI erzeugt werden, also wie zum Beispiel bei Google Maps, eine Kraftstoff sparende Routenplanung. Ist das auch was, was euch jetzt in eurer täglichen Arbeit beschäftigt? Kannst du dann noch ein bisschen mehr dazu erzählen zur Nachhaltigkeit? #00:30:56-9#
Franziska Busse: Wir haben uns erst vor kurzem beschäftigt mit dem Thema, wie nachhaltig sind eigentlich so komplexe KI-Systeme, sogenannte Basismodelle, so Modelle, die man für viele verschiedene Aufgaben sozusagen grundsätzlich eingesetzt werden können und ChatGPT basiert auch auf so einer komplexen KI-Grundlage. Wir haben uns vor allem damit auseinandergesetzt, wie nachhaltig sind die Entwicklung und der Einsatz solcher Systeme, also sowohl sozial-ökologisch und ökonomisch und wie könnte man sie auch noch nachhaltiger gestalten oder entwickeln, weil wie du gerade meintest, brauchen so komplexe KI-Systeme in der Entwicklung zum Beispiel sehr viele Ressourcen und auch Energie. Genau und da gibt es auch so verschiedene Lösungsansätze, zum Beispiel, dass man einfach abwägt vor Entwicklung, wie komplex muss das KI-System eigentlich sein und wie kann ich das vielleicht auch schlanker machen? Oder welche Modellarchitektur braucht vielleicht auch weniger Energie? Das nur als kleines Beispiel. #00:32:03-4#
Anne Wasmuth: Hast du irgendeinen Lieblings KI-Tool? #00:32:10-9#
Franziska Busse: Ja, ich glaube, mein Lieblingstool ist wirklich DeepL, wenn ich Sachen auf Englisch schreiben muss oder eine Übersetzung, weil das mir tatsächlich sehr, sehr viel Arbeit abnimmt und ich dann eben nur noch Korrekturlesen muss und noch einzelne Sachen irgendwie anpasse oder wordings, aber nicht den ganzen Text selbst übersetzen muss. #00:32:32-2#
Anne Wasmuth: Ist schon sehr, sehr praktisch, das stimmt. Ja, KI ist Teil der Realität, Teil dessen, wie wir gegenwärtig und in Zukunft noch viel stärker leben und arbeiten werden und auch diese Podcastfolge kommt nicht ohne KI aus. Bei der Recherche, zum Beispiel durch das Zusammenfassen von Dokumenten oder Websites, bei der Konzeption der Moderation, auch wenn das ja grandiose gescheitert ist, bei der Aufnahme und auch in der Postproduktion, bei der Bearbeitung der Audiodatei beziehungsweise hoffentlich bei der Erstellung eines Transkripts. Was tatsächlich echt ist, ist dein Coverbild, das haben wir nicht über MidJourney oder ein anderes Bildgenerierungs-Tool erstellt. Da war ein echter Fotograf am Werk. Genauso echt ist mein Dank. Da bin ich übrigens auch grandios gescheitert, das hätte grauenvoll geklungen, wenn ich den KI-Text genommen hätte. Deshalb in Echt und mit allen meinen “Ehms” und “Ähs”, die ich zu bieten habe, Danke dir Franzi, danke, dass du dir Zeit genommen hast, um uns ein bisschen aufzuklären über Künstliche Intelligenz. Viel Erfolg weiterhin in euren Projekten und vielen Dank! #00:33:45-5#
Franziska Busse: Vielen Dank auch von meiner Seite für die Einladung und das Gespräch. #00:33:50-1#
Dieses Projekt/Diese Maßnahme/Initiative leistet einen wichtigen Beitrag, Nürnberg schrittweise inklusiver zu gestalten. Es/Sie ist Teil des Nürnberger Aktionsplans zur Umsetzung der UN-Behindertenrechtskonvention (UN-BRK). Den Ersten Aktionsplan hat der Nürnberger Stadtrat im Dezember 2021 einstimmig beschlossen. Um die gleichberechtigte Teilhabe von Menschen mit und ohne Behinderung in Nürnberg zu verwirklichen, wurden und werden umfangreiche Maßnahmen entwickelt und umgesetzt. Weitere Informationen finden Sie unter www.inklusion.nuernberg.de.
Eine fast an KI gescheiterte Folge über KI-Tools, Risikowarnungen, menschliche Entscheidungen und Zukunftskompetenzen.
[Dieser Teaser wurde mit Hilfe von KI erstellt!]
Im Gespräch wird diskutiert, wie KI in unserem Alltag präsenter geworden ist und welche Auswirkungen sie auf die Gesellschaft hat. Franziska Busse ist Teil des Think Tank iRhigtsLab und arbeitet im Zentrum für vertrauenswürdige künstliche Intelligenz (ZVKI). Das ZVKI setzt sich dafür ein, KI-Systeme vertrauenswürdig und gemeinwohlorientiert zu gestalten. Aber was bedeutet „vertrauenswürdige KI“ und wie können Verbraucher*innen den Einsatz von KI erkennen? Welche Rolle spielt Künstliche Intelligenz bei Desinformation und hate speech? Ist es überhaupt möglich, ein KI Sprachmodell zu provozieren?
Weitere Informationen:
- Das im Gespräch erwähnte Thinktank und Projekt:
https://www.irights-lab.de/
https://www.zvki.de/ - Die zitierte Stellungnahme der Experten zu Risiken durch Künstliche Intelligenz:
https://www.safe.ai/statement-on-ai-risk (zuletzt abgerufen am 14.11.2023)
Außerdem wurde erwähnt:
Websites zum Faktencheck:
Für diese Folgen wurden eine Reihe von KI-Tools verwendet. Mehr oder weniger erfolgreich. Alle Abfragen und Prompts wurden in den letzten beiden Oktoberwochen 2023 durchgeführt:
- chat.openai.com
- https://www.perplexity.ai/
- https://www.anysummary.app/
- https://www.humata.ai/
- www.deepl.com/translator
- https://auphonic.com/
- app.amberscript.com
-------
Aufgenommen am: Donnerstag, den 26. Oktober 2023
Veröffentlicht am: Donnerstag, den 16. November 2023
Moderation: Dr. Anne Wasmuth
Im Gespräch: Franziska Busse
-------
Alle weiteren Folgen von KontaktAufnahme – der Podcast des Bildungszentrums Nürnberg finden Sie hier. Alle zwei Wochen, immer donnerstags, veröffentlichen wir ein neues Gespräch.
Wen sollen wir noch befragen - haben Sie Ideen und Anregungen? Schreiben Sie uns an!