Gehe direkt zur BarrierefreiheitsnavigationSkip to main contentSkip to main content

Franziska Schirrmacher, sind die Algorithmen um uns herum divers genug?

Ansage: Kontaktaufnahme. Der Podcast des Bildungszentrums Nürnberg. #00:00:10-9#

Katharina Mittenzwei: Herzlich Willkommen zu einer neuen Folge der Kontaktaufnahme. Mein Name ist Katharina Mittenzwei und ich darf mich heute mit der Doktorandin Franziska Schirrmacher unterhalten. Franziska Schirrmacher von der Friedrich Alexander Universität Erlangen, Nürnberg. Sie forschen an einem Thema, das jede und jeden von uns eigentlich mittlerweile fast permanent umgibt, nämlich an Künstlicher Intelligenz. Für Ihre Forschung am Lehrstuhl für IT Sicherheits Infrastrukturen waren Sie, Frau Schirrmacher, letztes Jahr als KI Newcomerin des Jahres von der Gesellschaft für Informatik nominiert worden. Sie haben mir vor diesem Gespräch Ihr CV geschickt und beim Lesen Ihres Lebenslaufs ist mir wirklich bewusst geworden, wie wenig ich eigentlich von der Tech-Branche und KI verstehe. Können Sie uns, damit wir Sie jetzt auch erst mal näher kennenlernen, erzählen, wie Sie überhaupt zu diesem Thema gekommen sind? #00:01:08-4#

Franziska Schirrmacher: Ja, und zwar war das so, dass sich das irgendwie so entwickelt hat in meinem Leben. Ich hatte, als ich in der Schule war, nie gedacht, dass ich mal irgendetwas mit Informatik mache. Es war ein sehr abstraktes Thema. Ich war zwar gut in Mathe und Physik, aber mit Informatik hatte ich überhaupt gar keine Berührungspunkte. Und dadurch habe ich mir immer vorgestellt: Man muss verstehen, wie so ein Computer funktioniert, um Informatik zu studieren. Das konnte ich nicht. Deswegen war das erstmal nichts für mich. Ich habe dann angefangen, Medizintechnik zu studieren, weil ich Medizin und Biologie auch immer sehr interessant fand. Das war was, da konnte ich mir was drunter vorstellen, und da ist allerdings auch sehr viel Informatik und Algorithmik dabei. Das heißt zum Beispiel, wenn man jetzt ins Krankenhaus geht und so ein CT Bild macht, dann ist da so ein Gerät, was eine Aufnahme macht, und am Ende hat man ein Bild auf dem Bildschirm. Und wie kommt man zu diesem Bild? Und das Bild muss natürlich auch schön ausschauen, dass der Arzt ein bisschen was erkennen kann, das. Das heißt, da ist relativ viel Algorithmen mit dabei. Und so bin ich dann langsam in den Bereich Informatik gekommen und habe dann einen sehr guten Masterarbeitsbetreuer gehabt, der mich dann auch unterstützt hat zu promovieren, was ich mir vorher auch nie hätte vorstellen können. Von außen sieht es immer so aus, als ob das alles gewollt ist. Aber selbst wenn man sich das als junger Mensch noch nicht vorstellen kann, zu promovieren oder irgendwas mit Informatik zu machen, heißt es nicht, dass man ungeeignet dafür ist oder dass es nichts für einen ist. Deswegen immer Sachen ausprobieren. Das war so mein Motto. Immer ausprobieren. Und dann bin ich auf eine Summer School gegangen. Summer School sind für Doktoranden. Das war in Sizilien. Da kommen Doktoranden aus verschiedenen Ländern zusammen und Professoren halten Vorträge. Und da ging es ums Thema Deep Learning. Das ist jetzt so ein Begriff, der hört sich immer ein bisschen fancy an, aber im Endeffekt heißt es einfach nur: Wir bauen. Oder wir ermöglichen es dem Computer, aus Daten zu lernen. Das heißt, wir geben ihm ganz viele Bilder, zum Beispiel von Hunden und Katzen. Und am Ende kann der Computer oder das Programm entscheiden auf Basis des neuen Bildes, was es bisher noch nicht gesehen hat, ist da ein Hund oder eine Katze zu sehen. Und so bin ich dann zu dem Thema gekommen, habe das dann in meinen Forschungen eingebaut und hatte dann die Möglichkeit, so ein Projekt mit dem BKA zu machen. Das war jetzt noch nicht zum Thema KI, da hat sich aber jetzt ein neues Projekt daraus entwickelt. Nicht mit mir, aber ich habe das so ein bisschen begleitet. Genau. Und so bin ich dazu gekommen. Also auf lauter Umwegen Und immer wieder neue Sachen probieren. #00:04:00-6#

Katharina Mittenzwei: BKA meint Bundeskriminalamt? #00:04:03-5#

Franziska Schirrmacher: Ja, genau. #00:04:04-4#

Katharina Mittenzwei: Davon werden Sie uns später bestimmt nochmal mehr erzählen. Um vielleicht noch mal bei diesen basalen Ideen zu bleiben. Was verstehen Sie denn unter KI, unter künstlicher Intelligenz? #00:04:16-7#

Franziska Schirrmacher: Das finde ich ein sehr schwieriger Begriff. Aber in dem Teil der KI, in dem ich arbeite, da versuche ich ein Programm zu bauen, das aus Daten lernt und eine bestimmte Aufgabe ausführt. Also als Beispiel: Was ich jetzt viel mache, ist Bildverarbeitung. Das heißt, ich habe ein Bild, was von einer schlechten Qualität ist. Um das jetzt mal ein bisschen mit einem Kontext zu sehen. Wenn zum Beispiel das Bundeskriminalamt ein Bild bekommt von der Tankstelle und da fährt ein Auto dran vorbei an dieser Überwachungskamera und man kann das mit bloßem Auge nicht erkennen, was für ein Kennzeichen das Auto hat. Ja, dann wäre es vielleicht vorteilhaft, das Bild so ein bisschen zu bearbeiten, um die Qualität zu verbessern. Also ein Beispiel wäre die Auflösung erhöhen, um das Kennzeichen lesbar zu machen. Also das ist jetzt ein Beispiel, das man machen kann. Eine andere Möglichkeit wäre zum Beispiel, dass wir jetzt das Kennzeichen nehmen und das aus dem Bild ausschneiden und auch unserem Programm geben und das am Ende sagt okay, auf dem Bild, ist das Kennzeichen AB123 zu sehen. #00:05:32-6#

Katharina Mittenzwei: Das heißt, Ihre Rolle, Frau Schirrmacher, ist dann die, dass Sie dem Algorithmus das Lernen lernen oder die Daten zum Lernen geben. #00:05:42-5#

Franziska Schirrmacher: Genau. Die ganze Infrastruktur gibt es schon. Das heißt, ich brauche einen Datensatz. Und dann gibt es verschiedene Softwareprogramme, die mir dieses Lernen lernen. Es gibt verschiedene Methoden, wie man das dem beibringen kann, die erforscht wurden, sogenannte Optimierungstechniken. Aber das ist jetzt ein bisschen weit gefasst. Jedenfalls, sobald ich Daten habe, kann ich bekannte Komponenten nutzen, die zum Beispiel von Google oder IBM zur Verfügung gestellt werden. Und dann kann ich meinem Algorithmus das beibringen. Das heißt, hauptsächlich brauche ich erstmal Daten. #00:06:28-3#

Katharina Mittenzwei: Das heißt, die KI versteht uns als Mensch, weil wir es ihr mit den Daten beigebracht haben oder beibringen. Aber verstehen wir denn auch die KI? Sind wir denn in der Lage, die Ergebnisse, die uns dieses System dann liefert, zu interpretieren und die Arbeitsschritte zum Ergebnis zu verstehen? Wenn wir jetzt bei diesem Beispiel mit den Autoschildern bleiben:Vermutlich gibt es dann irgendwie ein Ergebnis. Sie suchen ein Nummernschild und am Ende des Arbeitsprozesses haben Sie dann ein vermeintliches Nummernschild. Aber wie können Sie sicher sein, dass es das Richtige ist? Kann man das anhand von Arbeitsschritten nachvollziehen? Wie die Maschine, so drücke ich es jetzt mal aus, zu diesem profunden Ergebnis kam? #00:07:11-3#

Franziska Schirrmacher: Sehr schwierig und ich glaube, das ist auch der Knackpunkt aktuell an KI, dass wir das noch nicht so richtig verstehen. Also man kann sich das so vorstellen: Man hat jetzt ein Bild. Also so eine KI., zumindest die, die ich nutze, ist aus verschiedenen Ebenen aufgebaut. Und jetzt in der ersten Ebene schaut die KI zum Beispiel in dem Bild nach Kanten, weil Kanten sind ja immer sehr markant und je tiefer wir gehen in diesen Verarbeitungsschritten oder je weiter wir gehen, desto komplexer werden diese Strukturen oder Merkmale, die die KI erkennt. Aber das als Mensch zu interpretieren, weil das ja zum Teil Millionen an Werten sind, die wir als Mensch interpretieren müssen, ist sehr schwierig. Es gibt da Ansätze in der Forschung, die versuchen, das erklärbar zu machen. Als ein Beispiel wenn man jetzt das Kennzeichen hat und Teile das Kennzeichen abdeckt und dann mal schaut, was die KI so als Vorhersage macht. Dass man sieht, welche Regionen im Bild sind für welche Vorhersage verantwortlich. Solche Ansätze gibt es. Andere Ansätze gibt es zu versuchen, zusätzlich zu der Ausgabe, also jetzt dem Kennzeichen, einen weiteren Wert auszugeben, der so eine Art Unsicherheit ausdrückt. Das heißt, in dem Fall kann zum Beispiel eine Unsicherheit sein, dass wir auf dem Bild nur deutsche Kennzeichen haben. Die haben der KI bisher nur deutsche Kennzeichen gezeigt. In Deutschland können ja aber auch andere Autos aus der EU oder nicht EU fahren. Ein niederländisches Kennzeichen, dann wird es wahrscheinlich irgendwas ausgeben, aber nichts sinnvolles. Und da wäre es dann richtig gut, wenn man so eine Art zusätzliches Maß hätte, welches anzeigt: wie sicher ist sich die KI überhaupt? #00:09:21-8#

Katharina Mittenzwei: Und wie schätzen Sie die aktuelle Forschung gerade ein? Geht es eher in Richtung Wir sind innovativer oder wir kümmern uns erstmal darum, dass wir die KI, die gerade passiert, verstehen. #00:09:33-9#

Franziska Schirrmacher: Also ich würde sagen, das sind so zwei Stränge und der Erklärbar und Unsicherheitsstrang wird immer stärker und kommt in immer mehr Themenbereichen vor. War aber glaube ich eine lange Zeit eher so eine Nische. Aber jetzt, wenn es gerade um die Anwendbarkeit von KI geht, wird das natürlich auch immer wichtiger. Wobei die Frage ist, inwieweit natürlich die Forschung dafür verantwortlich ist, das dass es um Erklärbarkeit geht, weil die Forschung ja zum Teil nicht oder nicht zwangsweise anwendet, sondern eher erforscht, was ist möglich? #00:10:22-6#

Katharina Mittenzwei: Ja, die KI und bitte verbessern Sie mich, wenn ich jetzt die falschen Begrifflichkeiten verwende... Die Forschung der künstlichen Intelligenz kommt ja sozusagen eher aus der Techbranche. Aber ich könnte mir jetzt vorstellen, gerade auch wenn es um eine polizeiliche Anwendbarkeit geht, dass auch verschiedene Nachbardisziplinen wie beispielsweise Jura immens wichtig sind, um die KI sozusagen gesellschaftsfähig und profund zu machen. Gibt es noch andere Disziplinen oder wie stark sind Sie verknüpft mit anderen Forschungen. #00:10:55-4#

Franziska Schirrmacher: Also ich persönlich jetzt nicht so stark. Allerdings gibt es mittlerweile an unserem Lehrstuhl ein sogenanntes Graduiertenkolleg. Das ist so eine Art Programm für Doktoranden, wo diese über drei Jahre begleitet werden und das ist Informatik und Jura zusammen. Und da geht es unter anderem, jetzt nicht ausschließlich das ist eher ein kleiner Teil, auch um die Verwendung von KI, zum Beispiel für polizeiliche Ermittlungen. Und ja, da ist wieder die die Schwierigkeit mit der Erklärbarkeit und auch Nachvollziehbarkeit, weil der Richter möchte ja dann wissen: Wie kamen die auf das Ergebnis? Und wenn man das nicht kann, ist das natürlich schwierig. Aber ja, solche Fragestellungen kommen in der Forschung an. Medizin ist ja auch immer so ein so ein Punkt, wo es Überschneidungen mit der Technik gibt. Ja, das sind so die Beispiele, die mir jetzt einfallen würden. #00:11:57-8#

Katharina Mittenzwei: Ich habe bei der Vorstellung Ihrer Person erwähnt, dass Sie letztes Jahr als KI Newcomerin des Jahres von der Gesellschaft für Informatik nominiert worden sind. Ging es dabei um das polizeiliche Projekt? Um das Projekt mit dem BKA? #00:12:10-7#

Franziska Schirrmacher: Ja, also das war das, was ich vorgestellt hatte. Bei dieser Veranstaltung ging es auch zum Teil um ,jetzt nicht nur die eigene Forschung, sondern auch um die Vermittlung von KI Inhalten an die breite Bevölkerung. Es waren verschiedene Kriterien, die da erfüllt sein mussten, um keine KI Newcomer zu werden. Und Forschung war da ein Aspekt. #00:12:47-6#

Katharina Mittenzwei: Und in der Vermittlung der KI an die breite Bevölkerung sind wir gerade mittendrin. #00:12:53-6#

Franziska Schirrmacher: Genau. #00:12:54-3#

Katharina Mittenzwei: Sie haben erwähnt, Sie haben mit der Polizei zusammengearbeitet oder tun das auch jetzt noch. Plaudern Sie doch mal ein bisschen aus dem Nähkästchen für uns. Wie ist das? Was machen Sie da? #00:13:05-4#

Franziska Schirrmacher: Das initiale Projekt, da ging es immer um Kennzeichenerkennung. Das ist ein Teilaspekt, mit dem das BKA zu tun hat. Also die bekommen Daten aus verschiedenen Überwachungskameras oder von anderen Quellen und versuchen dann das Fahrzeug einem Kennzeichen zuzuordnen und somit einer Person. Und da hatte ich so eine Art Vorarbeit geleistet und wollte schauen, wenn man jetzt so ein Bild bekommt, ob man wenn man das bearbeitet und es vorher nicht lesbar war, für die Menschen lesbar machen kann. Das hat allerdings eher schlecht funktioniert. Wenn man sich das vorstellt, wenn man ein Bild hat, wo man das Kennzeichen nicht lesen kann und das sehr klein ist, dann sind da nicht mehr viele Informationen vorhanden und so viel besser sah es nachher auch nicht aus. Und jetzt gab es aber ein zweijähriges Projekt am Lehrstuhl, das jetzt nicht ich bearbeitet habe, sondern ein anderer Doktorand. Die haben einen Antrag gestellt, um zu schauen, wie gut KI jetzt für den Fall funktioniert. Und das funktioniert gut, und zwar als sogenannter Ermittlungshinweis. Das heißt, das wird jetzt nicht vor Gericht verwendet, sondern ist eher so eine Art Unterstützung in der Ermittlung. Das ist so die Idee. Das heißt, das BKA kriegt dann Bild, schneidet das Kennzeichen aus dem Bild aus, übergibt es dem Programm und das sagt dann das Kennzeichen AB123 ist zu sehen. #00:14:50-2#

Katharina Mittenzwei: Das heißt, da geht es jetzt aktuell um Autos und Maschinen, um jetzt nochmal eher in diesem skeptischen Bereich zu bleiben. Der Schritt hin, Menschen einzukategorisieren mithilfe von KI ist dann ja nicht mehr weit. Und wenn ich das in Verbindung mit polizeilicher Ermittlungsarbeit sehe, dann fällt mir ganz klar das Schlagwort Racial Profiling ein. Wissen Sie, ob es da bereits KI Ansätze gibt, Menschen sozusagen durch maschinelles Lernen ausfindig zu machen? #00:15:27-1#

Franziska Schirrmacher: Also hier in Deutschland ist mir das nicht bekannt. Ich meine mich zu erinnern, dass es in den USA eine KI gab, die Straftäter eingestuft hat. Da ging es darum, wie wahrscheinlich es ist, dass jemand rückfällig wird. Und das hat eine KI beurteilt. Und da hat sich dann auch herausgestellt, dass da die Hautfarbe ein ausschlaggebendes Kriterium war und das ist natürlich sehr schwierig. Inwieweit das bei der deutschen Polizei zum Tragen kommt, kann ich nicht beurteilen. Es gibt jetzt aber einen sogenannten Artificial Intelligence Act von der EU oder Europäischen Kommission, die KI Anwendungen in verschiedene Risikogruppen einordnet und dann basierend auf der Risikogruppe verschiedene Anforderungen an die KI oder die Entwickler der KI hat, entsprechenden Kriterien zu folgen. Und da ist die Polizei natürlich im hohen Risiko. Also alles, was mit der Polizei zu tun hat, ist natürlich hohes Risiko und muss entsprechend stärkeren Regularien unterstellt sein. #00:16:45-8#

Katharina Mittenzwei: Die Polizei ist natürlich auch ein Element in unserem gesellschaftlichen Gefüge, das da eine hohe Macht hat, aber auch vielleicht eine Stufe niedriger sind wir ja auch in unserem Alltag so gesellschaftlichen Kategorisierungen ausgesetzt, die auch durch KI, angetrieben wird. Ich denke jetzt an das Jobcenter, ich denke an Kreditvergaben bei Banken. Da sind wir ja sozusagen schon so weit, dass Mitarbeitende, wie gesagt, der Bank oder des Jobcenters so eine Einschätzung bekommen von ihrem System. Bekommt jetzt diese Person eine Sanktion oder bekommt sie weiter Hartz IV? Bekommt die Person einen Kredit für einen Kleinwagen? Können wir denn diese Eingruppierung einer Maschine überlassen? #00:17:34-7#

Franziska Schirrmacher: Das kommt, würde ich persönlich jetzt sagen, auf die Daten an. Also auf die Datenlage, mit der die KI oder von der die KI gelernt hat. Weil wenn ich mir das vorstelle: Ich nehme eine KI, um Lebensläufe auszusortieren. Dann habe ich jetzt einen Datensatz aus den USA mit lauter weißen Männern um die 30 Jahre alt. Dann wird es natürlich schwierig, dass die KI sich für eine muslimische Frau entscheidet, die vielleicht schon 40 oder 50 ist. Das heißt, die KI zeigt uns nur auf, was mit unseren Daten nicht stimmt. Zum Teil zumindest. Wenn wir für unser Jobcenter jetzt einen diversen Datensatz, der repräsentativ für unsere Gesellschaft steht, verwenden, dann würde die KI wahrscheinlich auch... Ich weiß nicht, ob das Wort "besser" passend ist, aber passendere vielleicht Ergebnisse erzielen oder fairer. Wie auch immer man Fairness definiert. #00:18:45-8#

Katharina Mittenzwei: Das heißt, wir müssen irgendwie schauen, dass nach wie vor der Mensch im Mittelpunkt steht, weil der Mensch ja auch immer noch mit einem gewissen Erfahrungswert und der subjektiven Einschätzung agiert. Ist der Begriff "Künstliche Intelligenz" in Ordnung? Oder muss es nicht eher so was wie "Maschinelles Lernen" heißen? Damit ganz klar ist: Es ist nach wie vor eine Maschine und es hat nichts mit Intelligenz zu tun. Oder was ist Intelligenz in dem Bereich? #00:19:14-4#

Franziska Schirrmacher: Schwierig. Also maschinelles Lernen ist auf jeden Fall eine Untergruppe der künstlichen Intelligenz. Also das kann man so sagen. Also künstliche Intelligenz wird in verschiedene Gruppen aufgeteilt und maschinelles Lernen ist eine Untergruppe. Ich glaube, die verstehen wir am besten. Und Intelligenz? Ich finde, Intelligenz hört sich immer sehr mächtig an! Als ob das irgendwann so eine Art Eigenleben entwickelt. Ich persönlich könnte mir das jetzt nicht vorstellen. Und man muss auch sagen, dass die KI immer noch Schwierigkeiten hat. Sowas wie Emotionen, das sind ja Sachen, die der Mensch relativ einfach und schnell erkennen kann, aber die für eine KI immer noch sehr schwierig sind. Also diese emotionalen, irrationalen Entscheidungen, die der Mensch trifft. Die sind relativ schwierig. Aber mit Millionen von Daten umzugehen, was für den Menschen schon wieder schwieriger ist, ist für einen Algorithmus aus dem Bereich des maschinellen Lernens deutlich einfacher. Wenn man sich jetzt einfach nur Google vorstellt oder die ganzen Social Media Seiten, die gehen ja mit Millionen von Daten um und empfehlen mir dann neue Inhalte. Das würde der Mensch nicht hinbekommen. Das heißt, alles, was automatisch in großen Mengen verwendet wird, wo es einen definierten Bereich gibt, in dem es interagiert. Also wenn ich jetzt meinem Algorithmus sage unterscheidet zwischen Katz und Hund und dann zeige ich ihm ein Bild von einem Pferd, dann würde er sich trotzdem für Katze oder Hund entscheiden. Also für eins, weil er ja nicht weiß, dass es auch noch Pferde gibt. Das heißt, man muss schauen, dass es so ein abgegrenzter Rahmen ist. Entsprechend repräsentative Daten zur Verfügung stellen. Dann kann man Aufgaben, die automatisiert ablaufen, auch gut durch eine KI abdecken. Wenn es aber eher um irrationale, emotionale Geschichten geht, ist es natürlich schon deutlich schwieriger. Da ist der Mensch immer noch unverzichtbar. Also wenn ich jetzt zum Beispiel an die Pflege denke, da hatte ich was gelesen, das KI vielleicht auch als Pflegeroboter vorkommt oder im Pflegeroboter, dann fehlt dem, der gepflegt wird, natürlich die menschliche Interaktion. Also so ein Roboter kann nie die menschliche Fürsorge nachbauen oder sich so verhalten wie ein Mensch. #00:21:55-0#

Katharina Mittenzwei: Sie haben jetzt häufiger Amerika oder die Vereinigten Staaten genannt, auch als Beispiel. Wie schätzen Sie denn die Forschung in Deutschland ein? Wie weit sind wir in Deutschland mit der KI Forschung im Gegensatz zu vielleicht anderen internationalen Ergebnissen? #00:22:12-3#

Franziska Schirrmacher: Schwierig. Also was ich so beobachte, ist dass viel die großen Konzerne auch in der Forschung sind. Also Google und Facebook haben ja eigene Forschungseinrichtungen, die natürlich jetzt von den Forschungsmitteln her deutlich mehr Kapazitäten haben. Aktuell ist es immer noch so je mehr Kapazität, desto schneller kann ich arbeiten. Aber ich würde jetzt nicht sagen, dass die deutsche Forschung komplett hinterherhinkt. #00:22:47-9#

Katharina Mittenzwei: Lassen Sie uns zu einem anderen Themen Aspekt gehen, der nicht minder wichtig ist. Es erscheint so, als sei die Forschung und Entwicklung an KI tatsächlich in Männerhänden. Ist das erstmal so? Liege ich da richtig mit meiner Beobachtung? Und inwieweit ist es gesellschaftlich riskant, wenn männliche Perspektiven den Algorithmus diktieren? #00:23:10-9#

Franziska Schirrmacher: Hm, wenn ich jetzt so an mein Umfeld denke, dann ist es schon eher männerdominiert. Also meine Kollegen sind hauptsächlich männlich. Auch wenn man jetzt sich ins Studium zurückversetzt. Da waren auch hauptsächlich Männer. Frauen waren eher selten. Medizintechnik ist ein Studiengang, der 50 % Frauen hat, aber das ist schon so das Maximum. #00:23:37-0#

Katharina Mittenzwei: Es geht dann wieder in diesen Fürsorgebereich,oder? #00:23:42-5#

Franziska Schirrmacher: Genau. Wenn man sich das jetzt im Studium vorstellt sind zum Beispiel in der Informatik, sage ich jetzt mal zehn Frauen unter 100 Männern, dann wird das natürlich später auch nicht besser werden der Anteil, sondern wahrscheinlich eher sogar schlechter. Und dann ist die Frage, inwieweit natürlich das Geschlecht unterschiedliche Vorstellungen unter einer Aufgabe hat. Also wenn das klar definiert ist, weiß ich jetzt nicht, inwieweit das Geschlecht ausschlaggebend ist für für das Verhalten des Algorithmus. Ich denke aber generell, dass bei der Entwicklung Diversität jetzt ungeachtet vom Geschlecht, auch jetzt von der ethnischen Herkunft her wichtig ist. Wenn zum Beispiel ein Algorithmus für Deutschland funktioniert, dann heißt das nicht zwangsweise, dass er in Indien funktioniert. Wenn man jetzt als banales Beispiel die Gesichtserkennung vom Handy nimmt. Dann entwickle ich die hier. Und es funktioniert super. Und jetzt möchte ich mein Produkt in Asien verkaufen. Da sind natürlich die Gesichtsmerkmale komplett anders. Und wenn ich ihm jetzt nur deutsche Gesichter gezeigt habe oder europäische Gesichter, dann wird es natürlich in Asien nicht funktionieren. Das heißt, solche Aspekte müssen beurteilt oder mit einfließen. Und da muss man sich jetzt überlegen, ob die Aufgabe eine Diversifizierung erfordert oder nicht. Ob mein Problem, das ich hier habe, auch ein ähnliches Problem an einem anderen Ort ist. #00:25:25-9#

Katharina Mittenzwei: Also ich habe den Eindruck, dass diese Diversifizierung des Algorithmus ganz besonders bei Werbung und in den sozialen Netzwerken wichtig und unverzichtbar ist. Ich denke beispielsweise an Instagram oder an TikTok, bei dem ja meines Wissens Beiträge gepusht werden, die vom Algorithmus als sehenswert angesehen werden und dementsprechend Menschen, die objektiv nicht schön sind, die vielleicht tatsächlich auch arm aussehen, weniger angezeigt werden. Das heißt, irgendjemand entscheidet was ist objektiv schön und das wird gepusht. Steht im Ranking weit oben und bildet die vermeintliche Mehrheit in den Beiträgen ab. Das bietet großes Gefahrenpotenzial. #00:26:09-8#

Franziska Schirrmacher: Ja, es ist ja nicht so ganz bekannt, wie die Algorithmen von YouTube und Google funktionieren. Ich weiß jetzt nicht, inwieweit der tatsächliche... Es ist wahrscheinlich so eine Art Spirale, dass Menschen eher... Also es kommt ja soweit ich weiß nicht nur auf den Inhalt an, sondern auch auf die Likes und auf die Kommentare. Also die Anzahl der Likes oder generell Interaktionen. Und je mehr Interaktionen ein Video hat, desto stärker wird es gepusht. Und die Frage ist, ob die initiale Interaktion daher kommt, dass die Person schön ist, weil alle Benutzer sie schön finden und sie dadurch gepusht wird, oder ob es vielleicht einen initialen Push von den sozialen Medien gibt. Das kann ich aber nicht einschätzen. #00:27:00-3#

Katharina Mittenzwei: Nochmal zurück zur Werbung, die ich gerade auch erwähnt habe, denn auch da erscheint es mir immens wichtig, dass nicht die Unternehmen selbst Weichgewaschene Selbsterklärungen abgeben, wie sie ihr Produkt bewerben, sondern es gesetzliche Regelungen gibt. Dass Instagram nicht irgendwie weiß: Ich bin eine Frau im gebärfähigen Alter und mir wird ständig irgendwie Kinderkram vorgeschlagen, obwohl ich überhaupt gar nichts damit zu tun habe. Und ich möchte das auch gar nicht sehen. Welche gesetzlichen Regelungen gibt es da? Ich weiß beispielsweise, das sehr laute Rufe vom Chaos Computer Club gegeben hat, doch unbedingt für Werbetreibende gesetzliche Regelungen zur Algorithmus Erlernung einzuführen. #00:27:49-6#

Franziska Schirrmacher: Soweit ich weiß, aber ich bin da auch nicht sehr gut bewandert, ist dieser Artificial Intelligence Act so der erste Versuch, das juristisch oder gesetzlich zu regulieren. Das stuft eben das Risiko ein. Und dann ist die Frage, wie hoch das Risiko von Werbung eingestuft ist. Also da werden ja die Anwendungen in Risikogruppen kategorisiert. Also inakzeptables Risiko, hohes Risiko und minimales Risiko. Und wahrscheinlich ist jetzt Werbung noch nicht so riskant, als dass sie deswegen starke Regularien braucht. Und Werbung gibt halt immer noch Geld. Da ist natürlich die Frage, inwieweit die Interesse daran haben, dass das reguliert wird. Es hat natürlich auch zwei Seiten. Ich persönlich finde es manchmal ganz schön, wenn mir was vorgeschlagen wird aus Bereichen, in denen ich eh schon suche oder dass eine Marke angezeigt wird, die ich noch nicht kenne, aber die passt zu meinem Stil. Inwieweit die Unternehmen verantwortlich sind oder ob wir als Gesellschaft, da wir es sowieso nicht mehr verhindern können lernen müssen, damit umzugehen und unsere Kinder und uns selber schulen müssen im Umgang mit sozialen Medien. Im Umgang mit Werbung. Ob das vielleicht nicht jetzt erstmal wichtiger oder ob man das nicht auch verfolgen sollte? Also neben den juristischen Regularien auch selber zu überlegen: Wie ist mein Umgang mit sozialen Medien? Inwieweit bin ich anfällig für Werbung? Wenn ich jetzt Kinder habe, soll ich ihnen einfach sagen, so funktioniert das und sei vorsichtig wie man damit umgeht. Also ihnen Tools oder Werkzeuge zur Verfügung zu stellen, wie sie damit umgehen können. #00:30:09-1#

Katharina Mittenzwei: Weil einfach von der KI tatsächlich so eine abstrakte Gefahr wahrgenommen wird. #00:30:17-0#

Franziska Schirrmacher: Generell, habe ich manchmal das Gefühl, dass KI größer gemacht wird, als sie tatsächlich ist. Denn es funktioniert zwar gut und zum Teil auch sehr gut, aber wenn ich jetzt wirklich in die reale Welt gehe, die so viel komplexer ist als jetzt meine Daten, die ich ihr gebe, dann kommt sie sehr schnell an ihre Grenzen. Das sieht man ja auch beim autonomen Fahren. Es ist weit entwickelt, aber jetzt noch weit entfernt von Massenproduktion. Und wenn, wenn es natürlich für eine KI schwierig ist, mit der realen Verkehrswelt umzugehen, dann ist es natürlich für andere reale Probleme auch noch in weiter Ferne. #00:31:11-9#

Katharina Mittenzwei: Wir haben jetzt gerade über nochmal einen relativ negativen Aspekt gesprochen, aber KI, wie auch in Ihrer Zusammenarbeit mit der Polizei ist ja häufig auch hilfreich oder sogar alternativlos, richtungsweisend. Beispielsweise in der Medizin. Ich habe von einem jungen Forscher gelesen, der eine App entwickelt hat, in welcher die Nutzer|innen selbst ein Hautscreening zur Früherkennung von Hautkrebs durchführen können. Das klingt irre gut und ich frage mich: Warum liest man davon in der Praxis so wenig? Oder gibt es davon schon was? Was kommt da noch? Wie schätzen Sie das zukünftig ein? Solche so super hilfreichen Entwicklungen. #00:31:53-7#

Franziska Schirrmacher: Ich denke, eine der Problematiken ist, dass das wahrscheinlich auch eine Hochrisikoanwendung ist. Das heißt, zum einen kommt da die Frage auf: Jetzt habe ich einen Patienten, der macht dieses Screening und sagt alles ist in Ordnung. Und dann geht er irgendwann zum Hautarzt und der sagt: Sie haben Hautkrebs im Endstadium. Wer ist dann dafür verantwortlich? Also die Frage der Verantwortlichkeit. Ist es der Algorithmus? Der den Algorithmus entwickelt hat? Ist es die Firma? Es ist der Arzt? Also solche Fragen müssen natürlich geklärt werden. Und was zum Teil wahrscheinlich auch noch schwierig ist, an Daten zu kommen. Wer hat die Daten? Wer hat große Mengen an Daten? Wie kommt man da ran? Sind diese Daten, an die man rankommt, repräsentativ? Weil Daten aufzunehmen ist kostspielig und zeitaufwendig. Wenn ich jetzt zum Beispiel an das BKA Projekt denke, dann müsste ich mich ja in ganz Deutschland an verschiedene Orte stellen und Bilder aufnehmen von Kennzeichen, dass mein Datensatz repräsentativ für ganz Deutschland funktioniert. Ich müsste es zu verschiedenen Tageszeiten bei Regen, im Winter, im Sommer. Alleine um die Jahreszeiten abzudecken, müsste ich ja schon ein ganzes Jahr lang Daten aufnehmen. Und diese Komplexität ist natürlich kostspielig. Und wenn ich jetzt als kleine Entwickler solche Anwendungen schreibe, wie komme ich da an Daten? Genau das ist die eine Sache. Also Geld, Daten, Geld für Daten, Verantwortlichkeit. Also wer ist für die KI verantwortlich? Und wie praxistauglich ist es? Wie gut kann ich testen in einer realen Umgebung, ob meine KI so funktioniert, wie ich mir das vorgestellt habe? #00:34:01-8#

Katharina Mittenzwei: Die Algorithmiker müssen erst mal ganz viel Handarbeit leisten, bevor es dann ans Eingemachte geht. #00:34:12-7#

Franziska Schirrmacher: Ja, also allein die Überprüfung der Praxistauglichkeit ist schon sehr schwierig. Und natürlich im medizinischen Umfeld auch sehr mit Vorsicht zu genießen, weil man ja zum Teil Entscheidungen über Leben und Tod trifft. Wenn man es jetzt mal zugespitzt sagt. Also wenn jetzt mein Krebs nicht erkannt wird, dann ist es natürlich schlecht für mich. #00:34:39-4#

Katharina Mittenzwei: Bei dem Thema Datensammlung oder Vorarbeit leisten. Um so ein Programm mit Daten zu füttern, fällt mir dieses Recaptchas Programm ein. Ich weiß nicht, ob ich es richtig ausspreche. Wo man als Userin beweist, dass man kein Computer ist und die Ampel, Brücken oder Bahnübergänge anklicken muss. Da sind wir als Bürgerinnen oder als Nutzerinnen sozusagen selbst instrumentalisiert und füttern, indem wir als Menschen sagen: So sieht ein Bahnübergang aus, die Maschine. Merkt ihr das? #00:35:10-2#

Franziska Schirrmacher: Na ja, wir füttern ja nicht nur damit. Zum Beispiel bei Google Maps muss man explizit ausschalten, dass der Standort nicht erfasst wird. Wenn man das nicht ausschaltet, kann man dann nachsehen, wo man überall war. Aber um Google herumzukommen ist natürlich schwierig. Also eigentlich immer dann wenn wir mit dem Computer interagieren, werden Daten gesammelt. Das ist eine Sache. Und das zu umgehen ist natürlich sehr schwierig. #00:35:43-1#

Katharina Mittenzwei: Nutzen Sie denn privat: Twitter, Instagram etc.? #00:35:48-7#

Franziska Schirrmacher: Nein. Ich hatte mal Instagram und Facebook aber das ist jetzt eher so eine Art aus einer Sucht Perspektive.... Ich habe damit einfach zu viel Zeit verbracht und ich fand es sehr schwierig, das zu regulieren. All diese Apps sind ja so gestaltet, dass man das nicht selber oder sehr schwierig nur selber regulieren kann. Und habe mich dann entschieden, meine Accounts zu löschen. Um YouTube kommt man jetzt schwierig herum und so was wie LinkedIn habe ich noch. Aber das ist jetzt nicht so aufregend. #00:36:34-3#

Katharina Mittenzwei: Ja. Das heißt, es hat weniger einen Sicherheitsaspekt als mehr einen Aspekt des angemessenen Umgangs. Haben Sie denn für uns Tipps zur Nutzung bestimmter Plattformen? Können wir da was von Ihnen lernen? #00:36:52-8#

Franziska Schirrmacher: Ich würde generell immer sagen: überprüfen, das heißt nicht nur einer Quelle trauen, sondern erstmal überlegen, Ist das realistisch, je nachdem, was gezeigt wird? Ähm. Ja, das wäre so so das Wichtigste. Also Quellen überprüfen. Wenn der mir jetzt in seinem Youtubevideo sagt: XY hat irgendwas gemacht, dann sollte ich da nicht nur YouTube oder dem Video vertrauen, wo ja auch YouTube nicht nicht zwangsweise für deren Inhalt verantwortlich ist und dann immer noch in Zeitungen oder sonstigen Quellen nachlesen. Bei der Werbung, da geht es natürlich um das eigene Kaufverhalten. Wenn es jetzt Werbung ist für Dinge, die man kaufen soll. Wahrscheinlich eine Nacht drüber schlafen und sich überlegen, ob man Dinge wirklich braucht. Aber ja, bei den ganzen sozialen Medien sollte man sich überlegen: Brauche ich das? und mag ich das jetzt nur weil alle es mögen oder möchte ich das wirklich? Und was, Was bringt es mir? und was hilft es mir? Und sich zu überlegen: Wofür nutze ich die sozialen Medien eigentlich? Kann ich diesen Zweck vielleicht auch irgendwie anders... Also zum Beispiel mit Freunden in Kontakt bleiben oder neueste Trends sehen...Kriege ich das auch irgendwie anders hin? Brauche ich dafür die sozialen Medien? #00:38:27-4#

Katharina Mittenzwei: Und zum Schluss die Frage Frau Schirrmacher, Utopie oder Dystopie? #00:38:33-8#

Franziska Schirrmacher: Im im richtigen Umgang würde ich es eher in die Utopierichtung schieben, weil es natürlich schon uns gute Möglichkeiten liefert. Aber da ist natürlich das Wichtige, dass wir entsprechend gut damit umgehen. Gute Datensätze haben, die repräsentativ sind und uns fragen, für welche Anwendungen wir tatsächlich KI brauchen und wie risikobehaftete diese sind. #00:39:06-6#

Katharina Mittenzwei: Ja, danke, Frau Schirrmacher. Ich möchte zum Schluss Sie und die Hörerinnen und Hörer gerne auch noch einladen, und zwar zu den Nürnberger texttagen. Das ist das Literaturfestival des Bildungscampus Nürnberg. Wir haben in diesem Jahr nämlich zwei Autor|innen zu Gast, die sich in ihren Romanen dem Thema der KI verschrieben haben. Das ist einmal Philipp Winkler mit seinem Roman "Creep" und Zoe Jenny mit dem Roman "Der verschwundene Mond". Ich würde Ihnen empfehlen, einfach auf unsere Website zu gehen www.texttage.nuernberg.de und sich für die Lesungen anzumelden. Das wird ganz spannend. Und das heißt, wir merken nicht nur in unserem, in unserem ganz praktischen Alltag ist die KI stark verhaftet, sondern natürlich auch in der Kunst, in der Literatur. Überall, findet sie halt. Frau Schirrmacher, ich möchte mich ganz herzlich bedanken für Ihre Zeit. #00:39:56-7#

Franziska Schirrmacher: Ja, gerne. #00:39:57-5#

Katharina Mittenzwei: Dass ich Sie oder wir Sie kennenlernen durften und uns sehr spannende Einblicke gegeben haben. Und ich wünsche Ihnen alles Gute für Ihre Forschung. Und ja, eine Menge Datensätze. #00:40:08-2#

Franziska Schirrmacher: Danke schön. #00:40:10-1#

Dieses Projekt/Diese Maßnahme/Initiative leistet einen wichtigen Beitrag, Nürnberg schrittweise inklusiver zu gestalten. Es/Sie ist Teil des Nürnberger Aktionsplans zur Umsetzung der UN-Behindertenrechtskonvention (UN-BRK). Den Ersten Aktionsplan hat der Nürnberger Stadtrat im Dezember 2021 einstimmig beschlossen. Um die gleichberechtigte Teilhabe von Menschen mit und ohne Behinderung in Nürnberg zu verwirklichen, wurden und werden umfangreiche Maßnahmen entwickelt und umgesetzt. Weitere Informationen finden Sie unter www.inklusion.nuernberg.de.

„KI kommt in unserer komplexen Welt schnell an die Grenzen.“ Ein Gespräch über Hund und Katz, emotionale Entscheidungen und das Datensammeln."

Die Doktorandin Franziska Schirrmacher (M. Sc.) von der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) forscht an einem Thema, das jede und jeden von uns mittlerweile fast permanent umgibt - Künstlicher Intelligenz. Für Ihre Forschung am Lehrstuhl für IT-Sicherheitsinfrastrukturen wurde Sie 2021 als KI-Newcomerin des Jahres von der Gesellschaft für Informatik nominiert. Als Algorithmikerin ist Schirrmacher ständig dabei Daten zu sammeln. Viele Daten. Insbesondere für ihr Projekt mit dem Bundeskriminalamt zur Bilderkennung von Autokennzeichen füttert sie ihre technische Infrastruktur mit unzähligen Beispielbildern. Dass dahinter viel Handarbeit steckt, erklärt sich selbst. KI gilt als Schlüsseltechnologie und findet sich überall in unserem Alltag – doch welche Macht steckt wirklich dahinter? Inwieweit können bspw. vermeintliche Ergebnis einer polizeilichen Ermittlung, die durch einen Algorithmus entstanden, juristisch verwendet werden?

Welche Zuordnung und Eingruppierung dürfen wir „den Maschinen“ überlassen? Besonders kritisch wird es dann, wenn wir als Menschen direkt betroffen sind. Mit dem „Artificial Intelligence Act”, dem „Gesetz über Künstliche Intelligenz“, liegt der bislang konkreteste Vorschlag zur Regulierung der Nutzung von KI vor. Er folgt einem risikobasierten Ansatz, nach dem KI-Anwendungen ihrem potentiellen Risiko nach in vier Kategorien eingruppiert werden. Schirrmacher ist sich aber sicher, dass „die KI in unserer komplexen Welt schnell an ihre Grenzen kommt“. Am Ende stellt sich immer die Frage: Utopie oder Dystopie?

 

-----

Aufgenommen am: Mittwoch, 20. April 2022
Veröffentlicht am: Donnerstag, 5. Mai 2022
Moderation: Katharina Mittenzwei
Im Gespräch: Franziska Schirrmacher

-------

Alle weiteren Folgen von KontaktAufnahme – der Podcast des Bildungszentrums Nürnberg finden Sie hier. Wir sind mindestens jeden zweiten Donnerstag mit einer neuen Folge online, manchmal öfters.
Wen sollen wir noch befragen - haben Sie Ideen und Anregungen? Oder möchten Sie Ihre eigenen „Glücksmomente“ (manchmal am Ende des Interviews zu hören) an uns schicken? Schreiben Sie uns an!