Franziska Schirrmacher, sind die Algorithmen um uns herum divers genug?

Die folgende Transkription wurde automatisiert mittels KI erstellt. Etwaige Fehler bitten wir zu entschuldigen. Eine manuelle Nachkorrektur erfolgt zeitnah.
Ansage: KontaktAufnahme. Der Podcast des Bildungszentrums Nürnberg. #00:00:10-9#
Katharina Mittenzwei: Herzlich willkommen zu einer neuen Folge der KontaktAufnahme. Mein Name ist Katharina Mittenzwei und ich darf mich heute mit der Doktorandin Franziska Schirrmacher unterhalten. Franziska Schirrmacher von der Friedrich Alexander Universität Erlangen, Nürnberg. Sie forschen an einem Thema, das jede und jeden von uns eigentlich mittlerweile fast permanent umgibt, nämlich an künstliche Intelligenz. Für Ihre Forschung am Lehrstuhl für IT Sicherheits Infrastrukturen. Waren Sie, Frau Schirrmacher, letztes Jahr als KI Newcomerin des Jahres von der Gesellschaft für Informatik nominiert worden? Sie haben mir vor diesem Gespräch ist Hiwi geschickt und beim Lesen Ihres Lebenslaufs ist mir wirklich bewusst geworden, wie wenig ich eigentlich von der Techbranche und KI CIH verstehe. Können Sie uns, damit wir Sie jetzt auch erst mal näher kennenlernen, erzählen, wie Sie überhaupt zu diesem Thema gekommen sind? #00:01:08-4#
Franziska Schirrmacher: Ähm, ja. Und zwar war das so, dass sich das irgendwie so entwickelt hat in meinem Leben. Ich hatte, als ich in der Schule war, nie gedacht, dass ich einfach mal irgendwas mit Informatik mache. Es war ein sehr abstraktes Thema. Ich war zwar gut in Mathe und Physik, aber mit Informatik hatte ich überhaupt gar keine Berührungspunkte. Und dadurch habe ich mir immer vorgestellt Man muss verstehen, wie so ein Computer funktioniert, um Informatik zu studieren. Das konnte ich nicht. Deswegen war das erstmal nichts für mich. Ich habe dann angefangen, Medizintechnik zu studieren, weil ich Medizin und Biologie auch immer sehr interessant fande. Und das war was, da konnte ich mir was drunter vorstellen. Ähm, und da ist allerdings auch sehr viel Informatik und Algorithmik dabei. Das heißt zum Beispiel, wenn man jetzt ins Krankenhaus geht und so ein CT Bild macht, dann hat man ja das so ein Gerät was eine Aufnahme macht und am Ende hat man ein Bild auf dem Bildschirm und wie kommt man zu diesem Bild? Und das Bild muss natürlich auch schön ausschauen, dass der Arzt ein bisschen erkennen kann, das. Das heißt, da ist relativ viel Algorithmen mit dabei. Und so bin ich dann langsam in den Bereich Informatik gekommen und habe dann einen sehr guten Maßstabsbetreuer gehabt, der mich dann auch unterstützt hat zu promovieren, was ich mir vorher auch nie hätte vorstellen können. Von außen sieht es immer so aus, als ob das alles gewollt ist. Aber selbst wenn man sich das als junger Mensch noch nicht vorstellen kann, zu promovieren oder irgendwas mit Informatik zu machen, heißt es nicht, dass man ungeeignet dafür ist oder dass es nichts für einen ist. Deswegen immer Sachen ausprobieren. Das war so mein Motto. Immer ausprobieren. Und dann bin ich auf eine Summer School gegangen. Summer School sind für Doktoranden. Da kommen. Das war in Sizilien. Da kommen Doktoranden aus verschiedenen Ländern zusammen und Professoren halten Vorträge. Und da ging es ums Thema Deep Learning. Das ist jetzt so ein Begriff, der hört sich immer ein bisschen fancy an, aber im Endeffekt heißt es einfach nur Wir bauen. Oder wir ermöglichen es dem Computer, aus Daten zu lernen. Das heißt, wir geben ihm ganz viele Bilder, zum Beispiel von Hunden und Katzen. Und am Ende hat kann der Computer oder das Programm. Entscheidend ist auf dem neuen Bild, was es bisher noch nicht gesehen hat, ist das ein Hund oder eine Katze zu sehen. Und so bin ich dann zu dem Thema gekommen, habe das dann in meinen Forschungen eingebaut und hatte dann die Möglichkeit, so ein Projekt mit dem BKA zu machen. Das war jetzt noch nicht zum Thema KI, da hat sich aber jetzt ein neues Projekt daraus entwickelt. Nicht mit mir, aber ich habe das so ein bisschen begleitet. Genau. Und so bin ich dazu gekommen. Also auf lauter Umwegen Und immer wieder neue Sachen probieren. #00:04:00-6#
Katharina Mittenzwei: BKA meint Bundeskriminalamt. #00:04:03-5#
Franziska Schirrmacher: Ja, genau. #00:04:04-4#
Katharina Mittenzwei: Davon werden Sie uns später bestimmt noch mal mehr erzählen. Um vielleicht noch mal bei diesen basalen Ideen zu bleiben. Was verstehen Sie denn unter KI, unter künstlicher Intelligenz? #00:04:16-7#
Franziska Schirrmacher: Das finde ich ein sehr schwieriger Begriff. Aber als ich den Teil der KI, den ich, in dem ich arbeite, der da versuche ich 111 Programm zu bauen, das aus Daten lernt und eine bestimmte Aufgabe ausführt. Also als Beispiel. Was ich jetzt viel mache, ist Bildverarbeitung. Das heißt, ich habe ein Bild, was von einer schlechten Qualität ist. Um das jetzt mal ein bisschen mit einem Kontext zu sehen Wenn zum Beispiel das Bundeskriminalamt ein Bild bekommt von der Tankstelle und da fährt ein Auto dran, vorbei an dieser Eine Überwachungskamera. Und man kann das mit bloßem Auge nicht erkennen, was für ein Kennzeichen das Auto hat. Ja, dann wäre es vielleicht vorteilhaft, das Bild so ein bisschen zu bearbeiten, um die Qualität zu verbessern. Also ein Beispiel wäre die Auflösung erhöhen, um das Kennzeichen lesbar zu machen. Also das ist jetzt ein Beispiel, das man machen kann. Eine andere Möglichkeit wäre zum Beispiel, dass das, dass wir jetzt das Kennzeichen nehmen und das aus dem Bild ausschneiden und auch unserem Programm geben und das am Ende sagt okay, auf dem Bild, dass das Kennzeichen ab 123 zu sehen. #00:05:32-6#
Katharina Mittenzwei: Das heißt, Ihre Rolle, Frau Schirrmacher, ist dann die, dass Sie dem Algorithmus das Lernen lernen oder die Daten zum Lernen geben. #00:05:42-5#
Franziska Schirrmacher: Genau, Ich. Die ganze, sagen wir mal, Infrastruktur gibt es schon. Das heißt, ich brauche einen Datensatz. Und dann gibt es verschiedene Softwareprogramme, die mir dieses Lernen, dieses Lernen. Es gibt verschiedene Methoden, wie man das dem beibringen kann, die erforscht wurden, sogenannte Optimierungstechniken. Aber das ist jetzt ein bisschen weit gefasst. Auf jeden Fall. Sobald ich Daten habe, kann ich bekannte Komponenten nutzen, die zum Beispiel von Google oder IBM zur Verfügung gestellt werden. Und dann kann ich meinem Algorithmus das beibringen. Das heißt, hauptsächlich brauche ich erstmal Daten. #00:06:28-3#
Katharina Mittenzwei: Das heißt, die KI versteht uns als Mensch, weil wir es ihr mit den Daten beigebracht haben oder beibringen. Aber verstehen wir denn auch die KI? Also? Sind wir denn in der Lage, die Ergebnisse, die uns dieses System dann liefert, zu interpretieren und die Arbeitsschritte zum Ergebnis zu verstehen? Wenn wir jetzt bei diesem Beispiel mit den Autoschildern bleiben vermutlich gibt es dann irgendwie ein Ergebnis. Sie suchen ein Nummernschild und am Ende des Arbeitsprozesses haben Sie dann ein vermeintliches Nummernschild. Aber wie können Sie sicher sein, dass es das Richtige ist? Kann man das anhand von Arbeitsschritten nachvollziehen? Wie die Maschine, so drücke ich es jetzt mal aus. Zu diesem profunden Ergebnis kam. Sehr schwierig. #00:07:11-3#
Franziska Schirrmacher: Und ich glaube, das ist auch der Knackpunkt aktuell an KI, dass wir das noch nicht so richtig verstehen. Und also man kann sich das so vorstellen, dass man hat jetzt ein Bild und das wird mehrfach. Also so so eine KI. Zumindest die, die ich nutze, ist aus verschiedenen Ebenen aufgebaut. Und jetzt in der ersten Ebene schaut die KI zum Beispiel in dem Bild nach Kanten, weil Kanten sind ja immer sehr markant und je tiefer wir gehen in diesen Verarbeitungsschritten oder je weiter wir gehen, desto komplexer werden diese Strukturen oder Merkmale, die die KI erkennt. Aber das jetzt als Mensch zu interpretieren, weil das ja zum Teil Millionen an Werten sind, die wir als Mensch interpretieren müssen, ist sehr schwierig. Es gibt da Ansätze in der Forschung, die versuchen, das erklärbar zu machen. Zum als ein Beispiel wenn man jetzt das Kennzeichen hat und Teile das Kennzeichen abdeckt und abdeckt und dann mal schaut, was die KI so als Vorhersage macht, dass man sieht, welche Regionen im Bild sind für welche Vorhersage verantwortlich. Solche Ansätze gibt es. Andere Ansätze gibt es zum Beispiel, die dann versuchen, zusätzlich zu der Ausgabe, also jetzt dem Kennzeichen, einen weiteren Wert auszugeben, der so eine Art Unsicherheit ausdrückt. Das heißt, in dem Fall kann zum Beispiel eine Unsicherheit sein, dass auf dem Bild wir haben das, dass die KI nur mit deutschen Kennzeichen haben. Die haben der KI bisher nur deutsche Kennzeichen gezeigt. Jetzt kommt aber weil in Deutschland können ja auch andere Autos aus der EU oder nicht EU fahren ein niederländisches Kennzeichen, dann hat es das wird es wahrscheinlich irgendwas ausgeben, aber nichts sinnvolles. Und da wäre es dann sind gut, wenn man so eine Art zusätzliches Maß hätte. An wie sicher ist die KI überhaupt. #00:09:21-8#
Katharina Mittenzwei: Und wie schätzen Sie die aktuelle Forschung gerade ein? Geht es eher in Richtung Wir sind innovativer oder wir kümmern uns erstmal darum, dass wir die KI, die gerade passiert, verstehen. #00:09:33-9#
Franziska Schirrmacher: Also ich würde sagen, das sind so zwei Stränge und der Erklärbar und Unsicherheitsstrang wird immer stärker, würde ich sagen und kommt in immer mehr Themenbereichen vor. War aber glaube ich eine lange Zeit eher so eine Nische. Aber jetzt, wenn es gerade um die Anwendbarkeit von KI geht, wird das natürlich auch immer wichtiger. Wobei die Frage ist, inwieweit natürlich die Forschung dafür verantwortlich ist, das dass es um Erklärbarkeit geht, weil die Forschung ja zum Teil nicht oder nicht zwangsweise anwendet, sondern eher erforscht, was ist, was ist möglich? #00:10:22-6#
Katharina Mittenzwei: Ja, die KI. Und bitte verbessern Sie mich, wenn ich jetzt die falschen Begrifflichkeiten verwende. Die Forschung der künstlichen Intelligenz kommt ja sozusagen eher aus der Techbranche. Aber ich könnte mir jetzt vorstellen, gerade auch wenn es um eine polizeiliche Anwendbarkeit geht, dass auch verschiedene Nachbardisziplinen wie beispielsweise Jura immens wichtig sind, um die KI sozusagen gesellschaftsfähig und profund zu machen. Gibt es noch andere Disziplinen oder wie stark sind Sie verknüpft Mit anderen Forschungen. #00:10:55-4#
Franziska Schirrmacher: Also ich persönlich jetzt nicht so stark. Allerdings gibt es mittlerweile an unserem Lehrstuhl ein sogenanntes Graduiertenkolleg. Das ist so eine Art Programm für Doktoranden, wo die die drei Jahre über begleitet werden und das ist Informatik und Jura zusammen. Und da geht es unter anderem jetzt nicht ausschließlich, das ist eher ein kleiner Teil auch um die Verwendung von KI, zum Beispiel für polizeiliche Ermittlungen. Und ja, da ist wieder die die Schwierigkeit mit der Erklärbarkeit und auch Nachvollziehbarkeit, weil der Richter möchte ja dann sagen, wie kamen die auf das Ergebnis? Und wenn man das nicht kann, ist das natürlich schwierig. Aber ja, solche Fragestellungen kommen in der Forschung an, soweit ich weiß. Gut, Medizin ist ja auch immer so ein so ein Punkt, wo es überlappt gibt, auch zwischen Technik und Medizin. Ja, das sind so die Beispiele, die mir jetzt einfallen würden. #00:11:57-8#
Katharina Mittenzwei: Ich habe bei der Vorstellung Ihrer Person erwähnt, dass Sie als KI Newcomerin des Jahres von der Gesellschaft für Informatik nominiert worden sind. Letztes Jahr ging es dabei um das polizeiliche Projekt und das Projekt mit dem BKA. #00:12:10-7#
Franziska Schirrmacher: Ja, also das war das, was ich vorgestellt hatte Die KI Newcomer, oder? Oder diese Veranstaltung. Da ging es auch zum Teil um jetzt nicht nur die eigene Forschung, sondern auch um die Vermittlung von KI Inhalten an die breite Bevölkerung. Ähm, das waren sie. Es waren verschiedene Kriterien, die da erfüllt sein mussten, um keine Klammer zu werden generell. Und Forschung war da ein Aspekt. #00:12:47-6#
Katharina Mittenzwei: Und in der Vermittlung der KI an die breite Bevölkerung sind wir gerade mittendrin? Genau. Sie haben erwähnt, Sie haben mit der Polizei zusammengearbeitet oder tun das auch jetzt noch. Plaudern Sie doch mal ein bisschen aus dem Nähkästchen für uns. Wie ist das? Was machen Sie da? #00:13:05-4#
Franziska Schirrmacher: Ähm, genau. Also, das Projekt, das initiale Projekt, da ging es auch um. Es ging immer um Kennzeichenerkennung. Das ist ein Teilaspekt, mit dem das BKA zu tun hat. Also die bekommen Daten aus verschiedenen Überwachungskameras oder von anderen Quellen und versuchen dann das Fahrzeug einem Kennzeichen zuzuordnen und somit einer Person. Und da hatte ich so eine Art Vorarbeit geleistet und wollte schauen, ob man, wenn man jetzt so ein Bild bekommt, ob man, wenn man das bearbeitet, wenn es vorher nicht lesbar war, dass man es lesbar macht für den Menschen. Das hat allerdings eher schlecht funktioniert, weil die, wenn man sich das vorstellt, wenn man ein Bild hat, wo man das Kennzeichen nicht lesen kann. Wenn das sehr klein ist, dann sind da nicht mehr viele Informationen vorhanden und so viel besser sah es nachher auch nicht aus. Und jetzt gab es aber ein zweijähriges Projekt am Lehrstuhl, das jetzt nicht ich bearbeitet habe, sondern ein anderer Doktorand. Die haben einen Antrag gestellt, um zu schauen, wie gut KI jetzt für den Fall funktioniert. Und das funktioniert gut, und zwar als sogenannter Ermittlungshinweis. Das heißt, das wird jetzt nicht vor Gericht verwendet, sondern ist eher so eine Art Unterstützung in der Ermittlung. Genau das ist so, so die Idee. Das heißt, das BKA würde dann ein kriegt dann Bild schneidet das Kennzeichen aus dem Bild aus, übergibt es dem Programm und das sagt dann das Kennzeichen AB123 ist zu sehen. #00:14:50-2#
Katharina Mittenzwei: Das heißt, da geht es jetzt aktuell um Autos und Maschinen, um noch mal jetzt eher so in diesem skeptischen Bereich zu bleiben. Der Schritt hin, Menschen zu kategorisieren mithilfe von KI ist dann ja nicht mehr weit. Und wenn ich das in Verbindung mit polizeilicher Ermittlungsarbeit sehe, dann fällt mir ganz klar, dass das Schlagwort Racial Profiling ein. Wissen Sie, ob es da bereits KI Ansätze gibt, Menschen sozusagen durch maschinelles Lernen ausfindig zu machen? #00:15:27-1#
Franziska Schirrmacher: Hm, also hier in Deutschland ist mir das nicht bekannt. Ich meine mich zu erinnern, dass es in den USA eine KI gab, die Straftäter eingestuft hat. Da ging es darum, wie wahrscheinlich es ist, dass jemand rückfällig wird. Und das hat eine KI beurteilt. Und da hat sich dann auch herausgestellt, dass es da die Hautfarbe ein ausschlaggebendes Kriterium war. Ja, und das ist natürlich sehr schwierig. Inwieweit das bei der deutschen Polizei zum Tragen kommt, kann ich nicht beurteilen. Es gibt jetzt aber einen sogenannten Artificial Artificial Intelligence Act von der EU oder Europäischen Kommission, die KI Anwendungen in verschiedene Risikogruppen einordnet und dann basierend auf der Risikogruppe verschiedene Anforderungen an die KI oder an die Entwickler der KI hat, entsprechenden Kriterien zu folgen. Und da ist die Polizei natürlich im hohen Risiko. Also alles, was mit der Polizei zu tun hat, ist natürlich hohes Risiko und muss entsprechend stärkeren Regularien unterstellt sein. #00:16:45-8#
Katharina Mittenzwei: Die Polizei ist natürlich auch ein Element in unserem gesellschaftlichen Gefüge, das da eine hohe Macht hat, sage ich mal, aber auch vielleicht eine Stufe niedriger sind wir ja auch in unserem Alltag sozusagen so gesellschaftlichen Kategorisierungen ausgesetzt, die auch durch KI, sage ich mal, angetrieben wird. Ich denke jetzt an das Jobcenter, ich denke an Kreditvergaben bei Banken. Da sind wir ja sozusagen schon so weit, dass Mitarbeitende, wie gesagt, der Bank oder des Jobcenters so eine, ich sag mal Einschätzung bekommen von ihrem System ist. Diese Person bekommt jetzt diese Person der Sanktion oder bekommt sie weiter Hartz vier? Bekommt die Person einen Kredit für einen Kleinwagen? Können wir denn diese Eingruppierung einer Maschine überlassen? #00:17:34-7#
Franziska Schirrmacher: Hm. Das kommt, würde ich persönlich jetzt sagen, auf die Daten an, also auf die Datenlage, mit der die KI oder von der die KI gelernt hat. Weil wenn ich mir das vorstelle, ich nehme eine KI, um Lebensläufe auszusortieren. Dann habe ich jetzt einen Datensatz aus den USA mit lauter weißen Männern um die 30. Dann wird es natürlich schwierig, dass die KI sich für eine muslimische Frau entscheidet, die vielleicht schon 40 oder 50 ist. Das heißt an sich Die KI zeigt uns nur auf, was mit unseren Daten nicht stimmt. Zum Teil zumindest. Das heißt, wenn. Wenn wir. Wenn wir für unser Jobcenter jetzt einen diversen Datensatz, der repräsentativ für unsere Gesellschaft steht, verwenden, dann würde die KI wahrscheinlich auch. Ich weiß nicht, ob das Wort besser passend ist, aber passendere vielleicht Ergebnisse erzielen oder fairer. Wie auch immer man Fairness definiert. #00:18:45-8#
Katharina Mittenzwei: Das heißt, wir müssen irgendwie schauen, dass nach wie vor der Mensch im Mittelpunkt steht, weil der Mensch ja auch immer noch mit einem gewissen Erfahrungswert und der subjektiven Einschätzung agiert. Ist der Begriff in Ordnung, Künstliche Intelligenz oder muss es nicht eher so was wie maschinelles Lernen heißen? Damit ganz klar ist Es ist nach wie vor eine Maschine und es hat nichts mit Intelligenz zu tun. Oder was ist Intelligenz in dem Bereich? #00:19:14-4#
Franziska Schirrmacher: Schwierig. Also maschinelles Lernen ist auf jeden Fall eine Untergruppe der künstlichen Intelligenz. Also das kann man so sagen. Also künstliche Intelligenz wird in verschiedene Gruppen aufgeteilt und maschinelles Lernen ist eine Untergruppe. Ich glaube, die verstehen wir am besten. Und Intelligenz? Ich finde, Intelligenz hört sich immer sehr, sehr mächtig an! Als ob das irgendwann so eine Art Eigenleben entwickelt würde. Ich persönlich könnte mir das jetzt nicht vorstellen Und man muss auch sagen, dass so. Dass die KI immer noch Schwierigkeiten hat. So was wie Emotionen, das sind ja Sachen, die der Mensch relativ einfach und schnell erkennen kann, aber die für eine KI immer noch sehr schwierig sind. Also diese emotionalen, irrationalen Entscheidungen, die der Mensch trifft oder die sind relativ schwierig. Jetzt aber zum Beispiel mit Millionen von Daten umzugehen, was für den Menschen schon wieder schwieriger ist, ist für eine, sagen wir mal, ein Algorithmus aus dem Bereich des maschinellen Lernens deutlich einfacher. Wenn man sich jetzt einfach nur Google vorstellt oder die ganzen Social Media Seiten, die gehen ja mit Millionen von Daten um und empfehlen mir dann neue Inhalte. Das würde der Mensch nicht hinbekommen. Das heißt, alles, was automatisch in großen Mengen verwendet wird, wo es einen definierten Einen Bereich gibt, in dem es interagiert. Also wenn ich jetzt meinem Algorithmus sage unterscheidet zwischen Katz und Hund und dann zeige ich ihm ein Bild von einem Pferd, dann würde er sich trotzdem für Katze oder Hund entscheiden, also für eins, weil er ja nicht weiß, dass es auch noch Pferde gibt. Das heißt, man muss schauen, dass es so ein abgegrenzter Rahmen ist, entsprechend repräsentative Daten zur Verfügung stellen. Dann kann man Aufgaben, die automatisiert ablaufen, auch gut durch eine KI abdecken. Wenn es aber eher um irrationale, emotionale Geschichten geht, ist es natürlich schon deutlich schwieriger. Da ist der Mensch immer noch unverzichtbar. Also wenn ich jetzt zum Beispiel an die Pflege denke, da hatte ich was gelesen, das KI vielleicht auch als Pflegeroboter vorkommt oder im Pflegeroboter, dann fehlt dem, der gepflegt wird, natürlich die menschliche Interaktion. Also so ein Roboter kann nie die menschliche Fürsorge nachbauen oder sich so verhalten wie ein Mensch. #00:21:55-0#
Katharina Mittenzwei: Sie haben jetzt häufiger Amerika oder die Vereinigten Staaten genannt, auch als Beispiel. Wie schätzen Sie denn die Forschung in Deutschland ein? Wie weit sind wir in Deutschland mit der KI Forschung im Gegensatz zu vielleicht anderen internationalen Ergebnissen? #00:22:12-3#
Franziska Schirrmacher: Schwierig. Also was ich so beobachte ist, dass viel die großen Konzerne auch in der Forschung, also Google und Facebook haben ja eigene Forschungseinrichtungen, die natürlich jetzt von den Forschungsmitteln her deutlich mehr Kapazitäten haben. Und in aktuell ist es immer noch so je mehr Kapazität, desto schneller kann ich arbeiten. Aber ich würde jetzt nicht sagen, dass die deutsche Forschung komplett hinterherhinkt. #00:22:47-9#
Katharina Mittenzwei: Lassen Sie uns zu einem anderen Themen Aspekt gehen, der nicht minder wichtig ist. Es erscheint so, als sei die Forschung und Entwicklung an KI tatsächlich in Männerhänden. Ist das erstmal so? Liege ich da richtig mit meiner Beobachtung? Und inwieweit ist es gesellschaftlich riskant, wenn männliche Perspektiven den Algorithmus diktieren? #00:23:10-9#
Franziska Schirrmacher: Hm, wenn ich jetzt so an mein Umfeld denke, dann ist es schon eher männerdominiert. Also meine Kollegen sind hauptsächlich männlich. Auch wenn man jetzt sich ins Studium zurückversetzt. Waren auch hauptsächlich Männer. Also es war sehr selten. Medizintechnik ist ein Studiengang, der 50 % Frauen hat, aber das ist schon so das Maximum. Das heißt. #00:23:38-8#
Katharina Mittenzwei: Es geht dann wieder in diesen Fürsorgebereich tatsächlich oder Fürsorge Bereich. #00:23:44-1#
Franziska Schirrmacher: Und. Dann, wenn man sich das jetzt vorstellt im Studium sind nur zum Beispiel in der Informatik, sage ich jetzt mal zehn Frauen unter 100 Männern, dann wird das natürlich später auch nicht besser werden der Anteil, sondern wahrscheinlich eher sogar schlechter. Und dann ist die Frage, inwieweit natürlich das Geschlecht unterschiedliche Vorstellungen unter einer Aufgabe hat. Also wenn das klar definiert ist, weiß ich jetzt nicht, inwieweit das Geschlecht ausschlaggebend ist für den für das Verhalten des Algorithmus. Ich denke aber generell, dass bei der Entwicklung Diversität jetzt ungeachtet vom Geschlecht auch jetzt von der ethnischen Herkunft her wichtig ist, weil ja jetzt zum Beispiel, wenn jetzt mein Algorithmus für Deutschland funktioniert, dann heißt das nicht zwangsweise, dass er in Indien funktioniert. Wenn man jetzt als banales Beispiel die Gesichtserkennung vom Handy nimmt. Dann entwickle ich die hier. Und es funktioniert super. Und jetzt möchte ich mein Produkt in Asien verkaufen. Da sind natürlich die Gesichtsmerkmale komplett anders. Und wenn ich ihm jetzt nur deutsche Gesichter gezeigt habe oder europäische Gesichter, dann wird es natürlich in Asien nicht funktionieren. Das heißt, solche Aspekte müssen beurteilt oder mit einfließen. Und da muss man sich jetzt überlegen, ob die Aufgabe eine Diversifizierung erfordert oder nicht, ob mein Problem, das ich hier habe, auch das ein ähnliches Problem an einem anderen Ort ist. #00:25:25-9#
Katharina Mittenzwei: Also ich habe den Eindruck, dass diese Diversifizierung des Algorithmus ganz besonders bei Werbung und in den sozialen Netzwerken wichtig und unverzichtbar ist. Ich denke beispielsweise an Instagram oder an Tiktok, bei dem ja meines Wissens Beiträge gepusht werden, die vom Algorithmus als sozusagen sehenswert angesehen werden und dementsprechend Menschen, die objektiv nicht schön sind, die vielleicht tatsächlich auch arm aussehen, weniger angezeigt werden. Das heißt, irgendjemand entscheidet was ist objektiv schön und das wird gepusht. Steht im Ranking weit oben und bildet die vermeintliche Mehrheit in den Beiträgen ab. Das bietet großes Gefahrenpotenzial. #00:26:09-8#
Franziska Schirrmacher: Hm, ja, wobei ich. Also es ist ja nicht so ganz bekannt, wie die Algorithmen von YouTube und Google funktionieren. Ich weiß jetzt nicht, inwieweit der tatsächliche. Es ist wahrscheinlich so eine Art Spirale, dass Menschen eher. Also es kommt ja nicht nur auf den Inhalt an, sondern auch auf die Likes und auf die Kommentare, soweit ich weiß, also die Anzahl der Likes oder generell Interaktionen. Und je mehr Interaktionen ein Video hat, desto stärker wird es gepusht. Und die Frage ist, ob die initiale Interaktion daher kommt, dass die Person schön ist, weil alle Benutzer sie schön finden und sie dadurch gepusht wird, oder ob es vielleicht einen initialen Push von den sozialen Medien gibt. Das kann ich aber nicht einschätzen. #00:27:00-3#
Katharina Mittenzwei: Nochmal zurück zur Werbung, die ich gerade auch erwähnt habe, denn auch da erscheint es mir immens wichtig, dass nicht die Unternehmen selbst Weichgewaschene selbst Erklärungen abgeben, wie sie ihr Produkt bewerben, sondern es gesetzliche Regelungen gibt. Dass ich nicht die Instagram weiß irgendwie. Ich bin eine Frau im gebärfähigen Alter und mir wird ständig irgendwie Kinderkram vorgeschlagen, obwohl ich überhaupt gar nichts damit zu tun habe. Und ich möchte das auch gar nicht sehen. Beispielsweise welche gesetzlichen Regelungen gibt es da? Ich weiß beispielsweise, dass der Chaos Computer Club, das sehr laute Rufe danach gegeben hat, doch unbedingt für Werbetreibende gesetzliche Regelungen zum Zur Algorithmus Erlernung. Angeklagt hat. #00:27:48-9#
Franziska Schirrmacher: Also soweit ich weiß. Aber ich bin da auch nicht sehr gut bewandert ist dieser Artificial Intelligence Act so der erste Versuch, das zu juristisch oder gesetzlich zu regulieren. Aber das ist noch nicht. Das stuft halt das Risiko ein. Und dann ist die Frage, wie hoch das Risiko von Werbung eingestuft ist. Also da werden ja die Anwendungen in Risikogruppen kategorisiert. Genau. Also inakzeptables Risiko, hohes Risiko und minimales Risiko. Und wahrscheinlich ist jetzt Werbung noch nicht so riskant, als dass sie deswegen starke Regularien braucht. Und Werbung gibt halt immer noch Geld. Und da ist natürlich die Frage, inwieweit die Interesse daran haben, dass das reguliert wird. Und also es hat natürlich auch zwei Seiten. Manchmal finde ich das. Ich persönlich finde es manchmal ganz schön, wenn mir was vorgeschlagen wird aus Bereichen, in denen ich eh schon suche. Oder dass eine Marke, die ich noch nicht kenne, aber die passt zu meinem Stil und inwieweit natürlich, ob die Unternehmen verantwortlich sind oder ob wir als Gesellschaft, weil wir es eh nicht mehr verhindern können, lernen müssen, damit umzugehen und unsere Kinder und uns selber zu schulen im Umgang mit sozialen Medien, im Umgang mit Werbung. Ob das vielleicht nicht jetzt erstmal wichtiger oder ob man das nicht auch verfolgen sollte? Also neben den juristischen Regularien auch selber zu überlegen Wie ist mein Umgang mit sozialen Medien, wie inwieweit bin ich anfällig für Werbung? Welche, wenn ich jetzt Kinder habe, soll ich den. Man kann es nicht verhindern. Aber indem ich ihnen einfach sage, so funktioniert das und sei vorsichtig und wie man damit umgeht, Also ihnen Tools oder Werkzeuge zur Verfügung zu stellen, wie sie damit umgehen können. #00:30:09-1#
Katharina Mittenzwei: Weil einfach von der KI tatsächlich so eine abstrakte Gefahr wahrgenommen wird. #00:30:17-0#
Franziska Schirrmacher: Generell habe ich manchmal das Gefühl, dass KI Manchmal wird sie größer gemacht, als sie tatsächlich ist. Weil das funktioniert zwar gut und zum Teil auch sehr gut, aber wenn ich jetzt wirklich in die reale Welt gehe, die so viel komplexer ist als jetzt meine Daten, die ich hier gebe, dann kommt sie sehr schnell an ihre Grenzen. Das sieht man ja auch beim autonomen Fahren. Da gab es jetzt das ist ja noch nicht gut. Es ist weit entwickelt, aber jetzt noch weit entfernt von Massenproduktion. Und wenn, wenn es natürlich für eine KI schwierig ist, mit der realen Verkehrswelt umzugehen, dann ist es natürlich für andere reale Probleme auch noch in weiter Ferne. #00:31:11-9#
Katharina Mittenzwei: Wir haben jetzt gerade über noch mal einen relativ negativen Aspekt gesprochen, aber KI, wie beispielsweise auch in ihrer Zusammenarbeit mit der Polizei ist ja häufig auch hilfreich oder gar sogar alternativlos richtungsweisend, beispielsweise in der Medizin. Ich habe von einem jungen Forscher gelesen, der eine App entwickelt hat, in welcher die Nutzerinnen selbst ein Hautscreening zur Früherkennung von Hautkrebs durchführen können. Das klingt irre gut und ich? Ich frage mich Warum liest man davon also tatsächlich in der Praxis so wenig? Oder gibt es davon schon was? Was kommt da noch? Wie schätzen Sie das zukünftig ein? Solche so super hilfreichen Entwicklungen. #00:31:53-7#
Franziska Schirrmacher: Ähm. Also ich denke, eine der Problematiken ist, dass das eine sehr wahrscheinlich auch eine Hochrisikoanwendung ist. Das heißt, zum einen kommt da die Frage auf Jetzt habe ich einen Patienten, der macht dieses Screening und sagt alles ist in Ordnung. Und dann geht er irgendwann zum Hautarzt und der sagt Sie haben Hautkrebs im Endstadium. Wer ist dann dafür verantwortlich? Also die Frage der Verantwortlichkeit. Ist es der Algorithmus? Algorithmischer Der, der den Algorithmus entwickelt? Ist es die Firma? Es ist der Arzt? Also solche Fragen müssen natürlich geklärt werden. Genau. Und was zum Teil wahrscheinlich auch noch schwierig ist es, an Daten zu kommen. Wer hat die Daten, wer hat große Mengen an Daten? Wie kommt man da ran? Sind diese Daten, an die man rankommt, repräsentativ? Weil Daten aufzunehmen ist kostspielig und zeitaufwendig. Wenn ich jetzt zum Beispiel an das BKA Projekt denke, dann müsste ich mich ja in ganz Deutschland an verschiedene Orten, an verschiedene Orte stellen und Bilder aufnehmen von Kennzeichen, dass mein Datensatz repräsentativ für ganz Deutschland funktioniert. Ich müsste es zu verschiedenen Tageszeiten bei Regen im Winter, im Sommer. Alleine um die Jahreszeiten abzudecken, müsste ich ja schon ein ganzes Jahr lang Daten aufnehmen. Und diese Komplexität ist natürlich kostspielig. Und wenn ich jetzt als kleine Entwickler solche Anwendungen schreibe, wie komme ich da an Daten? Genau das ist die eine Sache. Also Geld, Daten, Geld für Daten, Verantwortlichkeit. Also wer ist für die KI verantwortlich? Und wie praxistauglich ist es? Wie gut kann ich testen in einer realen Umgebung, ob meine KI so funktioniert, wie ich mir das vorgestellt habe? Das heißt, die Hürden, ja. #00:34:05-2#
Katharina Mittenzwei: Die Algorithmiker müssen erst mal ganz viel Handarbeit leisten, bevor es dann ans Eingemachte geht. #00:34:12-7#
Franziska Schirrmacher: Ja, ja. Ja, also allein diese Überprüfung der Praxistauglichkeit ist schon sehr schwierig, würde ich jetzt mal sagen. Und natürlich im medizinischen Umfeld auch sehr mit Vorsicht zu genießen, weil man ja zum Teil Entscheidungen über Leben und Tod trifft. Wenn man es jetzt mal zugespitzt sagt. Also wenn jetzt mein Krebs nicht erkannt wird, dann ist es natürlich schlecht für mich. #00:34:39-4#
Katharina Mittenzwei: Bei dem Thema Datensammlung oder Vorarbeit leisten. Um so ein Programm mit Daten zu füttern, fällt mir dieses Chapter Programm ein. Ich weiß nicht, ob ich es richtig ausspreche. Wo man als Userin beweist, dass man kein Computer ist und die Ampel anklicken muss. Brücken oder Bahnübergänge. Da sind wir als Bürgerin oder als Nutzerinnen sozusagen selbst instrumentalisiert und füttern, indem wir als Menschen sagen So sieht ein Bahnübergang aus Maschine. Merkt ihr das? #00:35:10-2#
Franziska Schirrmacher: Na ja, wir füttern ja nicht nur damit. Also unser ganzes ja, unser ganzer. Jetzt zum Beispiel bei Google Maps muss man explizit ausschalten, dass der Standort. Wenn man das nicht ausschaltet, kann man dann nachsehen, wo man überall war. Aber um Google herumzukommen ist natürlich schwierig. Also eigentlich alles, wo wir mit dem Computer interagieren, mit dem sammelt ja Daten. Das ist eine Sache. Und das zu umgehen ist natürlich sehr schwierig. #00:35:43-1#
Katharina Mittenzwei: Nutzen Sie denn privat, Twitter, Instagram etc.? #00:35:48-7#
Franziska Schirrmacher: Nein. Also ich hatte. Ich hatte mal Instagram aber und Facebook. Aber das ist jetzt eher so eine Art aus einer Sucht Perspektive. Ich fand es zu. Ich habe damit einfach zu viel Zeit verbracht und ich fand es sehr schwierig, das zu regulieren. Die sind ja auch alle. Diese Apps sind ja so gestaltet, dass man das nicht selber oder sehr schwierig nur selber regulieren kann. Und habe mich dann entschieden, meine Accounts zu löschen. Ähm, aber gut, um YouTube kommt man jetzt schwierig drumrum und sowas wie LinkedIn habe ich noch, aber das ist jetzt nicht so aufregend. #00:36:34-3#
Katharina Mittenzwei: Ja, das heißt, es hat weniger einen Sicherheitsaspekt als mehr. Ein Aspekt des angemessenen Umgang sozusagen. Ja, aber haben Sie denn für uns Tipps zur Nutzung bestimmter Plattformen? Können wir da was von Ihnen lernen? #00:36:52-8#
Franziska Schirrmacher: Also ich würde generell immer sagen überprüfen, das heißt nicht nur einer Quelle trauen, sondern erstmal überlegen, Ist das realistisch, je nachdem, was gezeigt wird? Ähm. Ja, das wäre so so das Wichtigste. Also Quellen überprüfen. Wenn der mir jetzt in seinem Youtubevideo sagt XY hat irgendwas gemacht, dann sollte ich da nicht nur YouTube oder dem Video vertrauen, was ja, wo ja auch YouTube nicht nicht zwangsweise verantwortlich ist für deren Inhalt und dann immer noch in Zeitungen oder sonstigen Quellen nachlesen. Ansonsten ich finde mit der Werbung, da geht es natürlich um das eigene Kaufverhalten. Wenn es jetzt Werbung ist für Dinge, die man kaufen soll. Wahrscheinlich eine Nacht drüber schlafen und sich überlegen, ob man Dinge wirklich braucht. Aber ja, bei dem Ganzen, bei den ganzen sozialen Medien sollte man sich überlegen Brauche ich das und mag ich das jetzt nur weil alles mögen oder möchte ich das wirklich? Und was, Was bringt es mir und was hilft es mir und sich zu überlegen Was was ist denn eigentlich? Wofür nutze ich die sozialen Medien eigentlich und welchen Kann ich diesen Zweck vielleicht auch irgendwie anders? Also zum Beispiel mit Freunden in Kontakt bleiben oder neueste Trends sehen? Kriege ich das auch irgendwie anders hin? Brauche ich dafür die sozialen Medien? #00:38:27-4#
Katharina Mittenzwei: Und zum Schluss die Frage Frau Schirrmacher, Utopie oder Dystopie? #00:38:33-8#
Franziska Schirrmacher: Im im richtigen Umgang würde ich es eher in die Utopierichtung schieben, weil es natürlich schon uns gute Möglichkeiten liefert. Aber da ist natürlich das Wichtige, dass wir entsprechend gut damit umgehen, gute Datensätze haben, die repräsentativ sind und uns fragen, für welche Anwendungen wir tatsächlich KI brauchen und wie risikobehaftete diese sind. #00:39:06-6#
Katharina Mittenzwei: Ja, danke, Frau Schirrmacher. Ich möchte zum Schluss Sie und die Hörerinnen und Hörer gerne auch noch einladen, und zwar zu den Nürnberger Texttagen. Das ist das Literaturfestival des Bildungscampus Nürnberg. Wir haben in diesem Jahr nämlich zwei Autorinnen zu Gast, die sich in ihren Romanen dem Thema der KI verschrieben haben. Das ist einmal Philipp Winkler mit seinem Roman Creep und Zoe Jenny mit dem Roman Der verschwundene Mond. Ich würde Ihnen empfehlen, einfach auf unsere Website zu gehen www.texttage nürnberg.de und sich anzumelden für die Lesungen. Das wird ganz spannend. Und das heißt, wir merken nicht nur in unserem, in unserem ganz praktischen Alltag ist die KI stark verhaftet, sondern natürlich auch in der Kunst, in der Literatur. Überall, findet sie, findet sie halt. Ja, Frösche mache. Ich möchte mich ganz herzlich bedanken für Ihre Zeit. #00:39:56-7#
Franziska Schirrmacher: Ja, gerne. #00:39:57-5#
Katharina Mittenzwei: Dass ich Sie oder wir Sie kennenlernen durften und unsere spannende Einblicke gegeben haben. Und ich wünsche Ihnen alles Gute für Ihre Forschung. Und ja, eine Menge Datensätze. #00:40:08-2#
Franziska Schirrmacher: Danke schön. #00:40:10-1#
Dieses Projekt/Diese Maßnahme/Initiative leistet einen wichtigen Beitrag, Nürnberg schrittweise inklusiver zu gestalten. Es/Sie ist Teil des Nürnberger Aktionsplans zur Umsetzung der UN-Behindertenrechtskonvention (UN-BRK). Den Ersten Aktionsplan hat der Nürnberger Stadtrat im Dezember 2021 einstimmig beschlossen. Um die gleichberechtigte Teilhabe von Menschen mit und ohne Behinderung in Nürnberg zu verwirklichen, wurden und werden umfangreiche Maßnahmen entwickelt und umgesetzt. Weitere Informationen finden Sie unter www.inklusion.nuernberg.de.

„KI kommt in unserer komplexen Welt schnell an die Grenzen.“ Ein Gespräch über Hund und Katz, emotionale Entscheidungen und das Datensammeln."
Die Doktorandin Franziska Schirrmacher (M. Sc.) von der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) forscht an einem Thema, das jede und jeden von uns mittlerweile fast permanent umgibt - Künstlicher Intelligenz. Für Ihre Forschung am Lehrstuhl für IT-Sicherheitsinfrastrukturen wurde Sie 2021 als KI-Newcomerin des Jahres von der Gesellschaft für Informatik nominiert. Als Algorithmikerin ist Schirrmacher ständig dabei Daten zu sammeln. Viele Daten. Insbesondere für ihr Projekt mit dem Bundeskriminalamt zur Bilderkennung von Autokennzeichen füttert sie ihre technische Infrastruktur mit unzähligen Beispielbildern. Dass dahinter viel Handarbeit steckt, erklärt sich selbst. KI gilt als Schlüsseltechnologie und findet sich überall in unserem Alltag – doch welche Macht steckt wirklich dahinter? Inwieweit können bspw. vermeintliche Ergebnis einer polizeilichen Ermittlung, die durch einen Algorithmus entstanden, juristisch verwendet werden?
Welche Zuordnung und Eingruppierung dürfen wir „den Maschinen“ überlassen? Besonders kritisch wird es dann, wenn wir als Menschen direkt betroffen sind. Mit dem „Artificial Intelligence Act”, dem „Gesetz über Künstliche Intelligenz“, liegt der bislang konkreteste Vorschlag zur Regulierung der Nutzung von KI vor. Er folgt einem risikobasierten Ansatz, nach dem KI-Anwendungen ihrem potentiellen Risiko nach in vier Kategorien eingruppiert werden. Schirrmacher ist sich aber sicher, dass „die KI in unserer komplexen Welt schnell an ihre Grenzen kommt“. Am Ende stellt sich immer die Frage: Utopie oder Dystopie?
- Über die Auswirkung des Frauenmangels in der KI-Forschung
- Mehr über den Artificial Intelligence Act
- die neusten KI-Entwicklungen werden unter anderem hier thematisiert:
- Franziska Schirrmacher und Ihre Arbeit an der FAU
-----
Aufgenommen am: Mittwoch, 20. April 2022
Veröffentlicht am: Donnerstag, 5. Mai 2022
Moderation: Katharina Mittenzwei
Im Gespräch: Franziska Schirrmacher
-------
Alle weiteren Folgen von KontaktAufnahme – der Podcast des Bildungszentrums Nürnberg finden Sie hier. Wir sind mindestens jeden zweiten Donnerstag mit einer neuen Folge online, manchmal öfters.
Wen sollen wir noch befragen - haben Sie Ideen und Anregungen? Oder möchten Sie Ihre eigenen „Glücksmomente“ (manchmal am Ende des Interviews zu hören) an uns schicken? Schreiben Sie uns an!