Künstliche Intelligenz verantwortlich gestalten – Zur Vermeidung von Diskriminierung und Bias
Gastvortrag, 31. Oktober 2019
Entscheidungen von Maschinen gelten als neutral und objektiv, konservieren aber gesellschaftliche Strukturen der Ungleichheit und Ungerechtigkeit. Dies führt zu Diskriminierungen und Verzerrungen durch künstliche Intelligenz (KI). Im Vortrag wird diese Problemlage anhand von Beispielen aufgezeigt. Zudem werden Ansätze und Methoden zu Rate gezogen, die solche Auswirkungen von KI-Technik vermeiden.
Auf einen Blick
Künstliche Intelligenz verantwortlich gestalten – Zur Vermeidung von Diskriminierung und Bias
GastvortragWann?
- 31. Oktober 2019
- 14.00 Uhr bis 16.00 Uhr
-
in meinen Kalender übertragen
BEGIN:VCALENDAR VERSION:2.0 PRODID:-//hacksw/handcal//NONSGML v1.0//EN CALSCALE:GREGORIAN BEGIN:VTIMEZONE TZID:EUROPE/BERLIN BEGIN:DAYLIGHT TZOFFSETFROM:+0100 TZOFFSETTO:+0200 TZNAME:CEST DTSTART:19700329T020000 RRULE:FREQ=YEARLY;BYMONTH=3;BYDAY=-1SU END:DAYLIGHT BEGIN:STANDARD TZOFFSETFROM:+0200 TZOFFSETTO:+0100 TZNAME:CET DTSTART:19701025T030000 RRULE:FREQ=YEARLY;BYMONTH=10;BYDAY=-1SU END:STANDARD END:VTIMEZONE BEGIN:VEVENT LOCATION:TH Köln Campus Deutz Raum ZO66 DESCRIPTION: SUMMARY:Künstliche Intelligenz verantwortlich gestalten – Zur Vermeidung von Diskriminierung und Bias DTSTART;TZID=EUROPE/BERLIN:20191031T140000 DTEND;TZID=EUROPE/BERLIN:20191031T160000 DTSTAMP:20241205T041703 UID:67511b2f21384 END:VEVENT END:VCALENDAR
Wo?
TH Köln
Campus Deutz
Raum ZO66
ReferentIn
Prof. Dr.-Ing. Corinna Bath (TU Braunschweig)
Anmeldung
Zur besseren Planung bitten wir um Anmeldung bis zum 24.10.2019 per Mail an: jannis.steinke@th-koeln.de
Veranstalter
Eine Veranstaltung des Forschungsschwerpunkts DiTeS (Digitale Technologien und Soziale Dienste) und des Expertisezirkels Genderkompetenz am Zentrum für Lehrentwicklung, ermöglicht durch Mittel aus dem Hochschulprogramm Gleichstellungsprojekte.
Künstliche Intelligenz verantwortlich gestalten
Entscheidungen von Maschinen gelten oft als neutraler und objektiver als die von Menschen. Zahlreiche Veröffentlichungen zeigen jedoch, dass Algorithmen und Daten zu Diskriminierungen und Verzerrungen (Biases) führen können. Insbesondere automatisierte Entscheidungssysteme (bspw. bei der Personalauswahl oder der Leistungsbewertung am Arbeitsplatz) stehen in der Kritik, gesellschaftliche Strukturen der Ungleichheit und Ungerechtigkeit zu konservieren oder sogar durch stochastische Verfahren zu verstärken.
Im Vortrag werden Diskriminierungen und Verzerrungen durch Künstliche Intelligenz (KI) anhand von Beispielen und Strukturen aufgezeigt. Zugleich werden Ansätze und Methoden diskutiert, wie solche Auswirkungen von KI-Technik vermieden werden können. So werden zum einen Methoden der kritischen Technikgestaltung, die wie das Participatory Design dafür bekannt sind, Ungerechtigkeit entgegenzuwirken, daraufhin überprüft, inwieweit sie sich in KI und Machine Learning anwenden lassen. Zum anderen wird die Referentin aktuelle und eigene Vorschläge zu einem gerechteren Einsatz von KI diskutieren
Prof. Dr.-Ing. Corinna Bath leitet die Arbeitsgruppe »Gender, Technik und Mobilität« am Institut für Flugführung, TU Braunschweig. Sie lehrt zugleich an der Ostfalia Hochschule für Angewandte Wissenschaften. Seit 2017 leitet sie zusammen mit Prof. Dr. Bettina Wahrig das hochschulübergreifende, interdisziplinäre Niedersächsische Promotionsprogramm »Konfigurationen von Mensch, Maschine und Geschlecht«. Sie studierte Mathematik, Politische Wissenschaften und Informatik und promovierte in der Informatik. Ihre Forschungsschwerpunkte sind Geschlechterforschung in Maschinenbau und Informatik, Science and Technology Studies, gerechte Technikgestaltung, feministische Theorie und Epistemologie, Inter- und Transdisziplinarität.